Conteúdo investigado: Postagens com fotos sensuais de uma mulher acompanhadas de legenda associada à candidata à Prefeitura de São Paulo Tabata Amaral. Um dos posts apresenta a seguinte descrição: “Tabata Claudia Amaral de Pontes é uma politóloga, ativista pela educação e política brasileira filiada ao Partido Socialista Brasileiro (PSB). Atualmente exerce o mandato de deputada federal pelo estado de São Paulo”.
Onde foi publicado: X.
Conclusão do Comprova: Publicações associam falsamente duas imagens manipuladas de uma criadora de conteúdo adulto a Tabata Amaral. Além da aparente semelhança entre as envolvidas no conteúdo falso, as fotografias foram editadas, conforme apontam especialistas consultados pelo Comprova.
As imagens mostram uma mulher em poses eróticas e trazem na legenda uma minibiografia da candidata do PSB, considerando-a uma “politóloga” – termo para identificar especialistas em ciências políticas ou em política em geral. O texto afirma, ainda, que Tabata é “ativista pela educação”.
Em outra publicação, o autor garante que “vazaram” fotos de Tabata e questiona se os usuários do X votariam na candidata caso fossem eleitores de São Paulo. As imagens, no entanto, sofreram edição.
O jornalista e deepfaker – pessoa que usa a técnica deepfake, que consiste em alterar vídeo ou foto com ajuda de inteligência artificial (IA) – Brunno Sartori, um especialista do jornal A Gazeta e editores de fotografia da Folha de S.Paulo, além do diretor de arte do Comprova, avaliam que as imagens foram manipuladas. Contudo, eles não puderam afirmar que a edição tinha o intuito de assemelhar a mulher a Tabata ou se a própria criadora de conteúdo adulto teria tratado as fotografias.
Na primeira imagem usada no post, uma mulher aparece com a língua para fora e com um arco na cabeça com orelhas de coelhinha da Playboy. Na segunda, ela está em um sofá, com roupas curtas e olha para a câmera.
A partir da ferramenta Winston AI, usada para detectar sinais de inteligência artificial em imagens, Sartori identificou que 99% da primeira imagem tem origem em artifícios de inteligência artificial, enquanto a segunda tem 33%. Foi identificado ainda que a foto de rosto tem 99% de chance de ter sido modificada via deepfake, e a outra, 45%.
Sartori ainda identificou outros traços de manipulação, como é possível ver nas imagens abaixo.
“Há diferença de nitidez dos fios do cabelo. Isso é indicativo que houve manipulação. Os cantos da boca se formam de um jeito totalmente estranho”, disse Sartori.
Na mesma linha, o especialista em Segurança da Informação Gilberto Sudré, colunista da TV Gazeta e da CBN Vitória, também identificou traços de manipulação na imagem, a partir da ferramenta Foto Forensics. É possível ver um quadrado na testa em torno do rosto. Isso significa que foi inserida outra imagem sobre a foto original.
Sudré explicou que quando uma foto é capturada pela câmera, antes de ser salva, é compactada para gerar um arquivo de tamanho menor. Quando esse material é editado em um software de edição, no caso com a inserção de alguma parte de outra imagem, e depois salvo novamente, é possível ver a parte que foi compactada duas vezes.
“O software que usei faz um teste chamado nível de erro, que identifica exatamente essas diferenças entre a foto original e a editada. Está um pouco mais clara do quadrado, exatamente onde foi inserida a imagem nova, ou seja, tem uma parte da imagem que foi compactada duas vezes e uma parte da imagem que foi compactada uma vez”.
A equipe de fotografia da Folha de S.Paulo também analisou a foto da língua de fora e constatou indícios de manipulação, como um blur (desfoque) na região do buço e a falta de sombra ao lado do nariz. Na avaliação dos profissionais, não foi possível identificar se a foto foi manipulada para a inserção do rosto de Tabata ou se a própria criadora de conteúdo adulto fez um tratamento na foto.
Já na segunda imagem em que a mulher aparece apoiada no sofá, Sartori identificou mais traços de manipulação e marcou em vermelho os pontos, como é possível conferir a seguir.
“Estes são pontos que podem apontar manipulação. Essa mancha na sobrancelha é bem característica de rostos sobrepostos, onde acaba ‘vazando’ a sobrancelha que está abaixo. Nesses outros dois círculos, você vê nítida mudança de textura das imagens que passa de algo borrado para uma linha mais nítida”, destacou o jornalista e deepfaker.
O Comprova contatou os autores das publicações. Um deles, no entanto, limita o envio de mensagens diretas para usuários do X Premium – ou seja, apenas usuários desse grupo podem enviar solicitações para pessoas que não os seguem.
No entanto, o autor em questão comentou o assunto após um usuário afirmar, na publicação, que não se tratava de Tabata, e sim da criadora de conteúdo adulto. O autor do post, então, esquivou-se da associação: “Eu não disse que era ela (nem desdisse) [sic]”.
O autor da outra postagem foi contatado via mensagem direta, mas não respondeu até a publicação desta checagem.
Procurada pela reportagem, a equipe de Tabata Amaral informou que serão protocoladas ações legais contra os autores das postagens.
“[Entraremos com] uma notícia crime alegando fato sabidamente inverídico e difamação, além de violações do código penal também e o pedido de remoção da postagem”, afirmou o gabinete de Tabata.
A reportagem tentou contato com a mulher que aparece nas fotos, mas não houve resposta até a publicação deste texto.
Falso, para o Comprova, é o conteúdo inventado ou que tenha sofrido edições para mudar o seu significado original e divulgado de modo deliberado para espalhar uma falsidade.
Alcance da publicação: O Comprova investiga os conteúdos suspeitos com maior alcance nas redes sociais. Até o dia 12 de setembro de 2024, as publicações somavam quase 200 mil visualizações no X.
Fontes que consultamos: Procuramos o jornalista e deepfaker Bruno Sartori, o especialista em Segurança da Informação Gilberto Sudré e editores de fotografia da Folha de S.Paulo. Além disso, contatamos a equipe da candidata Tabata Amaral. Também utilizamos ferramentas para a identificação do uso de inteligência artificial em imagens, como Winston AI e Foto Forensics.
O Comprova acessou o X para obtenção de informações a partir do exterior, por meio de editores que residem na Alemanha e na França.
Por que o Comprova investigou essa publicação: O Comprova monitora conteúdos suspeitos publicados em redes sociais e aplicativos de mensagem sobre políticas públicas, saúde, mudanças climáticas e eleições e abre investigações para aquelas publicações que obtiveram maior alcance e engajamento. Você também pode sugerir verificações pelo WhatsApp +55 11 97045-4984.
Outras checagens sobre o tema: Outras peças de desinformação produzidas com o uso de inteligência artificial já foram verificadas pelo Comprova. O projeto constatou, por exemplo, ser falso áudio em que William Bonner chama Lula (PT) e Geraldo Alckmin (PSB) de bandidos e, na seção Comprova Explica, mostrou o que é deepfake, técnica apropriada para a produção de conteúdos desinformativos.
Investigado por: A Gazeta, CNN Brasil e O POVO
Texto verificado por: Folha, Metrópoles, Estadão, Imirante.com, NSC e Nexo
O Projeto Comprova é uma iniciativa colaborativa e sem fins lucrativos liderada e mantida pela Abraji – Associação Brasileira de Jornalismo Investigativo e que reúne jornalistas de 42 veículos de comunicação brasileiros para descobrir, investigar e desmascarar conteúdos suspeitos sobre políticas públicas, eleições, saúde e mudanças climáticas que foram compartilhadas nas redes sociais ou por aplicativos de mensagens. A Gazeta faz parte dessa aliança.
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rapido possível! Clique no botão ao lado e envie sua mensagem
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta