Se as fake news se tornaram um grande problema no Brasil, principalmente em relação à política, o deep fake fará um estrago ainda pior. Através de inteligência artificial, machine learning e com ferramentas de código aberto, pode-se criar um algoritmo para treinar uma rede neural a mapear o rosto de uma pessoa e, então, substituir os movimentos labiais, expressões do rosto e piscar dos olhos, e até o rosto por completo, no corpo de outra pessoa. Em muitos casos, a qualidade fica impressionante.
A mecânica de funcionamento é bem simples: o software trabalha analisando primeiro os movimentos faciais de um alvo, cuja aparência será usada no vídeo falso. Após mapear a cabeça, o movimento e o piscar dos olhos, os detalhes da boca e demais movimentos o software analisa essas mesmas marcações no vídeo original e então mescla os movimentos. Isso cria um vídeo falso surpreendentemente realista.
Para potencializar isso, duas aplicações podem rodar simultaneamente, uma sendo lançada contra o outra, sendo uma para criar e outra para analisar, em uma série de milhões de ajustes de ida e volta. Isso torna o processo de aprendizado mais rápido e mais preciso do que se um ser humano analisasse cada uma das tentativas.
Políticos como Obama, Trump e Putin já foram vítimas do deep fake. Celebridades como Ariana Grande, Cameron Diaz, Emma Watson, Angelina Jolie e Miley Cirus são vítimas constantes em sites de pornografia, vídeos utilizando seus rostos são facilmente encontrados.
A Faculdade de Washington promoveu um estudo e publicou o vídeo em que o software após horas de análise conseguiu criar movimentos labiais perfeitos do ex-presidente americano Obama. Uniram dois vídeos diferentes, em um aproveitaram o áudio e em outro aproveitaram a imagem. A rede neural recorrente aprende o mapeamento de recursos de áudio brutos para formas de boca.
No caso do estudo, usaram a voz original, mas poderiam facilmente utilizar um imitador ou unir diferentes áudios para formar uma frase. O que poderia acarretar graves problemas políticos de nível mundial.
O Twitter baniu qualquer conteúdo que promova o assunto, como também vídeos que utilizem desta tecnologia. O site pornô Pornhub também fez o mesmo, banindo qualquer vídeo que utilize essa tecnologia. No Brasil, ainda não temos nenhuma iniciativa que impeça a proliferação de conteúdo deep fake.
A falsificação de imagens e vídeos não é nenhuma novidade, existem aplicativos para smartphones que facilmente mudam o rosto de pessoas. No entanto, o ponto em questão é o realismo. A manipulação de imagens e vídeos usando inteligência artificial pode se tornar um fenômeno de massa perigoso.
Outro caso em que esta tecnologia está sendo usada é a “pornografia de vingança”, onde o rosto de pessoas comuns são aplicados em vídeos de pornografia, para que alguma extorsão seja realizada.
A base dessa aplicação usa o TensorFlow, do Google. Uma biblioteca de código aberto para aprendizado de máquina aplicável a uma ampla variedade de tarefas. É um sistema para criação e treinamento de redes neurais para detectar e decifrar padrões e correlações, análogo à forma como humanos aprendem e raciocinam. A concepção do TensorFlow jamais foi pensada em possibilidades tão obscuras.
Neste ano de 2020, contaremos com eleições para prefeitos e vereadores e certamente poderemos ter casos de deep fake sendo usado no Brasil para denegrir a imagem de um determinado político.
Em relação ao mundo corporativo, o deep fake também pode ser um grave problema. Vídeos falsos de presidentes de grandes corporações podem ser espalhados com o objetivo de denegrir a imagem do indivíduo ou da empresa. Até que a informação verdadeira seja revelada, um estrago enorme pode ser feito afetando vendas, marketing, relação com investidores entre outras frentes.
Por isso é de extrema importância certificar-se da procedência da mensagem antes de compartilhar e ter como base, fontes confiáveis de notícias. A informação é a principal moeda do século XXI.
Este vídeo pode te interessar
O autor é especialista em marketing digital e CEO da TRIWI
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta.