Repare bem nos rostos dessas 42 pessoas: nenhuma delas existe na vida real e todas essas imagens foram criadas por computador a partir do zero, ou seja, não foram sequer baseadas num rosto verdadeiro. É obra das “redes adversariais generativas”, o nome técnico que se dá à rinha de algoritmos em que uma rede neural compete com outra para gerar imagens com altíssima verossimilhança CRÉDITO: THISPERSONDOESNOTEXIST.COM
Nem vendo para crer
Os deepfakes podem conquistar corações. Serão capazes de fazer a cabeça do eleitor?
Bernardo Esteves | Edição 187, Abril 2022
Yzabel Dzisky se inscreveu no aplicativo de namoro OkCupid a pretexto de fazer um documentário. Aos 50 anos, a diretora, roteirista e ex-atriz francesa ficou interessada pelas histórias que ouviu de amigas e decidiu mergulhar no universo da paquera virtual. Ela tinha se divorciado havia cerca de sete anos de Karim, com quem tinha tido três filhos e vivido “uma belíssima história de amor”. Romances intensos e rocambolescos eram o que ela perseguia desde a adolescência. “Toda mulher gosta de viver histórias de amor originais e sonha com belos encontros”, disse ela numa entrevista à piauí.
A princípio, não entrou no aplicativo para flertar, mas estava aberta ao que viesse. Caso se interessasse por alguém, por que não pagar para ver? “Nunca se sabe.” Dzisky é uma mulher morena de origem polonesa com olhos azuis e cabelos compridos. Os mediterrâneos faziam seu tipo preferido, exatamente como o homem que se identificava como Tony, um neurocirurgião bronzeado que vivia em Los Angeles e estava de mudança para Paris, onde montaria um consultório. Dzisky curtiu o perfil – e foi correspondida.
Tony puxou assunto e quis saber o que ela buscava. Dzisky disse que estava atrás de uma bela história de amor. “Eu também”, respondeu o médico. Continuaram conversando em inglês, trocando fotos e poemas. Falavam pouco de sexo, mas tinham conversas profundamente íntimas. “Fazíamos amor em nossas palavras”, disse a diretora num depoimento ao podcast Les Pieds sur Terre (Com os pés no chão), da rádio France Culture. “Aquilo estava virando uma droga.” Ela ficou impressionada com as coincidências na trajetória de ambos. O cachorro de Tony se chamava Caramelo, o mesmo nome do dela, quando foi adotado. Ele tinha uma filha chamada Leïla; a de Dzisky era Lila. Só podia ser um sinal. “É o destino, vou em frente.”
A primeira chamada de vídeo aconteceu num dia em que Dzisky recebia amigas em sua casa em Paris. Pelo iPhone, ela mostrou o namorado virtual às convidadas e, pela primeira vez, viu seu rosto em movimento. Encantou-se com o brilho dos seus olhos. “Você sente no primeiro olhar que aquilo não vai parar ali”, afirmou. Dali em diante, eles passaram a se falar por vídeo a cada três ou quatro dias, pretexto para a francesa mostrar sua casa, seu cachorro e seus filhos ao novo amor. O médico ligava quase sempre do consultório, mas enviava à namorada fotos das suas viagens. Quando Dzisky fez aniversário, ele lhe mandou a foto de um bolo decorado com seu rosto.
Até que Tony sumiu repentinamente por alguns dias, e Dzisky ficou angustiada. O silêncio do namorado só podia significar que ele não queria saber mais dela. Estava errada. Pouco depois, o médico reapareceu e disse que precisava fazer uma revelação. Seu nome, na verdade, não era Tony. Era Karim. Ele, de fato, era um neurocirurgião, mas não morava em Los Angeles, e sim na Turquia. Mas era verdade, como dissera desde o início, que estava de mudança para a França, onde sua filha iria estudar.
Dzisky ficou chateada com as mentiras, e decidiu pesquisar sobre o cirurgião na internet. Encontrou uma profusão de páginas e descobriu que não apenas o namorado morava mesmo na Turquia como se tratava de um profissional famoso no país. Aparecia com frequência na televisão e tinha um canal no YouTube. A revelação de que tratava com uma personalidade pública a tranquilizou. “Era uma pessoa que existe de verdade”, ela constatou. “Era com ele que eu estava falando por vídeo.” Além de tudo, ele tinha o mesmo nome do seu ex-marido, em mais uma coincidência espantosa. Eles tinham que se encontrar.
Karim estava com passagem marcada para Paris, saindo de Xangai, onde tinha ido em busca de equipamentos para seu novo consultório. Mas teve um problema com o cartão de crédito, e resolveu recorrer à namorada. Será que ela não poderia lhe transferir 3 mil euros? Ele a reembolsaria assim que chegasse na França. Dzisky gelou. “Não é possível”, ela pensou, atordoada com o pedido. Disse a Karim que ligaria mais tarde, e foi tomar um café para esfriar a cabeça.
Seria possível que fosse um golpe? A ideia não saía da sua cabeça. Dzisky contou a história a um amigo, que achou tudo muito estranho. Não fazia sentido que um médico famoso na Turquia estivesse precisando de 3 mil euros (quase 17 mil reais), e ainda por cima pedisse a ela – se fosse mesmo o caso, por que não recorreu primeiro à família? O amigo sugeriu uma solução de compromisso: ela faria um depósito de 200 euros – cerca de 1,1 mil reais – e diria que arrumaria o restante do dinheiro para lhe entregar em Paris. Dzisky seguiu o conselho e fez a transferência. Karim sentiu que estava perdendo a confiança dela e lhe enviou uma cópia de sua passagem de avião – chegaria dali a dois dias. Dzisky seguiu com o plano e foi recebê-lo no aeroporto. Esperou até o último passageiro. “Não tinha ninguém.”
Karim não sumiu do aplicativo, porém. Dzisky quis saber por que ele não tinha aparecido. Insistiu para que se falassem por vídeo, precisava vê-lo. O cirurgião desconversou, mas acabou por ceder. Dessa vez, Dzisky evitou o celular e fez a chamada a partir do computador – queria vê-lo numa tela grande. Pela primeira vez, notou que havia um efeito estranho a cada som que saía dos lábios de Karim. “Que clique-clique é esse quando ele fala?”
Foi de novo o amigo quem lhe deu a chave: devia ser um desses vídeos em que alguém se faz passar por outra pessoa, como no clipe viral em que o ex-presidente norte-americano Barack Obama aparecia falando frases que, na realidade, eram ditas por alguém que não aparecia no vídeo. Seu namorado turco seria um deepfake?
A diretora francesa tinha se apaixonado por alguém que não existe. Ou melhor: de fato há um neurocirurgião de tipo mediterrâneo, que trabalha num hospital em Istambul, tem um canal no YouTube com quase 3 mil seguidores e mais de cem vídeos publicados. Mas não era ele o autor das palavras que seduziram Dzisky nas chamadas de vídeo. Elas eram obra de um golpista que estava controlando a imagem do médico como um titereiro virtual, colocando em sua boca frases que ele próprio estava dizendo. É o que se chama de deepfake, uma montagem tão espantosa, com imagem e voz tão sincronizadas, que consegue enganar muita gente.
“Estamos entrando numa era em que nossos inimigos conseguem fazer com que qualquer um diga qualquer coisa em qualquer momento, mesmo que ele ou ela nunca tenha dito aquilo”, afirma Barack Obama no vídeo citado pelo amigo de Dzisky, divulgado em 2018. Ele próprio resolveu dar um exemplo. “O presidente Trump é um grande de um merda”, disparou, com o semblante sério e sem qualquer sinal de ironia. E continuou: “Eu nunca diria essas coisas, pelo menos não em público. Mas outra pessoa poderia dizê-las, como Jordan Peele.” Nesse ponto, a imagem se divide e revela o truque: o diretor Jordan Peele é quem estava oculto, articulando as frases que, no vídeo, saíam da boca de Obama. Em parceria com o site de notícias BuzzFeed, Peele produziu o vídeo para alertar o público para o potencial dos deepfakes. “Esses são tempos perigosos, e temos que tomar cuidado com o que acreditamos na internet”, disse ele, enquanto a imagem de Obama, ao lado, continuava a repetir tudo o que ele dizia, como se fosse o próprio ex-presidente a falar.
Deepfakes são áudios e vídeos manipulados com ferramentas de inteligência artificial nos quais os personagens aparecem dizendo ou fazendo coisas que nunca fizeram, com resultado bastante realista em alguns casos. O tipo mais comum de deepfake consiste em colocar num vídeo o rosto de alguém que não estava na cena original. O termo em inglês quer dizer “falso profundo” (ou fake profundo), e vem de “aprendizagem profunda”, uma das técnicas usadas para o treinamento do algoritmo que produz o conteúdo manipulado. Nesse processo, a máquina imita o funcionamento das redes neurais do cérebro para aprender a melhorar seu desempenho numa tarefa.
Os deepfakes não seriam possíveis sem uma ferramenta desenvolvida pelo cientista da computação Ian Goodfellow em 2014, na época em que era doutorando na Universidade de Montreal, no Canadá. Goodfellow teve a ideia de fazer uma espécie de rinha de algoritmos, colocando duas redes de inteligência artificial para competirem entre si. Enquanto uma estava programada para gerar o rosto de pessoas que não existem, a outra tinha que detectar quais eram sintéticos. Com esse jogo de falsário e detetive repetido à exaustão, os algoritmos foram aprendendo a gerar rostos de identificação cada vez mais difícil. Em outras palavras, cada vez mais humanos.
Para um deepfake ficar convincente, a máquina precisa ser treinada com muitas imagens do personagem a ser falsificado. “Quanto mais exemplos você der para o algoritmo, maior será a chance de ele moldar o rosto do jeito que você quiser”, disse o cientista da computação Anderson de Rezende Rocha, estudioso dos deepfakes e diretor do Instituto de Computação da Universidade Estadual de Campinas (Unicamp). Por isso, celebridades, políticos e influenciadores das redes sociais, que têm muitas imagens disponíveis na internet, são alvos preferenciais desses vídeos.
A tecnologia dos deepfakes já foi usada para fazer trocas bem-humoradas de rostos de estrelas de Hollywood. Nicolas Cage é o preferido dos deepfakers: o ator já foi inserido no lugar de Indiana Jones, do agente 007 e de Neo, o herói de Matrix. Em outro exemplo popular, Sylvester Stallone é deixado em casa pelos pais em Esqueceram de Mim. A troca de rostos de estrelas do cinema está na origem dos deepfakes, só que num gênero menos lisonjeiro: a pornografia.
Os primeiros deepfakes de que se tem notícia eram vídeos de sexo explícito em que o rosto das atrizes era substituído pelo de celebridades do cinema, como Gal Gadot ou Scarlett Johansson – sem seu consentimento, obviamente. Apareceram no final de 2017 num fórum de discussão do Reddit, uma rede social norte-americana, postados por um usuário anônimo apelidado deepfakes, que acabou emprestando seu nome a todo aquele gênero de conteúdo manipulado.
Pouco se sabe sobre a identidade desse usuário, mas é possível cravar sem muito risco de errar que se tratava de um homem, já que a pornografia deepfake é um gênero essencialmente masculino. Nos inúmeros sites do gênero, praticamente só há conteúdo disponível figurando celebridades femininas como protagonistas. A pornografia não consensual continua sendo a grande locomotiva dos deepfakes, e as mulheres são, de longe, o grupo mais prejudicado por seu uso.
A página dedicada aos deepfakes no Reddit foi extinta três meses após sua criação, mas desde então inúmeros outros espaços foram abertos para a distribuição desses vídeos falsos. O anônimo que publicou os primeiros deepfakes disponibilizou para os colegas as linhas de código que tinha usado, e os algoritmos foram aprimorados por outros programadores. Há tempos não se tem notícia dele, mas seu legado sobrevive nas linhas de códigos derivadas de seu programa inicial.
Com o aprimoramento dos equipamentos e dos algoritmos, a tecnologia ficou mais acessível, e hoje é possível fazer deepfakes bem mais convincentes do que os da primeira geração. “As unidades de processamento gráfico estão cada vez mais baratas, os algoritmos estão cada vez melhores, e as pessoas continuam disponibilizando seus dados de forma gratuita”, diz Anderson Rocha. O pesquisador citou o caso dos aplicativos que permitem ver como a pessoa ficaria se fosse mais velha ou se mudasse de sexo, brincadeiras muito populares nas redes sociais. Quanto mais fotos são submetidas pelos usuários, mais afiados ficam os algoritmos treinados para gerar imagens sintéticas.
“E aí o que temos em 2022? A possibilidade de você gerar um deepfake no seu próprio celular”, diz o cientista da Unicamp. Hoje existem, ao alcance dos dedos de quem tem um smartphone, várias opções de aplicativos capazes de fazer troca de rostos, como o Faceswap, o DeepFaceLab ou o Deepfake Studio. Modelos mais recentes fabricados pela Apple e pela Samsung vêm equipados com chips especializados para o processamento de inteligência artificial. Com um aparelho desses, afirmou Rocha, é possível produzir os vídeos que, durante semanas, enganaram a diretora francesa.
Num vídeo postado na internet em fevereiro, Luiz Inácio Lula da Silva aparece com um pote de paçoca na mão. Vestido informalmente de camiseta verde e boné preto, o ex-presidente está ali para reclamar do doce, um de seus preferidos. “Eu gosto desses doces mais simples, esses mais sofisticados eu não ligo, não”, diz ele. O petista do vídeo queria denunciar a embalagem que lhe pareceu enganosa. Abriu o pote e mostrou para a câmera as paçocas distribuídas só nas bordas – o centro estava vazio. “O cara podia fazer um pote menor. A gente compra um pote gigante, achando que tá cheio de doce”, queixou-se. “Que decepção, eu vou comer isso daqui num dia.”
O vídeo é obra do jornalista e deepfaker Bruno Sartori, de 32 anos, a maior referência no Brasil quando o assunto são os vídeos manipulados com inteligência artificial. Sartori é dono de um canal com mais de 300 mil inscritos no YouTube, no qual já publicou dezenas de deepfakes. Em todos eles, há uma marca d’água que o identifica como o autor e a hashtag #deepfake no título. Os vídeos têm a finalidade de despertar a atenção do público para a manipulação digital. Quando divulgou no Twitter o vídeo de Lula reclamando da paçoca, Sartori alertou seus seguidores: “Esse vídeo pode passar como real pra muita gente. Usei deepfake pra inserir o rosto de Lula e transferir o timbre de voz dele pra fala original: é um computador falando. Precisamos ficar alertas neste ano eleitoral, pois conteúdos com intuito de enganar podem aparecer.”
Em entrevista à piauí por telefone, Sartori contou que trabalhava num portal da cidade de Unaí, no noroeste de Minas Gerais, onde morava, quando tomou conhecimento da existência dos deepfakes pelo Reddit. Ele estava acostumado a fazer charges e vídeos satirizando políticos locais, e logo enxergou o potencial daquela técnica. “Se eu conseguir fazer o rosto de um político da minha cidade cantar o que eu quiser, vai ficar foda”, pensou consigo mesmo. “Aí meti as caras e dei um jeito de aprender.”
Seu primeiro deepfake de política saiu em abril de 2019. A deixa veio quando Jair Bolsonaro se atrapalhou ao citar o próprio slogan de campanha numa viagem a Dallas. “Brasil e Estados Unidos acima de tudo, Brasil… acima de todos”, hesitou o presidente. O episódio fez Sartori se lembrar de Chapolin Colorado – o super-herói satírico do popular seriado mexicano –, que vira e mexe começava a recitar um ditado e completava com outro diferente. O jornalista decidiu colar a cara do presidente no personagem originalmente interpretado por Roberto Bolaños, de uniforme vermelho e antenas na cabeça. A peça ficou pronta no dia seguinte à gafe: é um vídeo de dezoito segundos em que Chapolin Bolsonaro repete as trapalhadas do presidente durante aquela viagem, em que ele falou também dos “nova-iorquines”. Um amigo tratou de divulgar no Twitter, rede em que Sartori ainda não tinha conta, e pela primeira vez ele viralizou na internet.
O jornalista continuou fazendo vídeos satíricos com políticos. Quando vazaram mensagens de Telegram em que Sergio Moro dizia não querer melindrar Fernando Henrique Cardoso, Sartori tratou de colocar o rosto do ex-juiz no corpo de uma dançarina vestida de melindrosa. Quando o ex-presidente Lula foi solto, ele fez uma paródia da novela mexicana A Usurpadora, em que o petista aparece ligando para Bolsonaro avisando que tinha voltado. Visualizado 1,5 milhão de vezes no YouTube, esse é, até hoje, o maior sucesso do deepfaker.
Mas seus vídeos não se resumem à política. Num deepfake de sua autoria produzido no ano passado, Silvio Santos aparece dando uma notícia na bancada do Jornal Nacional no lugar – e com a voz – de William Bonner. O vídeo é parte de uma série feita por encomenda do sbt. Graças à projeção que ganhou com os deepfakes, Sartori também assinou contratos com a Globo e com agências de publicidade, e hoje trabalha com uma equipe de quatro pessoas na produção de seus vídeos.
O deepfaker gosta de se definir como um “cartunista 2.0”, que usa tecnologia de ponta para fazer o mesmo tipo de sátira política que praticava antes de usar inteligência artificial. Ele enxerga em seus vídeos um instrumento para prevenir o uso malicioso dos deepfakes nas eleições. “Tomei a postura de mostrar o que a tecnologia é capaz de fazer, para vacinar mesmo as pessoas”, diz Sartori. “É melhor que elas vejam hoje Lula ou Bolsonaro cantando num vídeo falso do que descubram essa tecnologia num vídeo em que um deles diz que desistiu do pleito e pede votos para outro candidato.”
Não é preciso saber programar para fazer um deepfake, mas o usuário deve ter familiaridade com os programas, já que nem todos têm interface amigável. O gargalo maior não é a expertise, mas o equipamento. “Você precisa de uma placa de vídeo capaz de treinar um modelo grande o suficiente para que tenha um bom resultado”, afirma Sartori. Ele próprio trabalha com duas unidades de processamento gráfico de capacidade muito acima da de um PC comum. Uma delas, de valor estimado entre 8 mil e 10 mil reais, foi comprada com dinheiro levantado junto aos fãs num financiamento coletivo (Sartori arrecadou então 19 mil reais que usou para renovar seu equipamento). A outra placa de vídeo, que ele estima valer cerca de 30 mil reais, foi adquirida para fazer os trabalhos encomendados pelo SBT.
O segredo de um deepfake acima de qualquer suspeita é o treinamento do algoritmo com imagens da pessoa a ser inserida nas mais variadas poses e situações, e em condições diferentes de iluminação. No caso do vídeo de Lula segurando o pote de paçoca, Sartori teve que treinar o modelo do zero, num processo que levou dois dias. Caso queira fazer novos vídeos do ex-presidente usando o mesmo modelo, não levará mais tanto tempo, pois o banco de dados já está constituído. A qualidade do resultado é uma função direta da quantidade e variedade de dados com que o deepfaker alimenta seu modelo. “Se você não tiver um banco de dados digno, não vai ter uma saída digna.”
No caso do deepfake que conquistou o coração de Yzabel Dzisky, havia uma fartura de imagens disponíveis para alimentar o banco de dados. Como o neurocirurgião tem dezenas de vídeos disponíveis no YouTube, não faltou material para o treinamento de um modelo que soasse natural numa conversa em vídeo por celular.
Esse tipo de montagem, em que uma pessoa se faz passar por outra numa conversa ao vivo, só se tornou possível há menos de dois anos. Sua produção requer um banco de dados abrangente e uma placa de vídeo capaz de fazer o processamento das imagens em tempo real. “Se o vídeo não for transmitido em alta definição, o cara pode disfarçar as falhas que poderiam estar visíveis”, disse Anderson Rocha, da Unicamp. “A depender das configurações escolhidas, um computador de mesa normal pode ser suficiente para fazer isso.”
Hoje existem softwares que oferecem ao usuário a possibilidade de usar deepfakes para entrar numa reunião de Zoom encarnando alguma celebridade e não requerem equipamentos extraordinários. É o caso do DeepFaceLive ou do Avatarify, cujo banco de dados já vem treinado para personificar figuras como Elon Musk, Albert Einstein ou a Mona Lisa.
Os algoritmos que permitem trocar um rosto por outro nos vídeos forjados devem muito à tecnologia de identificação facial. “É justamente o reconhecimento de rostos que tornou possível a evolução dos deepfakes”, disse a cientista da computação e ativista Ana Carolina da Hora, conhecida como Nina da Hora. A pesquisadora tem chamado atenção sobre como a inteligência artificial contribui para perpetuar o racismo estrutural da sociedade. No caso do reconhecimento facial, os algoritmos foram na sua maioria desenvolvidos por programadores brancos e treinados principalmente com pessoas brancas. Por isso, são menos eficazes para reconhecer pessoas negras, o que está por trás de vários casos de erros de identificação que levaram a detenções arbitrárias.
Quando soube pela piauí do caso de Yzabel Dzisky, Da Hora quis saber em que plataforma a cineasta tinha conversado com o golpista. Ela apostava que eles haviam se falado por iPhone – e tinha razão. A conversa aconteceu pelo FaceTime, um aplicativo de videochamada disponível apenas para os dispositivos da Apple. Os desenvolvedores de deepfakes se valeram de ferramentas desenvolvidas pela empresa norte-americana para correção de olhos vermelhos, da iluminação ou da luz refletida pela tela, disse a cientista da computação. “Tem uma série de técnicas de tratamento de imagens que podem facilitar a manipulação da mídia.”
Em outro palpite certeiro, Da Hora arriscou que a vítima não devia ser uma mulher jovem. Provavelmente se tratava de alguém que tinha crescido numa realidade tecnológica totalmente diferente e queria acompanhar o mundo em transformação. “As gerações mais novas já assumem esse risco como parte da vivência da evolução tecnológica”, afirmou a pesquisadora de 26 anos.
Num episódio que veio à tona em 2019, uma empresa britânica de energia sofreu um rombo de 220 mil euros (1,2 milhão de reais). O caso, revelado pela seguradora Euler Hermes, envolvia um deepfake de áudio. Um funcionário graduado recebeu uma chamada do presidente da empresa – um executivo alemão – solicitando a transferência daquele valor para a conta de um fornecedor da Hungria. Como a voz do outro lado tinha o timbre, a tonalidade, a cadência e até o sotaque do chefe, o funcionário não desconfiou e cumpriu a ordem. De acordo com a empresa de segurança digital Symantec, outras três empresas foram vítimas de armações parecidas.
Por paradoxal que possa parecer, é mais trabalhoso fazer deepfakes de áudio do que de vídeo. “Você tem que buscar horas de gravação de qualidade, onde o som não esteja chiado”, disse Bruno Sartori. O treinamento envolve a transcrição de cada frase inserida no banco de dados, bem como a sinalização da pontuação e das hesitações do personagem. De acordo com o deepfaker brasileiro, o processo de treinamento do algoritmo para imitar vozes pode levar até oito dias.
O debate público foi marcado pelo alarmismo desde o surgimento dos primeiros deepfakes. “Chegou o pornô fake produzido por inteligência artificial, e estamos todos fodidos”, anunciava o título da primeira reportagem sobre o fenômeno, publicada em 2017 pelo Motherboard, canal de ciência e tecnologia da revista Vice. Mais de um colunista alertou que nunca mais poderíamos acreditar nos áudios e vídeos que consumimos. Para o experiente jornalista Franklin Foer, aquilo era um sinal de que estamos caminhando para o colapso da realidade, conforme escreveu na revista The Atlantic.
Em 2016, o cientista da computação norte-americano Aviv Ovadya cunhou o neologismo “infocalipse” – era o apocalipse da informação. O termo foi escolhido pela historiadora e cientista política Nina Schick, nascida no Nepal, como título para o livro que lançou em 2020, ainda sem tradução em português: Deepfakes: The Coming Infocalypse (Deepfakes: o infocalipse vem aí). “Estamos diante de um futuro em que toda informação será não confiável”, vaticinou a autora. O escritor norte-americano Michael Grothaus seguiu no mesmo tom em outro livro sobre o tema, também sem tradução para o português, Trust No One: Inside the World of Deepfakes (Não confie em ninguém: por dentro do mundo dos deepfakes), de 2021. Para ele, os deepfakes estão por trás de uma erosão da confiança que pode ser desastrosa para a vida comum. “Sem confiança, as instituições das quais a sociedade depende para funcionar – o governo, a Justiça, as instituições científicas e educacionais, a mídia e até os militares – correm o risco de entrar em colapso”, escreve o autor.
Os deepfakes não inventaram a desinformação ou a manipulação de imagens. A troca de rostos não era novidade para os antigos romanos, que faziam frequentemente estátuas com cabeças removíveis, de forma que pudessem ser substituídas pela de outro personagem, pelos mais variados motivos. Quando o presidente norte-americano Abraham Lincoln foi assassinado, em 1865, sua cabeça foi superposta numa gravura do corpo de um outro político, na falta de opções que apresentassem o mandatário em situação heroica.
O exemplo histórico mais conhecido de manipulação de imagens é o do líder soviético Josef Stálin, famoso por remover antigos colaboradores de fotografias à medida que ia rompendo com eles. Stálin também mandava inserir sua própria imagem em fotos de situações das quais nunca tinha participado. Um caso extremo de apagamento histórico é o de uma foto tirada na conferência do Partido Comunista em 1925, que mostrava Stálin ao lado de nove companheiros. Depois disso, seis deles se suicidaram, foram assassinados ou presos, e acabaram sendo removidos do registro visual. Uma versão da foto reproduzida em 1939 mostra Stálin rodeado por apenas três aliados.
Os deepfakes, no entanto, trazem uma novidade: o casamento entre a manipulação digital dos vídeos e a rapidez sem precedentes da sua difusão pelas redes sociais, conforme assinalaram as pesquisadoras da desinformação Britt Paris e Joan Donovan, num relatório sobre o tema publicado em 2019. Elas notaram também que o discurso apocalíptico sobre os deepfakes se constrói com base na falsa premissa de que fotos e vídeos são evidências objetivas, factuais e inquestionáveis. “Mas a ‘verdade’ do conteúdo audiovisual nunca foi estável – a verdade é determinada social, política e culturalmente”, escreveram.
Sempre houve disputas para determinar o que conta ou não como prova de verdade e, como dizem as autoras, para definir quem tem o poder de decisão. Novas tecnologias – como os deepfakes – não mudam a forma como definimos o que conta ou não como evidência. “O que elas trazem, por outro lado, são novas oportunidades para a negociação da expertise e, portanto, do poder.” Se essa negociação não atacar as assimetrias existentes na sociedade, as maiores vítimas dos deepfakes continuarão sendo os grupos que já são mais prejudicados pela manipulação de conteúdo audiovisual. Ou seja: mulheres, negros, dissidentes políticos.
Em Paris, a ficha de Yzabel Dzisky custou a cair. Ela não se conformava de ter vivido uma paixão dentro de um golpe. Ela precisava ter certezas, passar a história a limpo. Continuou a se fazer de apaixonada nas trocas de mensagens com Karim e insistiu em vê-lo mais uma vez numa chamada de vídeo – até que conseguiu. “É você, meu bem”, ela disse, ao vê-lo na tela. E então decidiu testá-lo. “Não é você…” Ele estranhou, e ela repetiu: “Não é você, né?” Nesse instante a ligação caiu, como se houvesse uma pane, e Karim não voltou mais. A suspeita estava confirmada.
Mas Dzisky queria ir até o fim e desvendar o mistério. Toda noite ela enviava uma mensagem a Karim dizendo que sabia quem ele era, e que queria que ele contasse tudo. Não era pelos 200 euros – ela só precisava conhecer toda a história para poder seguir em frente. Ao cabo de uma semana de insistência, o suposto turco terminou por lhe escrever. Disse que ela tinha razão: ele não era Karim. Na verdade, se chamava David, tinha 20 anos e era nigeriano. Fazia parte de um grupo que roubava a identidade de pessoas reais para tirar dinheiro de mulheres como ela, mas também de homens.
O médico turco por quem ele se passava é uma personalidade real frequentemente adotada por golpistas para enganar mulheres, alerta o site da ONG Scars (sigla em inglês para Sociedade de Cidadãos contra Fraudes em Relacionamentos), que tem uma galeria com as imagens mais usadas pelos criminosos nos aplicativos de namoro. Um canal do YouTube criado com a mesma finalidade publicou um deepfake do cirurgião que teria sido enviado a uma das vítimas para provar sua identidade, no qual ele diz em inglês que não é uma fraude.
No caso de Dzisky, o falsário que se passou pelo turco também se envolveu, à sua maneira. “Eu tinha amizade por você quando te escrevia”, disse David. “Você sabe que nós tiramos muito mais dinheiro das mulheres”, continuou. “Somos riquíssimos.” Afirmou ainda que não sabia das coincidências envolvendo o nome do cachorro, da filha e do ex-marido de Dzisky. “Um dia talvez eu te mostre quem sou de verdade.”
Até que chegou o dia em que David de fato se revelou. Ele chamou Dzisky para uma conversa em vídeo e perguntou se ela queria vê-lo. E enfim mostrou seu verdadeiro rosto. “Ficamos ali olhando um para o outro, os dois com um certo incômodo, cada um por seus motivos”, disse Dzisky à piauí. Ela ficou com os olhos marejados, dividida entre os sentimentos de raiva, vergonha e afeto. David – que não deu seu nome completo – lhe contou que queria ter estudado ou, quem sabe, ter virado jogador de futebol, seu sonho de infância. Dzisky sentiu alguma empatia pelo rapaz, que tinha a idade de um de seus filhos. E ali lhe veio o estalo: ela precisava avisar o verdadeiro Karim que seu nome estava sendo usado num golpe. Quando anunciou a David que faria isso, o golpista tentou dissuadi-la, o que só a deixou mais convencida. Ela encerrou a chamada e decidiu ir atrás do turco.
Em 23 de outubro de 2018, a cinco dias do segundo turno da eleição para o governo de São Paulo, circulou pelo WhatsApp um vídeo do candidato João Doria, do PSDB, numa orgia em meio a seis mulheres. A data na tela sugere que a cena foi filmada no dia 11, quatro dias após o primeiro turno em que o tucano ficou com 32% dos votos, à frente dos adversários. Doria negou a autenticidade do material com veemência num vídeo gravado ao lado de Bia, sua mulher. “Hoje eu vi um vídeo vergonhoso nas redes sociais, que foi produzido por alguém que só quer o meu mal e o mal da minha família. Uma produção grotesca. Fake news”, afirmou. Na imprensa, não faltou quem lançasse a suspeita de que se tratava de um deepfake – os primeiros vídeos do tipo tinham sido divulgados quase um ano antes.
Numa investigação encomendada pela Veja São Paulo e concluída no dia seguinte ao episódio, a perita criminal e advogada Roselle Soglio avaliou que se tratava de um vídeo manipulado. Dentre os argumentos para fundamentar sua conclusão, ela disse que o homem na cama parecia estático e artificial, olhando sempre para a mesma direção. Alegou também que o nariz do candidato era mais fino do que o do personagem do vídeo, em razão de uma intervenção estética recente. Além disso, o software de análise forense usado pela perita apontou que uma das mãos do personagem desaparecia parcialmente, e que os lábios ficavam estáticos enquanto ele mexia seu rosto.
Um dia depois, circulou outro laudo sobre o vídeo, elaborado pelo perito criminal Onias Tavares de Aguiar, que alegou confidencialidade e não revelou quem encomendara a investigação. Divulgado pela revista Fórum, o laudo não viu indícios de manipulação digital e concluiu que o homem no vídeo tinha “características compatíveis” com Doria. O candidato pediu na época que a Polícia Federal analisasse o vídeo. A investigação só ficou pronta em janeiro último, no começo deste ano eleitoral no qual Doria pretende concorrer à Presidência. De acordo com o laudo da PF, não havia qualquer sinal de adulteração no vídeo, conforme mostrou uma reportagem da revista Crusoé. A PF não informou por que demorou mais de três anos para realizar a perícia e divulgar o resultado.
Para Bruno Sartori, o vídeo pode até ter sido manipulado, mas certamente não com a técnica dos deepfakes. “Naquela época essa tecnologia tinha muita dificuldade de localizar rostos no escuro”, afirmou. Como o vídeo se passa num quarto à meia-luz, o computador não teria como localizar o rosto do personagem-alvo para transplantar nele o rosto de Doria. A posição do personagem também depõe contra a hipótese do deepfake. “Seria preciso alimentar o modelo com um vídeo do João Doria com a cabeça deitada e o rosto inclinado, mas não existe uma entrevista com a cabeça dele nessa posição”, afirmou.
Mais de três anos depois, o caso continua inconclusivo. Se de fato houve manipulação, não se sabe quem estaria por trás. Sartori não acredita na hipótese de que o vídeo foi vazado para atrapalhar a candidatura de Doria. “Num país machista e homofóbico como o Brasil, se você quer produzir conteúdo para queimar um homem, você não vai colocá-lo com seis mulheres numa cama, você vai pô-lo num flagrante com outros homens”, afirmou. O episódio não parece ter afetado a intenção dos eleitores: Doria ganhou o segundo turno com 52% dos votos válidos, o mesmo percentual projetado pelo Ibope numa pesquisa noticiada uma semana antes da divulgação do vídeo.
Na Malásia, foi justamente um vídeo de sexo entre dois homens que causou escândalo. Em cena, estavam Mohamed Azmin Ali, ministro de Assuntos Econômicos do país, junto com o assessor de um ministro rival. O detalhe é que, na Malásia, o sexo entre homens é crime e pode render até vinte anos de prisão. Ali e o primeiro-ministro alegaram que se tratava de um deepfake, e o país se viu em meio a uma grande discussão sobre a autenticidade do vídeo. Um perito que examinou o material para a SBS News, serviço noticioso de uma rede de tevê australiana, não viu sinais de manipulação. O assessor admitiu a participação no vídeo, alegou que o outro homem era Ali e foi preso. O ministro continua no governo, agora à frente do Ministério do Comércio Internacional e da Indústria.
Sejam verdadeiros ou sejam falsos, os vídeos dos dois casos, de Doria e do malaio, ilustram um legado dos deepfakes: daqui para a frente, qualquer figura pública flagrada num vídeo embaraçoso terá sempre o recurso de alegar que se trata de conteúdo manipulado digitalmente por inteligência artificial. Nos dias de hoje, alguém tem dúvida sobre qual seria a defesa do ex-governador do Distrito Federal, José Roberto Arruda, naquele célebre vídeo em que aparece recebendo envelopes recheados de propinas?
O primeiro caso confirmado do uso de deepfakes no contexto eleitoral vem da Índia. O vídeo em questão foi distribuído às vésperas das eleições legislativas de Nova Delhi em 2020 para promover a campanha do Partido Bharatiya Janata (Partido do Povo Indiano), do primeiro-ministro Narendra Modi. Nas imagens, o presidente do partido, Manoj Tiwari, se dirigia aos eleitores em três idiomas: hindi, inglês e haryanvi, um dialeto do hindi que ele sabidamente não fala. Era produto da inteligência artificial. Na época, o responsável pelas redes sociais do partido declarou à Vice que o vídeo havia sido distribuído para 5,8 mil grupos de WhatsApp e alcançara 15 milhões de pessoas. Mas não adiantou: o partido ficou com apenas 8 dos 70 assentos disponíveis na Assembleia Legislativa de Nova Delhi.
No Gabão, um suposto deepfake quase derrubou o governo no começo de 2019. O vídeo em questão trazia a saudação de Ano-Novo do presidente Ali Bongo para a população. O problema é que o mandatário andava sumido, e aquela era a sua primeira aparição pública em quase dez semanas. Ele sofrera um derrame, e circulavam rumores de que podia ter morrido; em casos de enfermidade grave ou morte, a Constituição do país determina que uma eleição seja realizada dentro de sessenta dias.
No vídeo, o presidente parecia apático e artificial e piscava pouco. Os opositores denunciaram que era material manipulado pelo governo para acobertar o real estado de saúde de Bongo. O vídeo foi o pretexto para uma tentativa fracassada de golpe uma semana depois. Bongo só voltou a fazer aparições públicas em agosto, e continua até hoje no poder. Para alguns analistas, a postura do presidente no vídeo poderia ser apenas fruto das sequelas do derrame. A autenticidade – ou a falsidade – do material nunca foi confirmada.
Os deepfakes chegaram até a guerra da Rússia contra a Ucrânia. Em março, no 21º dia do conflito, um vídeo falso do presidente ucraniano Volodymyr Zelensky foi publicado no site de um canal de tevê do seu país, que havia sido hackeado. No vídeo, o mandatário fazia um apelo às suas tropas para que depusessem as armas. Ao divulgar o caso no Twitter, o repórter da bbc Shayan Sardarizadeh notou que a montagem era grosseira e que o presidente soava como um russo. “Já vi alguns deepfakes bem-feitos, mas esse está entre os piores de todos os tempos”, escreveu.
Desde o vídeo de Doria, o fantasma das imagens manipuladas aparece a cada ano eleitoral. Em 2020, quando os brasileiros foram às urnas escolher prefeitos e vereadores, o senador Angelo Coronel (PSD-BA), presidente da CPI das Fake News, soou o alarme: “Temos que ficar atentos aos deepfakes, que devem aparecer nessas eleições e que são mais perigosos do que as fake news”, declarou ao portal R7. Ao contrário do que previu o senador, a inteligência artificial não deu as caras durante a campanha. Agora, quatro anos depois da vitória de Jair Bolsonaro no pleito da “mamadeira de piroca” – eleição que ficou marcada pela difusão de desinformação em escala inédita –, os deepfakes estarão por toda parte?
Poucos analistas acreditam nessa hipótese. “Os deepfakes são mais caros, demandam conhecimento técnico e não são acessíveis. Podemos até ter um caso ou outro, mas serão esclarecidos muito mais rapidamente do que em 2018”, acredita Yasodara Córdova, pesquisadora e desenvolvedora interessada em questões de cibersegurança e privacidade digital. “Os ataques à integridade da informação são mais comuns no Brasil nas formas mais baratas”, disse Córdova, que está vinculada ao Centro Roy e Lila Ash, um instituto de pesquisa da Escola de Governo John F. Kennedy, de Harvard.
No caso da manipulação de áudio e vídeo, as formas mais baratas a que Córdova se refere são às vezes chamadas de cheapfakes (“falsos baratos”), um termo que abarca de forma genérica uma grande variedade de técnicas de manipulação digital que não recorrem à inteligência artificial. Elas envolvem artifícios de edição relativamente simples, incapazes de fazer algo mais elaborado do que as manipulações dos propagandistas de Stálin. Os cheapfakes são mais baratos e mais rápidos de fazer, mas seus efeitos podem ser desastrosos para os envolvidos.
Um exemplo recente é um vídeo que circulou em janeiro no qual Lula afirma ter uma relação com o demônio. “Eu estou falando com o demônio e o demônio está tomando conta de mim”, diz ele. O material é autêntico. Lula de fato disse aquelas frases, mas a versão distribuída nas redes sociais excluiu um trecho que invertia o sentido da declaração. A fala original ocorreu em agosto do ano passado, durante um encontro com representantes de religiões de matriz africana, em Salvador. Na verdade, Lula disse a frase ao denunciar que as redes bolsonaristas o acusavam de ter relação com o demônio. O site Metrópoles, que não caiu na mentira, informou ter recebido o vídeo das mãos de uma liderança evangélica, que o compartilhara julgando se tratar de conteúdo autêntico.
Outro caso notório de cheapfake é o vídeo em que a velocidade de uma fala da deputada democrata Nancy Pelosi, presidente da Câmara dos Estados Unidos, foi diminuída de modo a dar a impressão de que ela estava bêbada. O vídeo foi compartilhado por vários apoiadores próximos de Donald Trump, incluindo seu advogado, Rudolph Giuliani. Era uma manipulação tosca, mas teve 2,2 milhões de visualizações em 48 horas numa única página do Facebook.
“Os cheapfakes são a pior coisa que vai nos acontecer neste ano”, disse a jornalista Cristina Tardáguila, fundadora da Agência Lupa e diretora de programas do Centro Internacional para Jornalistas, com sede em Washington.[1] “Os deepfakes são um fantasma com um número mínimo de casos concretos na política”, disse. “Eu não apostaria nesse cavalo.” Tardáguila está mais preocupada com a desinformação que vai circular durante a campanha em plataformas como o Telegram ou o TikTok. Ela suspeita também que pode haver casos de ultrassegmentação da desinformação, visando atingir grupos muito específicos de eleitores, à imagem do que se viu recentemente nos Estados Unidos.
Por outro lado, a jornalista acredita que chegamos às eleições mais preparados do que estávamos em 2018. “Desinformação virou um tema que emprega, rende leis e virou assunto na boca das pessoas, e tem muito mais gente estudando na academia”, afirmou. Por tudo isso, as pessoas estão mais atentas ao conteúdo que recebem nas redes sociais. Para Tardáguila, o melhor exemplo é o caso da greve dos caminhoneiros em 7 de setembro do ano passado. O líder do movimento, cujo apelido é Zé Trovão, recebeu um áudio de Bolsonaro lhe pedindo que os manifestantes liberassem as estradas. Zé Trovão desconfiou de que fosse uma pegadinha. Foi preciso que o ministro da Infraestrutura, Tarcísio de Freitas, gravasse um vídeo confirmando que aquele recado era mesmo do presidente, para que o caminhoneiro se convencesse. “Nos níveis mais diferentes as pessoas estão antenadas para a probabilidade de um áudio de WhatsApp ser falso”, disse Tardáguila. “Em 2018 não era assim.”
Os deepfakes podem ainda não ter entrado para valer na campanha eleitoral, mas a tecnologia por trás deles já vem sendo usada para espalhar desinformação. Hoje, há sites capazes de gerar retratos perfeitos de pessoas que nunca existiram, como o This Person Does Not Exist – que gerou as imagens que ilustram esta reportagem. Os personagens que surgem na tela a cada vez que se atualiza o site têm rugas, olhares e sorrisos extremamente realistas, mas nenhum deles representa um indivíduo de carne e osso. São rostos sintéticos gerados com “redes adversariais generativas” – o nome técnico da rinha de algoritmos em que uma rede neural compete com outra para gerar imagens cada vez mais difíceis de serem identificadas.
E elas vêm conseguindo exatamente isso: as pessoas não conseguem distinguir os rostos do site This Person Does Not Exist dos retratos de pessoas reais, conforme mostrou um estudo publicado em fevereiro na PNAS, a revista da Academia Nacional de Ciências dos Estados Unidos. Mais impressionante que isso, elas consideram os indivíduos das fotos sintéticas mais confiáveis do que as pessoas de verdade. De acordo com os autores, isso talvez possa ser explicado pelo fato de os rostos sintéticos se parecerem com um rosto médio, considerado mais confiável.
“Desde 2019 temos visto o uso dessas imagens para fazer perfis falsos em redes sociais”, disse Luiza Bandeira, jornalista que atua como pesquisadora da desinformação em eleições no Atlantic Council, um think tank de relações internacionais sediado em Washington. Quando os perfis falsos usavam fotos de pessoas existentes, era possível identificá-los e denunciá-los. “Mas as imagens criadas por inteligência artificial são imunes à busca reversa por imagens”, disse Bandeira.
Para a pesquisadora, os deepfakes são motivo de dor de cabeça, mas, por enquanto, apenas para o futuro. “Na prática, não há necessidade de fazer deepfake, porque as pessoas acreditam na desinformação”, afirmou. Nas eleições deste ano, Bandeira teme principalmente as mensagens que serão trocadas nos grupos fechados e radicalizados. “A preocupação mais óbvia é com alegações de falta de legitimidade do sistema eleitoral.”
Para quem acompanha o tema da desinformação, os piores pesadelos para as eleições deste ano envolvem um cenário parecido com o da invasão do Capitólio nos Estados Unidos, no início do ano passado. Nesse episódio, apoiadores do ex-presidente Donald Trump, derrotado nas urnas, invadiram a sede do Congresso norte-americano a fim de impedir que Joe Biden, vitorioso nas urnas, fosse declarado o novo presidente. A rebelião foi insuflada pelo próprio Trump, que alegava ter havido uma fraude eleitoral, embora não houvesse – e até hoje não há – a mais remota evidência disso.
No Brasil, há tempos o presidente Bolsonaro vem espalhando mentiras sobre fraudes nas urnas eletrônicas, alimentando uma narrativa que, em caso de derrota eleitoral, pode ser usada para justificar algum levante inspirado nos manifestantes norte-americanos. “As redes vão ser usadas para deformar, para desinformar e para gerar contestações extremamente nocivas à democracia no país”, diz o sociólogo Marco Aurélio Ruediger, que está à frente da Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas (FGV-DAPP).
Assim como os demais especialistas ouvidos pela piauí, Ruediger não acredita que os deepfakes terão papel central nas eleições. Mas ele aposta que as notícias falsas vão circular de forma ainda mais intensa do que em 2018. “A inundação de desinformação pode acontecer numa escala tão grande que não vai ter checador que dê conta”, afirmou. “A campanha vai ter um nível de virulência brutal. Temos uma situação bastante perigosa que pode chegar a um ponto parecido com o desafio às instituições como houve nos Estados Unidos.”
Em 2017, Ruediger passou a integrar o Conselho Consultivo sobre Internet e Eleições do Tribunal Superior Eleitoral (TSE). Para o sociólogo, o tribunal precisa mudar de postura diante da proliferação da desinformação que ataca a democracia. “O TSE tem que entender que sua missão não é mais só botar urnas e fazer funcionar o processo”, disse o sociólogo. “É preciso uma estrutura muito bem afinada e capacitada, permanentemente focada nas campanhas que influenciam violentamente o processo eleitoral e fragilizam o próprio TSE.”
O tribunal passou a lidar com o tema da desinformação em 2017 com iniciativas pontuais, a cada eleição. No ano passado, o programa que havia sido criado em 2019 para combater a desinformação nas eleições de 2020 foi tornado permanente pelo ministro Luís Roberto Barroso, então presidente da corte. Quando o ministro Edson Fachin assumiu o posto no lugar de Barroso, em fevereiro, a estrutura passou a contar com uma assessoria composta por sete membros especializados em ciência política, comunicação, gestão e tecnologia.
“A preocupação primordial é combater a informação que ataca a Justiça Eleitoral e a integridade do pleito”, disse à piauí a advogada Christine Peter da Silva, que está à frente da Secretaria-Geral da Presidência do TSE. Silva disse ainda que casos de desinformação que ataquem candidaturas específicas não estão na alçada do órgão. Se surgir durante a campanha um vídeo como o da orgia com João Doria, por exemplo, o núcleo não vai entrar em ação. “Se for um deepfake de um candidato contra outro, não entra no escopo do programa de enfrentamento à desinformação”, afirmou Silva. Em situações como essa, os candidatos que se sentirem prejudicados têm a prerrogativa de acionar a Justiça Eleitoral. Se aparecer um vídeo que ameace o processo eleitoral ou algum direito fundamental dos eleitores, como no caso hipotético de um deepfake anunciando que as eleições foram canceladas ou adiadas, aí cabe intervenção do tribunal. Nesse caso, as ações do TSE podem incluir a notificação das plataformas digitais, se os termos de uso tiverem sido violados, ou o acionamento do Ministério Público, em caso de crime.
Em 19 de dezembro de 2018, dois meses após o vazamento do vídeo de Doria, o presidente Michel Temer, nos últimos dias de seu mandato, sancionou a lei que alterou o Código Penal e tipificou o crime de quem filma ou registra cenas de nudez ou atividade sexual sem o consentimento dos envolvidos. Um parágrafo da lei especificou que o mesmo se aplica a quem fizer montagens para incluir alguém numa cena de nudez ou sexo, com pena de até um ano de prisão e multa.
A mudança do Código Penal contempla apenas os deepfakes de caráter sexual, notou o advogado Carlos Affonso Pereira de Souza, diretor do Instituto de Tecnologia e Sociedade e pesquisador das interfaces entre o direito e as novas tecnologias. “Isso é insuficiente se você pensar na quantidade de situações em que os deepfakes podem ser usados”, afirmou. Ao mesmo tempo, continuou Souza, não precisamos mudar as leis a cada nova tecnologia que aparecer. “O deepfake consiste em um uso não autorizado e lesivo da imagem, e isso já é punido na legislação.”
Além disso, está em trâmite também o projeto de lei nº 2630, dito PL das Fake News, que determina regras para o funcionamento das redes sociais e dos serviços de troca de mensagens, a fim de limitar a disseminação da desinformação nas plataformas digitais. Proposto em 2020 pelo senador Alessandro Vieira (que estava então no Cidadania/SE), o PL foi aprovado no Senado e aguarda votação na Câmara (o presidente da Casa, Arthur Lira, sinalizou a intenção de votá-lo ainda no primeiro semestre). Na avaliação de Souza, o projeto já está datado. “Ele tem uma série de dispositivos que parecem querer combater fantasmas de 2018, mas o ecossistema da desinformação está mais amplo.”
Souza afirmou que a desinformação hoje passa por outros canais, incluindo a imprensa – como no caso do anúncio defendendo o tratamento precoce com cloroquina e outras drogas sem eficácia contra a Covid publicado no ano passado nos principais jornais brasileiros. Ainda que o projeto seja revisto para contemplar esses aspectos, dificilmente as soluções vindas do direito conseguirão resolver sozinhas os problemas da desinformação. “De nada adianta criminalizar o deepfake ofensivo se eu continuar a ter um impulso econômico para que as pessoas produzam e consumam esse tipo de material e para que a tecnologia torne essas ferramentas mais acessíveis”, afirmou Souza.
A jornalista Cristina Tardáguila é cética quanto à perspectiva de uma solução para o problema pela via legislativa. Ela lembrou que vários países da Ásia criaram leis para limitar a circulação das notícias falsas – é o caso de Indonésia, Cingapura, Taiwan e Tailândia, entre outros. “Mas nenhum deles acabou com a desinformação, ou sequer diminuiu, e isso com leis completamente diferentes”, argumentou.
No caso dos deepfakes, um outro tipo de antídoto passa pelo desenvolvimento de ferramentas capazes de identificar as montagens. Mas essa solução tende a ficar cada vez mais difícil em função da forma como esses vídeos são feitos, com o treinamento das redes neurais tornando-as cada vez menos suscetíveis à detecção. “Ninguém tem uma ferramenta que identifique os deepfakes de forma rápida”, disse a cientista da computação Nina da Hora. “As técnicas de tratamento de imagem e correção de luz no ambiente vão deixando as coisas cada vez mais reais e dificultam muito diferenciar o que é deepfake do que não é.” Mesmo no caso improvável de que surja uma ferramenta infalível para a detecção dos vídeos manipulados, muito estrago pode ser feito até que se prove que um material malicioso não é autêntico.
Anderson Rocha, da Unicamp, está na linha de frente dos pesquisadores que estão tentando desenvolver métodos de detecção mais eficazes. Trabalhando em colaboração com colegas da City University of Hong Kong, o brasileiro ajudou a elaborar uma ferramenta que tem mostrado resultados promissores nos testes a que foi submetida. “Nosso algoritmo bate todas as outras ferramentas de detecção de deepfakes”, disse o pesquisador. O trabalho foi aceito para publicação na revista IEEE Transactions on Information Forensics and Security.
Embora os deepfakes tendam a ficar cada vez mais difíceis de identificar, há sinais que denunciam a manipulação. As piscadas costumavam ser um calcanhar de aquiles dessa tecnologia. “Quando a gente pisca, para de olhar para onde estava olhando, e é possível identificar isso”, explicou Nina da Hora. “Olhar para a centralização das pupilas ajuda a identificar manipulações.” Com o tempo, porém, os deepfakes passaram a corrigir as imperfeições das piscadas.
Mas o olhar dos personagens continua a ser uma boa pista para identificar vídeos falsos. “Eu gosto de ficar muito atento aos olhos”, disse Bruno Sartori. Para um vídeo ficar perfeito, explicou o deepfaker, o banco de dados precisa ter imagens do personagem olhando em todas as direções, e nem sempre é o caso. Além disso, um brilho diferente em cada um dos olhos pode denunciar a montagem. “Se a pessoa que fez o vídeo não corrigir isso na pós-produção, consigo identificar por aí.”
Mais do que aprender a detectar as pistas de um deepfake, no entanto, precisamos nos condicionar a desconfiar do que recebemos pelas redes sociais, mesmo que venha de uma fonte que julgamos confiável. “As pessoas têm que duvidar do que veem”, afirmou Anderson Rocha. “A única solução para um problema desse nível é a educação tecnológica.” Aprender a desconfiar requer esforço constante, já que estamos treinados para ver vídeos como evidência cabal de que algo realmente aconteceu, conforme lembrou o advogado Carlos Affonso de Souza. “É preciso que o brasileiro, que é tão acostumado a usar redes sociais e adotar novas tecnologias de maneira tão precoce, desenvolva também o juízo crítico para entender melhor o que vê na telinha.”
Yzabel Dzisky estava disposta a ir atrás do verdadeiro neurocirurgião cujas imagens tinham sido apropriadas pelo deepfaker nigeriano para tirar seu dinheiro. Receosa de ter sua mensagem ignorada pelo médico, que era uma figura conhecida e ocupada, ela decidiu lhe mandar uma mensagem de vídeo, acreditando que com isso teria mais chance de receber uma resposta. (A diretora só atendeu a meus pedidos de entrevista depois que recorri ao mesmo expediente e lhe mandei um vídeo.)
Na mensagem que mandou ao médico turco, Dzisky disse que tinham usurpado sua identidade e que ele poderia prestar queixa se assim desejasse. Afirmou ainda que, depois de um mês e meio acreditando que falava com o médico de forma íntima, sentia necessidade pessoal de conversar com ele. Mas não podia ser por telefone. Ela disse que estava com uma viagem marcada para Istambul, e propôs encontrá-lo para passar tudo a limpo. “Você não sabe nada de mim, mas quero te contar isso, vai me fazer bem. E depois vou voltar para Paris e virar essa página.”
A estratégia funcionou. O neurocirurgião lhe respondeu e se dispôs a recebê-la quando passasse por Istambul. “Evidentemente não esperei muito para ir”, disse Dzisky. Ela marcou um encontro com o neurocirurgião em seu consultório, e ficou mexida ao ver pessoalmente o homem com quem acreditava ter conversado por um bom tempo. Sentiu-se feliz de ter ido até ali. “Mesmo que essa história seja meio doida, eu tinha encontrado um cara lindo, e isso faz bem.”
Dzisky levou para o encontro os prints que tinha tirado das conversas em vídeo com o deepfaker que se passava pelo neurocirurgião. Queria lhe mostrar as provas de que sua identidade tinha sido roubada e se dispôs a testemunhar em seu favor caso ele fizesse alguma denúncia. Tentou não deixá-lo desconfortável. “Não queria parecer louca ou assustá-lo.”
Emocionada, Dzisky contou ao turco que tinha começado uma história com ele. Estava desconcertada ao vê-lo se dirigindo a ela em tom formal, como um médico, depois de quase dois meses com a intimidade de amantes. “Preciso que meu cérebro faça esse trabalho”, emendou, e os dois ficaram em silêncio. Mas ela notou interesse na forma como ele lhe dirigia o olhar. “Será o verdadeiro?”, perguntou-se. Se ela quisesse, eles poderiam jantar ao fim do dia e continuar aquela conversa, propôs o médico.
“Nos olhamos muito, houve silêncios e algum incômodo, mas depois acho que ele me beijou”, contou Dzisky no depoimento que deu ao podcast Les Pieds sur Terre, na primeira vez que revelou sua história ao público. Ela disse que precisou se desconstruir, depois de toda a história que tinha vivido, mas se entregou ao homem à sua frente. Os dois terminaram passando a noite juntos. A diretora interrompeu a frase para acender um cigarro. “Foi uma noite de felicidade, surrealista, com a luz do Sol se pondo sobre o Bósforo”, contou. Saiu dali com a impressão de estar vivendo num filme, sem a dimensão do tempo ou da idade.
A noite com a pessoa por quem ela havia se apaixonado por meios tortuosos foi o começo – ou seria a continuação? – de mais uma história surpreendente de amor, do tipo que Dzisky persegue desde jovem. “Do irreal passamos para o real”, resumiu ela. Os dois voltaram a se encontrar, sempre em Istambul, e a nova etapa do romance durou alguns meses. “E depois terminou lindamente, sem fôlego, talvez.” Dzisky disse não se arrepender de nada do que fez – pelo contrário. Ela está trabalhando num filme e numa série inspirados na aventura. “Foi louca essa história.”
[1] A Editora Alvinegra, que publica a piauí, colaborou com a criação da Agência Lupa em 2015 e, desde 2021, passou a deter participação acionária na plataforma de checagem.