minha conta a revista fazer logout faça seu login assinaturas a revista
piauí jogos

    Ilustração: Carvall

questões de mídia e política

Desinformação em busca de votos

Conteúdos com áudios e vídeos adulterados circulam em redes como o TikTok e se transformam em arma eleitoral da campanha bolsonarista

Daniel Tozzi | 16 ago 2022_12h02
A+ A- A

Eram quase quatro da tarde do último dia 27 de março, um domingo, quando a cantora pop Marina Sena subiu ao palco do festival Lollapalooza, em São Paulo. Com um figurino ousado e todo prateado, ela começou a cantar sua primeira música, Seu olhar. A plateia parece gostar e a ovaciona. É possível ouvir aplausos, gritos e assovios na transmissão ao vivo do evento do canal Multishow, que publicou esse trecho da apresentação nas redes sociais, entre elas, o TikTok. 

Naquele mesmo dia, um pouco mais tarde, o trecho da apresentação de Marina Sena começou a circular, também no TikTok, mas com o áudio adulterado. Assim que ela para de cantar e começa a dançar, ao invés de aplausos, a plateia esboça vaias e começa a dirigir xingamentos ao ex-presidente Luiz Inácio Lula da Silva (PT), à época prestes a ser oficializado pelo partido como pré-candidato na corrida presidencial deste ano. Acompanhado do post, a frase: “Não se cansa de passar vergonha” e as hashtags #Bolsolover #MelhorPresidenteDoBrasilBR e #PatriaAmada. 

O vídeo, evidentemente, era falso. Foi o que constatou o Comprova, consórcio que reúne jornalistas de 42 veículos de comunicação brasileiros, incluindo a piauí, para checar informações suspeitas sobre políticas públicas, eleições e a pandemia de Covid nas redes sociais ou nos aplicativos de mensagens. 

O vídeo com a cantora é um exemplo, mas está longe de ser o único, de um modelo de desinformação cada vez mais frequente na campanha eleitoral:  a substituição do áudio original de um vídeo. Nos últimos quatro meses, o Comprova verificou sete vídeos em que a estratégia foi utilizada, a partir de diferentes técnicas (que vão das temidas deepfakes ao recurso de dublagens do TikTok), mas todos com um objetivo em comum: criar desinformação no período eleitoral atacando Lula ou defendendo o atual presidente Jair Bolsonaro (PL). 

 

No caso do vídeo do show da cantora Maria Sena a adulteração aconteceu dentro do próprio TikTok. A rede social chinesa possui uma ferramenta em que é possível substituir um áudio original por qualquer outro som que já tenha sido postado na plataforma. O recurso é bastante popular em vídeos de dublagem (os chamados lip-sync), que por muito tempo foram os responsáveis pela popularização do TikTok, hoje o aplicativo mais baixado do mundo em smartphones, segundo a Sensor Tower, empresa de análise de aplicativos móveis. 

Em postagens do tipo, o próprio TikTok indica que o áudio não é original. Contudo, a plataforma permite o download desses vídeos falsos e o compartilhamento do conteúdo direto no WhatsApp, o que facilita ainda mais sua viralização em outras mídias. Uma vez compartilhado fora do TikTok, a informação de que o áudio do vídeo não é original não fica mais visível.

O áudio com insultos direcionados a Lula sobreposto ao show de Marina Sena foi retirado de um vídeo publicado no dia 13 de fevereiro de 2022, em que o autor filma o que ele diz ser a torcida do Flamengo durante um jogo de futebol. A legenda diz: “Torcida do Flamengo xinga Lula.” No TikTok, está indicado nessa postagem que o som do vídeo é original (e não extraído de outro lugar), embora o áudio seja bastante similar ao de um vídeo gravado em 2018, em frente a sede da Polícia Federal de Curitiba-PR, quando manifestantes se reuniram para a chegada de Lula ao local onde ele cumpriu pena.

Gravação semelhante já apareceu em dezenas de outros posts. Sempre para sugerir falsamente que uma grande quantidade de pessoas reunidas no mesmo lugar está direcionando xingamentos ao ex-presidente Lula. Um desses vídeos que mais ganhou repercussão mostra a torcida da Seleção Brasileira de futebol no estádio do Maracanã, durante partida contra o Chile, no último dia 24 de março. Graças ao mesmo recurso no TikTok, o grito dos torcedores em direção ao gramado foi substituído pelo áudio de xingamentos a Lula, conforme demonstrou checagem da AFP Brasil. O vídeo com a adulteração ainda está no ar e já acumula mais de 544 mil visualizações. 

Verificações feitas pelo Estadão Verifica e o Boatos.org  apontaram que o áudio original com os insultos dirigidos a Lula teria sido gravado em 2016, também em um estádio de futebol, mas em Belo Horizonte, durante partida do Atlético Mineiro. 

 

Não é apenas para substituir o som do público em shows ou estádios de futebol que a ferramenta vem sendo utilizada. No último mês de julho, o Comprova demonstrou que um vídeo usou um áudio falso para trocar a voz do ex-governador da Paraíba, Ricardo Coutinho (PT), e sugerir que ele havia “humilhado” Lula durante um evento de inauguração de trechos da obra da Transposição do Rio São Francisco.

O vídeo original foi gravado em março de 2017, durante um ato organizado pelo PT e batizado de “inauguração popular da Transposição do Rio São Francisco”, na cidade de Monteiro (PB). No trecho do vídeo utilizado na postagem, o então governador paraibano, com um microfone em uma das mãos, discursa fazendo gestos em direção a Lula e à plateia. No vídeo original ele fala em tom de agradecimento e comemora a chegada das águas do Velho Chico à região. 

A montagem que circulou no TikTok substituiu a voz de Coutinho por outra gravação, em que um homem acusa o PT de ter feito uma “gestão corrupta da obra”. A voz afirma que esse teria sido o motivo da transposição não ter sido finalizada antes, e que, “para a sorte dos nordestinos, Bolsonaro chegou”. 

Como o vídeo apresenta baixa resolução e o rosto de Coutinho está distante da câmera, na maioria dos trechos não é possível observar se o movimento dos lábios do então governador condiz com o que está sendo dito no áudio. Tampouco é possível distinguir a reação de Lula ao ouvir as “críticas” dirigidas a ele. 

Dentro do vídeo, o autor da postagem escreveu: “Lula é envergonhado”, seguido de emojis de espanto e de risada. O mesmo vídeo aparece em outros posts do TikTok com conteúdos em texto com dizeres falsos como “Prefeito falou tudo na frente do 9 dedos na Bahia” e “Prefeito abre o verbo na cara do 9 dedos”. 

O recurso de substituição de som do TikTok já vem sendo observado por pesquisadores e jornalistas de fora do Brasil que estudam a desinformação no ambiente digital. Publicação recente do site de checagens norte-americano PolitiFact demonstrou que um mesmo áudio de armas disparando foi utilizado para promover vídeos falsos sobre a guerra entre Rússia e Ucrânia. 

Os vídeos mostravam soldados se deslocando e a frase: “Ukraine Live” (Ucrânia ao vivo). Pelas imagens, não é possível confirmar se eles estão sendo atacados, mas o som dos disparos adicionado no TikTok passa essa impressão a quem vê o vídeo. Segundo o PolitiFact, foram mapeados pelo menos seiscentos vídeos semelhantes que utilizam exatamente o mesmo áudio. 

Fenômeno parecido foi apontado por pesquisadores britânicos no contexto da disseminação de informações falsas sobre a vacina contra a Covid. Trabalho do Institute for Strategic Dialogue, de Londres, mapeou que pelo menos 4.500 vídeos publicados no TikTok se utilizaram de uma mesma trilha de áudio, que continha o depoimento de um homem que criticava o pouco tempo de fabricação dos imunizantes e, por isso, questionava sua eficácia. Somados, os vídeos com o mesmo áudio superaram a marca de 16 milhões de visualizações, descobriram os pesquisadores.

 

Apesar de montagens muitas vezes grosseiras nos áudios, ou que podem ser interpretadas como sátiras, conteúdos que são editados fora do TikTok também têm sido comuns nas checagens do Comprova. São os casos dos vídeos falsos que mostravam uma entrevista de Lula “declarando voto em Bolsonaro”, desembarcando sob vaias e xingamentos nas cidades pernambucanas de Garanhuns e Caruaru e recebendo ofensas da platéia que acompanhava o desfile das escolas de samba do Rio de Janeiro na Marquês de Sapucaí, durante o último Carnaval. 

O Comprova e a piauí procuraram os autores das postagens falsas, sem retorno. No caso do TikTok, a rede social impede que perfis que não se seguem mutuamente troquem mensagens, o que dificulta ainda mais a localização dos autores dos conteúdos originais postados por lá.

Procurada, a assessoria de imprensa do TikTok no Brasil afirmou que as diretrizes da rede não permitem a veiculação de “desinformação prejudicial” e que vídeos com esse tipo de conteúdo são removidos da plataforma. Entre as medidas tomadas pela empresa para combater a desinformação, o TikTok afirmou que no início do ano firmou acordo com o Tribunal Superior Eleitoral (TSE) e que também incentiva os usuários a denunciarem conteúdo impróprio. Ainda de acordo com a empresa, entre janeiro e março deste ano, 60,8% dos conteúdos com informações falsas removidos da plataforma foram excluídos antes mesmo de serem visualizados pelo público.  

 

Um passo à frente na escala de sofistificação das peças de desinformação estão os deepfakes, áudios e vídeos manipulados, ou mesmo criados do zero, a partir de ferramentas de inteligência artificial. Mesmo que em menor escala, conteúdos do tipo já dão as caras nas redes sociais e ligam o alerta para o período eleitoral. 

Na última semana, o Comprova verificou um vídeo falso que mostrava o jornalista William Bonner na bancada do Jornal Nacional, da TV Globo, chamando Lula e seu candidato a vice-presidente, Geraldo Alckmin (PSB), de “bandidos”. No vídeo, o apresentador do JN diz “o encontro de dois bandidos”, e, na sequência, surge na tela uma imagem de Lula e Alckmin se abraçando. Nos comentários da postagem, a maioria das manifestações era de risadas ou de frases irônicas dizendo que “pela primeira vez a Globo teria falado a verdade”. Outros usuários, contudo, questionavam se o vídeo era verdadeiro. 

A peça, postada no TikTok, onde já ultrapassou as 3,2 milhões de visualizações, usou um vídeo de uma edição do Jornal Nacional de julho de 2021, mas substituiu a fala de Bonner por uma voz criada com deepfake. Ao Comprova, o jornalista e especialista em deepfakes, Bruno Sartori, confirmou que o áudio se tratava de um conteúdo sintético, produzido inteiramente por meio de uma técnica de inteligência artificial chamada Text to Speech (TTS). “A partir de um banco com dezenas de áudios do William Bonner falando, o computador gera um novo áudio, do zero, baseado no que foi escrito em texto”, explicou Sartori. 

Na internet já existem sites acessíveis a qualquer pessoa que disponibilizam ferramentas online de criação de voz a partir de TTS. Nesses sites, basta selecionar a voz desejada (as opções geralmente vão de personagens de filmes e cantores a políticos e apresentadores) e digitar uma frase curta numa aba de texto. Em poucos segundos a ferramenta gera um arquivo de áudio em mp3 que pode ser baixado. Ainda longe de ser perfeita, a voz gerada artificialmente se assemelha bastante ao timbre real da pessoa escolhida. Foi assim que, ao menos nas redes sociais, um insulto a Lula e Alckmin foi parar na bancada do principal telejornal do país.