A PRIMEIRA AGÊNCIA DE FACT-CHECKING DO BRASIL

Foto: Alexander Baxevanis / Flickr
Foto: Alexander Baxevanis / Flickr

Reconhecimento facial avança com pouquíssima transparência

Fundadora | Rio de Janeiro | lupa@lupa.news
17.jul.2019 | 07h00 |

O reconhecimento facial, já implantado nos modelos mais modernos de smartphones, nos aplicativos de banco e nos sistemas de imigração dos aeroportos mais avançados do mundo, parece ser a próxima fronteira a ser conquistada pelas gigantes de tecnologia. Mas, ao que tudo indica, o planeta que ainda se digladia em torno do debate sobre a proteção de dados pessoais básicos, pode acabar sofrendo com o avanço desse sistema.

No último sábado, 13 de julho, o jornal americano The New York Times jogou para todo o mundo o debate que estava sendo travado dentro dos Estados Unidos nas últimas semanas. Publicou uma longa reportagem mostrando que “dezenas de bancos de dados contendo imagens de rostos de pessoas estão sendo compilados por empresas e pesquisadores sem autorização dos indivíduos” de forma a gerar o melhor e mais poderoso sistema de reconhecimento facial da Terra. A preocupação com o uso indiscriminado de fotografias de rostos tem sido tão grande que, segundo o jornal, empresas como a Microsoft e universidades como Stanford decidiram retirar seus bancos de dados de imagem da internet por medo de que esse uso descontrolado esteja violando conceitos básicos de privacidade do ser humano – algo que pode render sentenças infinitas na justiça comum. 

Sabe-se, no entanto, que despublicar algo é extremamente difícil. Então como é que nós – eu, você, cidadãos comuns – fazemos daqui para frente para proteger essa informação? Como saber onde estão nossos rostos e como nossas imagens estão sendo usadas? 

Vou além: e se seu rosto não estiver servindo apenas para pesquisa e desenvolvimento de uma nova tecnologia? Será que o Brasil está pronto para grandes manipulações? Falo de aplicativos como o Deepnude, que existiu por apenas quatro dias no universo digital e que foi capaz de chocar a internet. 

Lançado no final de junho, o app feito com base em inteligência artificial consistia no seguinte: surrupiava selfies de mulheres vestidas e as despia sem – obviamente – requisitar a autorização prévia delas. Seu slogan era: “the superpower you always wanted” (o super poder que você sempre quis). E era um aplicativo machista. Não funcionava com fotos de homens. Só conseguia distribuir seios e vaginas e, agindo assim, virou um hit no submundo da web. 

Mesmo lá, passadas algumas horas, virou alvo de fortes críticas. Até para aqueles que vivem nos porões mais escuros da web, parecia que os desenvolvedores anônimos da Estônia haviam avançado alguns sinais ao tirar a roupa de mulheres desconhecidas sem o ok prévio delas. Erravam mais ainda ao republicar o resultado de volta na internet.

Por conta disso, num tuíte postado no dia 25 de junho, os criadores do Deepnude anunciaram o fim do produto. Disseram que haviam subestimado o interesse que o app teria e que, após tanto sucesso, haviam concluído que o mundo ainda não estava pronto para aquilo.

Acontece que naquele mesmo momento, do outro lado do planeta, em Singapura, Rose, de 27 anos, já virava personagem de uma longa reportagem do jornal The New Paper. 

A jovem é uma das diversas mulheres que, nos últimos dias, flagraram velhas selfies adulteradas em fóruns de sexo e pornografia. Fotos originalmente vestidas e que, agora, tem versões nuas. Rose é uma das diversas mulheres que, nos últimos dias, se perguntam o que devem fazer e contra quem devem brigar. 

Do ponto de vista da checagem, sistemas que contribuem para facilitar processos de manipulação são sempre perigosos. Na tentativa de tornar nossa vida pessoal mais ágil e de personalizar cada vez mais todo e qualquer acesso e consumo que planejamos, a tecnologia caminha para criar novos problemas, com os quais não estamos ainda preparados para lidar. Como controlar o que será feito com uma grande quantidade de imagens nas mãos de desenvolvedores nem tão bem-intencionados e sem qualquer regulação? Tem polícia, lei, justiça suficiente para isso? Vale refletir.

No Brasil, a legislação referente à proteção de dados não menciona fotografias ou qualquer imagem como informações que precisam ser preservadas. Enquanto a lei não enxergar a necessidade de imagens do rosto e do corpo de um indivíduo estarem a salvo e só poderem ser utilizadas – para qualquer fim – com sua autorização e conhecimento, ela continuará sendo insuficiente. E continuará, também, expondo os indivíduos aos exageros de desenvolvedores, pesquisadores e gigantes da tecnologia.

Editado por: Natália Leal

O conteúdo produzido pela Lupa é de inteira responsabilidade da agência e não pode ser publicado, transmitido, reescrito ou redistribuído sem autorização prévia.

A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos

Esse conteúdo foi útil?

1 2 3 4 5

Você concorda com o resultado desta checagem?

Sim Não

Leia também

Etiquetas
VERDADEIRO
A informação está comprovadamente correta
VERDADEIRO, MAS
A informação está correta, mas o leitor merece mais explicações
AINDA É CEDO PARA DIZER
A informação pode vir a ser verdadeira. Ainda não é
EXAGERADO
A informação está no caminho correto, mas houve exagero
CONTRADITÓRIO
A informação contradiz outra difundida antes pela mesma fonte
SUBESTIMADO
Os dados são mais graves do que a informação
INSUSTENTÁVEL
Não há dados públicos que comprovem a informação
FALSO
A informação está comprovadamente incorreta
DE OLHO
Etiqueta de monitoramento
Seções
Arquivo