minha conta a revista fazer logout faça seu login assinaturas a revista
piauí jogos

    Ilustração: Carvall

questões tecnológicas

Um projeto de futuro

Regulação da inteligência artificial no Brasil é aprovada às pressas pela Câmara, sem dar tempo ao amplo debate público

Dora Kaufman | 22 out 2021_14h54
A+ A- A

No dia 29 de setembro passado, a Câmara dos Deputados aprovou, com 413 votos a favor e apenas 15 contra, um projeto de lei que passou quase despercebido pela opinião pública e é de grande importância para a vida presente e futura do país. Trata-se do PL 21/2020, que cria o marco regulatório da inteligência artificial no Brasil.

O projeto de lei foi aprovado a toque de caixa na Câmara, onde a primeira audiência pública na Comissão de Ciência e Tecnologia, Comunicação e Informática (CCTCI) ocorreu na Câmara há apenas três meses, em 8 de julho. Apesar da importância do tema, nada justifica a pressa na tramitação, o que implicou num curto tempo de debate do projeto com a sociedade.

A título de comparação, o Marco Civil da Internet, aprovado em 2014 com 32 artigos, foi debatido durante cinco anos (sendo três anos na Câmara) e recebeu mais de oitocentas sugestões. Esse cuidado fez dele uma referência mundial na área. O projeto de regulamentação da inteligência artificial da Comissão Europeia – com abrangência para todos os países da União Europeia –, outro exemplo, é fruto de um processo iniciado em 2018, e a previsão é que ocorram ainda três ou quatro anos de debates antes que o texto regulatório seja finalizado.

O PL 21/2020 está agora no Senado, que ainda não definiu a data para analisá-lo e votá-lo. Espera-se que, antes disso, os senadores criem condições para engajar a sociedade numa ampla discussão sobre a IA no Brasil.

O Fórum Econômico Mundial alertou recentemente para a diferença de conhecimento entre os desenvolvedores de IA e os legisladores dessa tecnologia, e a tendência é que essa distância se amplie à medida que aumenta a complexidade dos modelos. Superar esse problema requer empenho e tempo da parte dos legisladores para que eles se familiarizem com os meandros da tecnologia e o seu impacto na sociedade, a fim de estabelecerem leis consistentes que garantam um futuro sustentável ao país, às instituições e aos cidadãos. Esse problema, porém, não atinge só os legisladores, mas os cidadãos em geral, aos quais seria importante compreender melhor a lógica e o funcionamento da IA, dada a crescente influência que tem em suas vidas e os riscos que suscita.

A inteligência artificial, campo de conhecimento inaugurado em 1956, é a ciência e a engenharia de criar máquinas que sejam capazes de reproduzir funções exercidas pelo cérebro biológico. No empenho de viabilizar esse propósito, surgiram dois caminhos: a IA simbólica, com foco em programação (regras computáveis), e o aprendizado de máquina (machine learning), com objetivo de extrair padrões de grandes conjuntos de dados. Os avanços observados na última década provêm da técnica de aprendizado da máquina, chamada de redes neurais profundas (deep learning). Inspirada no funcionamento do cérebro biológico, a técnica é um modelo estatístico capaz de estimar com mais assertividade a probabilidade de determinado evento ocorrer e quando. Popularmente chamada de “algoritmos de IA”, essa técnica de aprendizado de máquina permeia a maior parte das aplicações de inteligência artificial, impactando fortemente as pessoas e as instituições.

 

Sem perceber muito claramente, os brasileiros já convivem, de forma cotidiana e intensa, com a inteligência artificial. Ao identificar padrões nos dados sobre o usuário e prever comportamentos, otimizando a publicidade direcionada, os algoritmos de IA estão no cerne dos modelos de negócios das plataformas de internet e dos aplicativos tecnológicos, bem como das redes sociais, que no Brasil atingem números astronômicos – 150 milhões de brasileiros (ou cerca de 70% da população) no Facebook; 105 milhões no YouTube; 99 milhões no Instagram; 99 milhões no WhatsApp; e 22,5 milhões no Twitter.

É a tecnologia de IA que viabiliza os modelos de negócios de empresas como Netflix, Waze, Spotify, Uber, 99, Airbnb e iFood. Também está presente nos games online (praticados por 82% da população brasileira na faixa etária entre 13-59 anos nas mais diversas plataformas), em aplicativos de relacionamento, como Tinder e Inner Circle, e em assistentes virtuais, como Alexa. Essa tecnologia otimiza ainda processos utilizados no sistema financeiro e bancário, como a gestão de investimento, reconhecimento de assinatura, detecção de fraude, análise de crédito, chatbots de relacionamento com clientes e autenticação biométrica. No setor imobiliário, as empresas usam a IA para determinar o “preço justo” do imóvel a partir de bancos de dados robustos. Sistemas de IA são usados, igualmente, para simular a “percepção urbana” (como as pessoas percebem um espaço), analisar a “mancha urbana” (prever a evolução da cidade, informação estratégica para o incorporador) e detectar fluxos de exposição (o “diagrama de força de percepção” mostra, por exemplo, as partes mais visíveis da fachada de um prédio).

Do ponto de vista da gestão pública, a IA permite simular a ocupação ideal de um espaço urbano, apurar a taxa de criminalidade e simular a dispersão de poluentes, identificando os espaços menos poluídos em cada bairro. No âmbito da Polícia Federal, cresce o uso de IA, com os sistemas PalasNET, que ajuda no reconhecimento facial, e NuDetective, que detecta automaticamente nudez de crianças e pornografia infantil. O Poder Judiciário, gradativamente, tem adotado sistemas de IA. Uma pesquisa realizada pela Fundação Getulio Vargas (FGV) identificou 64 projetos em funcionamento e/ou em fase de implantação em 47 tribunais brasileiros. No âmbito do Supremo Tribunal Federal (STF) destaca-se o Projeto Victor, desenvolvido em parceria com a Universidade de Brasília, primeiro projeto de IA aplicado a uma corte institucional e cujo objetivo é analisar e classificar, por temas recorrentes, os recursos extraordinários.

Na área de saúde são inúmeros os exemplos de uso da IA, desde ações de enfrentamento da pandemia de Covid-19 até diagnósticos e previsão do procedimento adequado a cada paciente. Os dispositivos inteligentes transformam o corpo humano em plataforma tecnológica com marcapasso cardíaco monitorado remotamente, pâncreas artificial que controla a glicose no sangue e fornece insulina quando necessário, implantes cerebrais para lidar com os sintomas de Parkinson e Alzheimer, dentre outras aplicações. Na educação, a IA está nas plataformas adotadas por escolas públicas e privadas, substituindo o professor em tarefas específicas e personalizando a aprendizagem.

Como se vê, a inteligência artificial, inequivocamente, já está entre nós e não é mero enredo de ficção científica. O mundo conectado, a vida digital, a internet das coisas (IoT, Internet of Things) e dos corpos (IoB, Internet of Bodies) geram um conjunto inédito de dados (big data) com informações sobre o funcionamento da sociedade, extraídas pelas tecnologias de IA, que aportam benefícios, mas também ameaças. Daí a importância de um Marco Regulatório da Inteligência Artificial para nortear o seu desenvolvimento e uso no Brasil.

 

O projeto de lei aprovado pela Câmara não dá conta da complexidade da tecnologia, do ponto de vista seja do desenvolvedor, seja do usuário. O projeto é em boa parte generalista, sem legislar nos detalhes nem conter procedimentos rígidos (não por acaso recebeu apoio efusivo das associações de empresas de tecnologia). Está mais próximo de uma carta de princípios, com apenas oito artigos efetivos, que perfazem nove páginas, no que é bem distinto da proposta de regulamentação da Comissão Europeia, que até agora tem mais de cem páginas.

O art. 3º do PL 21/2020, por exemplo, afirma que a aplicação de IA no Brasil tem por objetivo o desenvolvimento científico e tecnológico e lista seis metas, tais como desenvolvimento sustentável, aumento da competitividade e produtividade, inserção na cadeia global de valor, promoção da pesquisa e inovação. Mas não dá nenhuma pista de como concretizá-las. Já o art. 4º trata dos fundamentos, listando um apanhado de princípios gerais, como o estímulo à livre iniciativa e à livre concorrência, o respeito à ética, aos direitos humanos, aos valores democráticos e à livre manifestação de pensamento, a não discriminação, a pluralidade e a inclusão, além do cuidado com a segurança da informação e a soberania nacional.

A origem desses princípios gerais é a conferência Beneficial AI, realizada em 2017 em Asilomar, na Califórnia, pelo Future of Life Institute, uma organização criada três anos antes nos Estados Unidos e que tem por objetivo promover o desenvolvimento da IA de maneira benéfica à sociedade. Ao final da conferência foram publicados 23 princípios éticos conhecidos como Asilomar Principles, que estão na base de diversos institutos dedicados à inteligência artificial – como, entre outros, o Future of Humanity Institute, liderado pelo filósofo sueco Nick Bostrom, e o Human-Centered Artificial Intelligence (HAI), da Universidade de Stanford –, de iniciativas de organizações multilaterais como a OCDE (Organização para a Cooperação e Desenvolvimento Econômico) e a Comissão Europeia, e de governos.

Entretanto, esses princípios, já por si abstratos, evocam conceitos, como discriminação, valores democráticos e ética, que não são compartilhados por todas as sociedades. Mais desafiador ainda, são conceitos não traduzíveis em termos matemáticos, pré-condição para inseri-los em modelos estatísticos de probabilidade (como a técnica de redes neurais profundas). Nesse sentido, esses princípios gerais, que em parte o projeto de lei aprovado pela Câmara replica, têm aplicabilidade prática restrita.

Há também tópicos controversos no PL, como o artigo 6º – VI, que trata da segurança e prevenção e sugere a utilização de técnicas organizacionais e administrativas compatíveis com as melhores práticas e padrões internacionais. Além de vago – quais seriam esses padrões e práticas, e a quem caberia identificá-los? –, ainda não existem referências sólidas e replicáveis em que se basear, dada a disseminação muito recente da IA.

O artigo 6º – III indica que o desenvolvimento e o uso dos sistemas de IA deverão considerar os riscos concretos, estabelecendo uma correlação entre risco – que são os danos causados à sociedade, instituições e pessoas – e intervenção do poder público, ou seja, quanto maior o risco, maior a intervenção regulatória. Contudo, não categoriza os riscos. A proposta europeia, mais completa, delimita três categorias de risco (falarei disso mais adiante), acoplando a cada uma delas procedimentos específicos a serem observados por fornecedores e usuários. Outra significativa falha do PL é não distinguir entre desenvolvedor/fornecedor de tecnologia e usuário de tecnologia, que têm funções, obrigações e responsabilidades diferenciadas. 

Mas o projeto tem pontos positivos, como definir o que seja inteligência artificial com certo grau de clareza, alertar a sociedade para a premência de regulamentar o desenvolvimento e uso da IA no Brasil e ter optado por não criar uma agência centralizadora, como faz a proposta europeia, mas atribuir as funções aos órgãos setoriais. Como declarou a relatora deputada Luísa Canziani (PTB-PR), “quem melhor que a Anvisa para avaliar o uso de IA em medicamentos? Que o Banco Central para tratar de questões do mercado bancário? Ou que a Anac para tratar de questões relacionadas à aviação? Esses órgãos já possuem especialistas e normas que disciplinam seus respectivos setores”. E, mesmo que os princípios éticos tenham aplicabilidade restrita, é positivo que sejam contemplados no projeto.

 

O filósofo belga Mark Coeckelbergh, professor da Universidade de Viena, é uma das pessoas que mais têm se dedicado à questão da ética aplicada ao desenvolvimento da inteligência artificial. No livro AI Ethics, ele afirma que a preocupação com IA não concerne apenas à tecnologia, “mas também ao que os humanos fazem com ela, como a usam, como a percebem e experimentam e como a inserem em ambientes técnico-sociais mais amplos”. O filósofo alerta que, mesmo nas democracias, a IA pode promover formas ocultas e altamente eficazes de manipulação, vigilância e totalitarismo. Por isso é de extrema importância discutir as questões éticas envolvidas na sua utilização e ter uma visão clara a respeito na hora de legislar sobre o assunto.

Coeckelbergh reflete sobre a questão do poder: a quem cabe decidir sobre o futuro da IA, ou seja, o futuro da sociedade? O que deve ser feito, por que, quando, quanto e por quem, e qual a natureza, extensão e urgência do problema? Para ele, contudo, a ética não pode ser pensada como um fator negativo, de restrição ao desenvolvimento da tecnologia.

Outra questão ética complexa ensejada pela IA diz respeito à responsabilidade sobre as decisões: se estas são automatizadas, quem deverá ser responsabilizado? A técnica de IA que permeia a maior parte das implementações atuais é opaca (o chamado black box), a cognição humana não é capaz de compreender como os algoritmos geram os resultados, quais são e como estabelecem correlações nos dados. Essa opacidade aliada ao fato de os algoritmos serem protegidos por sigilo comercial, dificulta auditá-los. Nos últimos anos, proliferam denúncias mundo afora de sistemas de IA usados em decisões sensíveis, sem o conhecimento de seus usuários sobre os danos causados às pessoas afetadas por essas decisões. Um dos mais citados é o sistema Compas, criado por uma empresa privada e utilizado pela Justiça de vários estados norte-americanos para determinar o grau de reincidência de um criminoso condenado.

Dada a lacuna de conhecimento básico, os usuários não são capazes de fazer as perguntas apropriadas aos ofertantes das tecnologias e, consequentemente, identificar os riscos e mitigá-los. Os gestores de recursos humanos, por exemplo, não sabem a origem dos sistemas de IA ofertados por startups para seleção e recrutamento de candidatos, parte deles de origem indiana ou chinesa – ou seja, com dados enviesados para o mercado brasileiro, pois são algoritmos treinados em base de dados da população indiana ou chinesa.

As escolas estão aderindo a plataformas educativas ofertadas por grandes empresas de tecnologia sem o necessário conhecimento de educadores, professores e pais. Os dados que os alunos geram na interação com essas plataformas têm sua privacidade protegida? Qual a origem dos algoritmos e qual a composição das bases de dados onde eles foram treinados? Algum órgão dedicado à educação, como o MEC, auditou essas plataformas? As metodologias inseridas nessas plataformas são efetivamente adequadas ao aprendizado do aluno brasileiro?

 

Com a relevância adquirida pela IA na última década, os agentes públicos em todo mundo estão empenhados em criar diretrizes e arcabouços regulatórios aptos a enfrentar as particularidades tanto do desenvolvimento quanto do uso dos modelos baseados nessa tecnologia. As experiências internacionais são referências a serem consideradas pelo Senado Federal no processo de avaliar o PL 21/2020.

No âmbito de políticas públicas, o Canadá publicou, em 2017, a primeira Estratégia Nacional de Inteligência Artificial, no que foi seguido por mais de trinta países, entre os quais se destacam os documentos realizados nos Estados Unidos, Reino Unido, China, Índia, França, Alemanha e Coreia do Sul. Entre os pontos fortes da estratégia do Canadá está a criação do Conselho Consultivo de Inteligência Artificial, formado por pesquisadores eminentes da universidade e do mercado, com a função de aconselhar o governo; a criação do Programa de Trabalho, com grupos de trabalho específicos (como os de conscientização pública e de comercialização); a dotação orçamentária inicial de 125 milhões de dólares para atrair e reter talentos acadêmicos (ou seja, recursos para pesquisa científica); e a organização de workshops abertos à participação pública.

Outra iniciativa importante foi a criação, em junho de 2020, da Global Partnership on Artificial Intelligence (GPAI, Parceria Global em Inteligência Artificial), à qual o Brasil se juntou em dezembro daquele ano. Trata-se de uma iniciativa relacionada à OCDE, reunindo quinze países e que agrega múltiplas partes interessadas – sociedade civil, governos, organizações internacionais e universidades –, com o objetivo de oferecer mecanismos de compartilhamento de pesquisas multidisciplinares, facilitar a colaboração internacional, reduzir a duplicação de esforços e promover a adoção de métodos confiáveis de IA.

Em termos de regulamentação da inteligência artificial, existem duas propostas significativas: a da Comissão Europeia, publicada em 21 de abril passado, e a de regulação dos algoritmos, da China, publicada em 3 de setembro passado (ficou em consulta pública até 29 de setembro, quando entrou em vigor).

A proposta da Comissão Europeia – chamada Artificial Intelligence Act (AIA) – é fruto de um processo iniciado em 2018 envolvendo especialistas da universidade, do mercado e do governo. Resultou em densos relatórios, que foram submetidos à apreciação pública no âmbito da Comunidade Europeia. Mesmo assim a proposta é vaga, com lacunas e ambiguidades, e em certos aspectos idealista, porque não contempla a natureza e as limitações da própria tecnologia. Prevendo procedimentos para desenvolvedores/fornecedores e usuários, com multas significativas para situações de não conformidade, a AIA propõe constituir um órgão regulador e fiscalizador centralizado para toda a Europa, o European Artificial Intelligence Board, que atuará como autoridade competente para supervisão das instituições, agências e organismos da União Europeia.

  A proposta se baseia em risco (que a IA pode causar à sociedade, instituições e pessoas), delimitando os sistemas e seus usos em três categorias: “risco inaceitável”, “risco elevado” e “risco baixo/mínimo”. As aplicações de IA classificadas como de “risco inaceitável”, por representar uma ameaça à segurança pública e aos indivíduos, serão proibidas. Contudo, a AIA não define com clareza o conteúdo de cada categoria de risco, como também não esclarece como essa taxonomia funcionará na prática, deixando muito espaço para incertezas.

A proposta supõe que a maior parte das aplicações está na categoria “risco baixo/mínimo”, mas a realidade indica o contrário: parte significativa das aplicações atuais, isoladas ou inseridas em modelos de negócios, está na categoria “alto risco”. São muitas as áreas cinzentas. A proposta proíbe os sistemas “manipulativos”, ou seja, que visam alterar ou influenciar o comportamento de seus usuários, enquadrando-os como “risco inaceitável”, mas não explicita se os modelos de negócios de plataformas, como os do Facebook, estão incluídos ou não nessa categoria.

A regulação europeia proíbe a identificação biométrica remota em “tempo real” em espaços acessíveis ao público (por exemplo, reconhecimento facial por câmeras de vigilância), com poucas exceções, como busca por criança desaparecida, ameaça terrorista ou para localizar um suspeito de crime grave. Mesmo nesses casos, será preciso recorrer à prévia autorização judicial. No entanto, como achar uma criança perdida, por exemplo, se as câmeras de vigilância com sistemas de reconhecimento facial não estiverem instaladas e funcionando?

O filósofo Luciano Floridi, professor da Universidade de Oxford, em artigo publicado em junho passado – The European Legislation on AI: A Brief Analysis of its Philosophical Approach (A legislação europeia da IA: Uma breve análise de sua abordagem filosófica) –, pondera como ponto positivo o fato de a regulamentação europeia não atribuir a sistemas de IA condições similares a uma pessoa jurídica, com direitos e deveres, e também evitar quaisquer especulações assemelhadas à ficção científica a respeito da IA, tendo excluído afirmações não científicas que constavam em documentos anteriores, como “consciência artificial”. Mas o filósofo alerta para o risco de a regulamentação, por seu caráter mais restritivo, acabar fazendo com que as empresas desenvolvam produtos e serviços em outros países onde não há legislação, ou esta seja menos rigorosa ou não seja aplicada.

 

A recente regulamentação dos algoritmos de inteligência artificial pelo governo chinês é parte de um processo iniciado em 2016. As tecnologias de IA já estavam presentes nos planos econômicos anteriores, mas a vitória no jogo de tabuleiro Go, em março daquele ano, do sistema de inteligência artificial AlphaGo, criado por uma empresa do Google, sobre o sul-coreano Lee Sedol, dezoito vezes campeão mundial, acompanhada ao vivo por mais de 280 milhões de chineses, ensejou o reconhecimento do papel estratégico da IA pelo governo no desenvolvimento econômico. Em 2017, o presidente Xi Jinping anunciou o novo plano (AIDP) em uma audiência com diplomatas estrangeiros, declarando que a China seria líder mundial em IA até 2030.

O AIDP elegeu algumas empresas privadas com a função de desenvolver setores específicos: plataforma de busca Baidu (o Google da China) vai se dedicar à criação de veículos com direção autônoma; a megavarejista Alibaba, às cidades inteligentes; e o portal Tencent, à visão computacional para diagnósticos médicos. Os termos do acordo estabelecem que a empresa privada adotará os objetivos estratégicos do governo em troca de contratos preferenciais, acesso facilitado a financiamento e proteção de participação no mercado.

  Em março de 2019, o Ministério da Ciência e Tecnologia chinês criou o Comitê Nacional de Especialistas em Governança de Inteligência Artificial, que lançou diretrizes éticas para o desenvolvimento da IA, como a melhoria do bem-estar comum, o respeito aos direitos humanos, à privacidade, à justiça, à transparência e à responsabilidade, além de promover a colaboração. Outros órgãos afiliados ao governo e empresas privadas também estabeleceram princípios éticos.

O projeto de regulamentação de algoritmos de IA, publicado em 3 de setembro último pelo órgão fiscalizador “Administração do Ciberespaço da China” (CAC), tem o intuito de restringir o seu uso por empresas de tecnologia de sistemas de recomendação e de decisão automatizada. O documento também contempla princípios gerais familiares ao Ocidente, tais como ética, equidade, transparência, discriminação e justiça.

Explicitamente, estão proibidos quaisquer tipos de tratamentos diferenciados com base no perfil do usuário como, por exemplo, personalizar os preços de produtos e serviços (preços distintos para distintos consumidores). O CAC solicita às empresas de internet que protejam os prestadores de serviços temporários (sem vínculo empregatício) e evitem algoritmos de recomendação voltados a menores de idade, a fim de preservá-los de conteúdos prejudiciais à saúde mental e física ou induzi-los ao vício digital. Outro ponto chave: os provedores precisam notificar os usuários de maneira clara sobre os serviços de recomendação algorítmica, disponibilizando, inclusive, a opção de escolher, revisar ou excluir os tags usados por esses serviços. Qualquer violação às regras será penalizada.

Analistas familiarizados com a China expressam preocupação com o propósito da Administração do Ciberespaço da China de controlar a opinião pública e moderar o conteúdo das redes sociais. Os fornecedores de algoritmos são obrigados, por exemplo, a garantir que seus produtos estejam adequados aos padrões dominantes (ou seja, estabelecidos pelo governo) e a impedir que os usuários de suas plataformas disseminem “informações proibidas por leis e regulamentos administrativos”, tais como conteúdos que coloquem em risco a segurança nacional ou perturbem “aspectos econômicos e da ordem social”. Outra preocupação dos analistas é que a nova regulamentação atinja frontalmente os modelos de negócios das empresas de tecnologia.

O regulamento chinês se insere num conjunto de medidas que estão sendo tomadas pelo governo do país para controlar o poder de suas gigantes de tecnologia e definir normas e padrões éticos com relação à privacidade dos dados. O movimento, entretanto, é ambíguo: ao mesmo tempo, o governo estimula a coleta de grandes volumes de dados para atender o Sistema de Crédito Social, sem respeitar a privacidade. Além disso, a eficácia de qualquer regulamentação na China é relativizada na medida em que o sistema jurídico está sujeito à supervisão do poder legislativo, ou seja, ao Partido Comunista.

 

Como se vê, os países ainda engatinham na formulação de uma política para a inteligência artificial, buscando em princípios éticos uma forma de evitar os danos que eventualmente possam causar à sociedade. Cada país, ou cada bloco de países, tenta conciliar suas tradições humanísticas com as expectativas que têm sobre um futuro tecnológico que, afinal, resta imprevisível.

No Brasil, como em toda parte, é preciso conciliar os valores que prezamos com o desenvolvimento da tecnologia, o que exige da parte dos governantes, legisladores e cidadãos um crescente conhecimento específico e uma legislação mais completa e eficiente. A IA tem o potencial de multiplicar o desempenho humano, tornando-o melhor e mais rápido. Como parceira dos seres humanos, pode contribuir no enfrentamento dos desafios críticos da sociedade, entre eles alguns dos mais graves, como a desigualdade e as ameaças ao meio ambiente.

Talvez o maior equívoco no uso da IA seja considerá-la como uma “promessa de objetividade”, supondo que os algoritmos assegurem objetividade e neutralidade por serem processados por máquinas e protegidos dos erros humanos. Não é bem assim. Defender um uso ético da IA é mitigar riscos. Como se trata de tarefa impossível controlar todos os desenvolvimentos e usos, deve-se eleger as prioridades e focar nos maiores riscos. A tomada de consciência, e a consequente ação da sociedade para preservar os benefícios e eliminar (ou ao menos mitigar) os malefícios, irá moldar o futuro.

Assine nossa newsletter

Toda sexta-feira enviaremos uma seleção de conteúdos em destaque na piauí