Projeto se propõe a reduzir riscos em áreas como gestão financeira, segurança pública e justiça penal, seleção de candidatos e avaliação de desempenho
O campo de desenvolvimento e aplicação de ferramentas de inteligência artificial (IA) tem sido um verdadeiro “velho oeste”, diz recente reportagem da MIT Technology Review, veículo de divulgação do Instituto de Tecnologia de Massachusetts, uma das mais prestigiosas universidades dos Estados Unidos, referência mundial na área de CT&I. Na mesma matéria, “Lei da IA” (AI Act), projeto atualmente em discussão no Parlamento Europeu, é dimensionado como potencial “mãe de todas as leis de IA”. O tom superlativo se justifica pela ambição do projeto – regular numa só peça legislativa todo o setor de IA –, e tendo em vista o impacto que a adoção pela União Europeia de uma lei desse tipo poderá produzir mundo afora.
O projeto prevê controles rigorosos para aplicações de IA com maior potencial de dano para pessoas, grupos de comunidades. Visa também ao aumento de transparência e accountability nas aplicações de IA como um todo. Sistemas de avaliação de provas e exames, recrutamento profissional e assistência para a tomadas de decisão e definição de sentenças judiciais estão entre aqueles que deverão ser submetidos a parâmetros legais mais estritos. Já entre as aplicações consideradas integralmente inaceitáveis – que, portanto, passariam a ser ilegais – destaca-se a avaliação por IA do grau de “confiabilidade” de indivíduos.
Outro alvo relevante do projeto é a presença de instrumentos de reconhecimento facial em lugares públicos, algo que já é ilegal em países como a Alemanha e em cidades como São Francisco, nos EUA. Se uma lei europeia proibir essa aplicação de IA, o banimento cobriria 27 países e 447 milhões de pessoas.
Sistemas preditivos de criminalidade para nortear policiamento e ações policiais – sejam relativos a regiões a serem policiadas ou comportamento individual – são também tema acalorado de debate entre seus defensores e os que os consideram pouco transparentes e reprodutores de desigualdades e racismo. A nova lei poderá banir essas aplicações ou submetê-las a limites mais estreitos e critérios de transparência.
Geopolítica da IA e desafios à regulação
De acordo com a MIT Technology Review, se a União Europeia conseguir elaborar e adotar um marco regulatório que cumpra satisfatoriamente o objetivo de discernir os principais riscos da aplicação de IA e estabelecer limites e checagens adequados, essa legislação deverá servir como modelo para outros países e regiões. Especialmente nos Estados Unidos, onde se concentram empresas e investimentos de maior porte, presença global, poder e influência na área de IA (como Alphabet/Google e Meta/Facebook), a implementação dessa legislação na Europa deverá fortalecer e ampliar os movimentos já existentes para construção de um modelo regulatório nacional para IA.
Do ponto de vista geopolítico e de políticas de Estado, é importante para os EUA se manter em sintonia com a União Europeia nesse campo – sobretudo em face do rápido avanço da China em inovação, pesquisa e desenvolvimento, e no mercado internacional de IA. Interesse estratégico nacional de amplo espectro e longo prazo, que poderá contrabalançar a tendência genérica de poderosas empresas de IA no sentido de se opor a regulações que impliquem qualquer restrição de possibilidades de inovação, expansão de negócios, lucros e influência. Esses cenários e projeções ganharam relevância quando, poucos meses atrás, a própria China se adiantou e se tornou o primeiro grande desenvolvedor, produtor, mercado e exportador de IA a lançar um marco regulatório para o setor incluindo medidas anunciadas como de redução de riscos para usuários e a sociedade.
Além das controvérsias e disputas políticas e econômicas, entre os maiores desafios para a finalização e adoção do AI Act europeu, estão complexas questões tecnológicas. No atual estágio do projeto de lei, segundo a MIT Technology Review, há previsões de transparência e prestação de contas que, de acordo com especialistas ouvidos pelo veículo, são na prática inviáveis. É o caso, por exemplo, da aplicação de tecnologias de “redes neurais”, cujos processos de processamento de dados são tão complexos que se torna impossível demonstrar exatamente como certos resultados e conclusões são produzidos.
As estimativas são de que a aprovação do marco legal europeu levará, no mínimo, mais um ano, e que, depois disso, haveria um prazo de pelo menos dois anos para a adequação do mercado e dos atores estatais às novas regras.