Por Luiz Fernando Alfrediano e Marina Crivelli Simões
Na última quarta-feira (13), o Parlamento Europeu aprovou, com ampla maioria (523 votos a favor, 46 contra e 49 abstenções), a primeira legislação europeia sobre inteligência artificial, denominada AI Act ou Lei de IA. O texto foi proposto em 2021 como parte da estratégia digital da União Europeia e passou por diversas alterações ao longo dos anos até alcançar sua versão final. Seu principal objetivo é estabelecer diretrizes específicas para a utilização da IA, de modo a conciliar segurança e proteção de direitos fundamentais com impulso à inovação. Uma das principais preocupações foi estabelecer um marco regulatório que pudesse mitigar problemas sociais e políticos que são potencializados pela inteligência artificial, tais como desinformação, vigilância em massa, manipulação de imagens e fotos, e potenciais abusos aos direitos fundamentais e à democracia.
O documento constitui, portanto, um quadro normativo básico para governança, supervisão e responsabilidade em sistemas de IA que, para lidar com a complexidade do tema e a diversidade de sistemas desenvolvidos e em desenvolvimento [1], baseou-se em um modelo de riscos, o chamado Risk Approach framework, que agrupa os diferentes modelos de IA de acordo com o risco que oferecem à sociedade e estabelece restrições e obrigações específicas para cada grupo. Sob essa lógica, foram definidos, inicialmente, sistemas considerados de “risco inaceitável”, e, portanto, proibidos dentro do bloco europeu. Como exemplo pode-se citar aqueles que: 1) explorem vulnerabilidades como idade, deficiência ou situação socioeconômica, com o fim de distorcer comportamentos; 2) estabeleçam pontuação social baseada na avaliação ou classificação de comportamentos sociais ou características individuais; 3) avaliem o risco de uma pessoa ser autora de fatos criminosos exclusivamente com base no perfil ou traços da personalidade (policiamento preditivo); 4) infiram emoções em locais de trabalho ou instituições educacionais.
Em seguida, estão aqueles sistemas de risco elevado que, apesar de permitidos, podem ser potencializadores de problemas sociais e causadores de danos na sociedade e, portanto, serão avaliados antes de sua colocação no mercado e ao longo de seu ciclo de vida. Abrangidos por tal categoria estão sistemas relacionados a infraestruturas críticas (transporte, por exemplo); a emprego e gestão de trabalhadores; a gestão de migração e controle de fronteiras; a administração da justiça e processos democráticos (exemplo de soluções de IA para busca de decisões judiciais), dentre outros. A esta categoria, o AI Act dedica diversos artigos, prevendo obrigações específicas como, por exemplo, a implementação de um sistema de gestão de riscos, a elaboração de documentação técnica detalhada sobre o sistema, e a observância de requisitos relativos ao conjunto de dados utilizados para treinamento.
Outra categoria que chama atenção é a das chamadas IAs de uso geral (general-purpose), para as quais foi dedicado o Capítulo V do documento. A proposta original da Comissão Europeia não continha referências específicas a esses modelos, o que se alterou especialmente após o lançamento, pela OpenAI, do ChatGPT, uma ferramenta de modelo de linguagem capaz de interagir com o interlocutor e formar frases complexas a partir da construção de prompts, o que promoveu diversas reflexões ao redor do mundo sobre os impactos na educação e na justiça, por exemplo. Polêmicas como a do advogado que utilizou o ChatGPT em sua petição e, logo após, descobriu que a própria ferramenta havia inventado a jurisprudência relativa ao caso [2], chamaram a atenção dos reguladores para os problemas específicos que essas novas tecnologias podem trazer.
No mesmo sentido, a possibilidade de criar fotos e vídeos completamente realistas e até manipular mídias pré-existentes revelam potenciais ameaças ao Estado Democrático de Direito e às democracias atuais, vez que podem impulsionar desinformação, propaganda ideológica, proliferação de difamação contra pessoas e institutos e manipulação de massas, especialmente no contexto de mídias sociais. Diante disso, o AI Act, apesar de não classificar tecnologias como essas na categoria de alto risco, definiu obrigações específicas, como a de implementar medidas de transparência, incluindo a publicização de um resumo do conteúdo utilizado para treinamento do modelo; a de documentar e prover ao consumidor daquela ferramenta um sumário detalhado do processo de teste e resultado das avaliações; e a de adotar uma política que demonstre conformidade com a lei de direitos autorais.
A lei ainda está sujeita a uma verificação jurídico-linguística, por meio de um procedimento chamado de retificação, e espera-se que ela entre em vigor até o final da legislatura. No geral, será plenamente aplicável 24 meses após a sua entrada em vigor, contudo, prevê um sistema de vigência progressivo em casos específicos para os dispositivos/títulos que tratem sobre: práticas proibidas de IA (aplicáveis 6 meses após a entrada em vigor da lei), regras de IA para fins gerais e sanções (aplicáveis 12 meses após a entrada em vigor da lei) e obrigações para sistemas de alto risco (aplicáveis 36 meses após a entrada em vigor da lei).
Quanto às sanções previstas para os casos de violações ao que a lei estabelece, há previsão de que cumpre aos Estados-Membros fixarem tais regras, sendo mencionadas no ato medidas como as multas administrativas, advertências e medidas não monetárias, sendo tal rol, portanto, não exaustivo. A lei fixa também que as sanções previstas deverão se pautar por parâmetros de eficácia, proporcionalidade e dissuasão.
Embora a legislação seja um marco histórico no que compreende regulação e IA, há críticas quanto a alguns pontos. A Article 19, por exemplo, importante organização internacional em defesa da liberdade de expressão, evidenciou sua preocupação ante o fato de o AI Act não proibir integralmente tecnologias de reconhecimento emocional e de identificação biométrica remota em espaços públicos, tendo em vista seu potencial para violar direitos fundamentais. Ainda, a organização se posiciona de forma contrária à presunção de conformidade prevista para os sistemas de IA de risco elevado no caso de cumprimento de padrões técnicos. Para a Article 19, as organizações que definem tais padrões não estariam estruturadas para incorporar considerações mais amplas voltadas a direitos e garantias fundamentais, razão pela qual tal parâmetro não seria adequado para se determinar conformidade com o regulamento [3].
Muitas pessoas podem pensar que, por estarem fora do continente europeu, não serão afetadas pela legislação vigente, o que não é verdade. O AI Act irá causar impactos significativos no mercado cada vez mais global, trazendo, por exemplo, a necessidade das empresas multinacionais de se adequarem ao uso da inteligência artificial e às novas políticas. Ademais, é importante ressaltar que, como lei pioneira, o AI Act poderá servir de modelo e inspiração para outros países produzirem suas próprias legislações, impulsionado pelo fenômeno do “Efeito Bruxelas”, que em termos práticos, diz respeito ao potencial da UE de exportar suas regras para outras jurisdições ao regular corporações que atuam no mercado global [4]. Os Estados Unidos, por exemplo, recentemente, aprovou o primeiro decreto de regularização de inteligência artificial assinado pelo atual presidente Joe Biden, que definiu o documento como uma forma de “mitigar os efeitos negativos da IA, ao mesmo tempo em que aproveita os seus benefícios” [5]. Além disso, no continente asiático, países como China, Japão e Coreia do Sul, estão em estágios avançados no que compreende a elaboração de suas legislações.
No Brasil também há iniciativas semelhantes. Entre elas, o PL 2338/2023, proposto pelo Senador e Presidente da Casa, Rodrigo Pacheco. Durante sua tramitação, foram realizadas sessões temáticas com especialistas em direitos digitais no país, contando, inclusive, com a participação de Juliano Maranhão, diretor do Legal Grounds Institute. O texto em questão tem como principal objetivo estabelecer normas gerais de caráter nacional para a regulação, para o desenvolvimento, para a implementação e para o uso de inteligência artificial responsável no Brasil.
Diante da necessidade de estabelecer regras para que o desenvolvimento das novas tecnologias seja realizado em consonância com a proteção de direitos das pessoas, é fundamental que olhemos com atenção para as experiências internacionais. Em se tratando do primeiro marco regulatório no mundo sobre inteligência artificial, o AI Act, com seus erros e acertos, certamente deverá ser objeto de estudo para reguladores e formuladores de políticas no Brasil, a fim de que possamos desenvolver um modelo nacional eficaz.
[1] GRIEMAN, Keri; EARLY, Joseph, A risk-based approach to AI Regulation: System categorization and explainable AI practices, Scripted, v. 20, n. 1, 2023.
[2] Disponível em: https://g1.globo.com/tecnologia/noticia/2023/05/29/advogado-usa-casos-inventados-pelo-chatgpt-em-processo-judicial-e-leva-puxao-de-orelha-de-juiz.ghtml. Acesso em: 15 mar. 2024.
[3] Disponível em: https://www.article19.org/resources/eu-ai-act-passed-in-parliament-fails-to-ban-harmful-biometric-technologies/. Acesso em: 18 mar. 2024.
[4] Disponível em: https://lapin.org.br/2021/06/21/o-efeito-bruxelas-e-a-moderacao-de-conteudo-como-a-uniao-europeia-influencia-o-combate-global-a-desinformacao/. Acesso em: 15 mar. 2024.
[5] Disponível em: https://g1.globo.com/tecnologia/noticia/2023/11/01/biden-assina-1o-decreto-para-regulamentar-inteligencia-artificial-nos-eua-veja-os-principais-pontos.ghtml. Acesso em: 15 mar. 2024.