Desafios e aspectos da regulação da inteligência artificial

Compartilhar no facebook
Compartilhar no twitter
Compartilhar no linkedin

Por Ricardo Campos, diretor do Legal Grounds Institute, e Rodrigo Badaró

Publicado originalmente no Blog do Fausto Macedo, no Estadão.

Sistemas de inteligência artificial se fazem cada vez mais presentes em nosso cotidiano. Entretanto, à medida que a tecnologia avança e se dissemina, surgem preocupações sobre seu impacto nos direitos dos cidadãos, levantando questões éticas, jurídicas e socioeconômicas. Nos últimos anos, esforços têm sido empreendidos para encontrar um equilíbrio adequado entre a inovação tecnológica e a proteção dos interesses públicos e direitos individuais, o que se manifesta tanto por meio de abordagens regulatórias variadas.

Há uma insuperável dificuldade de se estabelecer um consenso que acomode as diferentes noções jurídicas envolvidas na adoção de um regime universalmente aplicável para a IA. Não obstante, algumas iniciativas regulatórias, como as recomendações da Unesco e da OCDE para o desenvolvimento e uso da tecnologia, parecem caminhar em uma mesma direção: conquanto haja divergências quanto ao conteúdo e à forma de implementação das diretrizes, o respeito à privacidade e proteção dos dados pessoais, a necessidade de um regime de responsabilidade, e requisitos de segurança, transparência, explicabilidade e não discriminação parecem representar um denominador comum nos mais diversos instrumentos regulatórios.

O ponto é que, por mais que simbolizem a boa-vontade global para a regulação da IA, esses documentos trazem princípios e compromissos gerais e voluntários, deixando à margem algumas vezes os interesses econômicos e políticos subjacentes à corrida do ouro contemporânea. É diante disso que Estados também buscam organizar estruturas e padrões internos próprios, em conformidade com suas características sociais, econômicas e políticas específicas, seja estabelecendo “meros” princípios éticos que guiem o desenvolvimento da IA, seja definindo regras mais robustas e rígidas.

A União Europeia, por exemplo, tem buscado construir uma abordagem regulatória que promova a adoção da IA, ao mesmo tempo em que aborde uma série de riscos a ela associados. Há uma preocupação com um quadro regulatório que possibilitasse a construção de um ecossistema de confiança entre empresas e consumidores, mas que acelere a adoção da tecnologia no espaço europeu. Para isso, o bloco tem enfrentado o desafio de estabelecer uma definição de IA flexível o suficiente para acomodar a dinamicidade da tecnologia, bem como as vantagens da adoção de uma abordagem baseada em risco, a fim de que seja eficaz sem ser excessivamente prescritiva. É nesse contexto que se dá a publicação, em 2021, da proposta de Regulamento sobre a IA – o chamado AI Act.

Ao contrário da UE, as regulações nos EUA são elaboradas, de maneira geral, a nível estadual e setorial, de forma descentralizada e vertical. Recentemente, porém, mudando a tendência, o presidente Biden emitiu uma ordem executiva intitulada Decreto Executivo sobre o Desenvolvimento e uso Seguro e Confiável da Inteligência Artificial (em tradução livre), que estabelece uma série de compromissos voluntários a serem cumpridos pelas empresas que pretendem desenvolver e empregar a tecnologia no país.

Outro exemplo que não se pode deixar de citar é o da China, país com a mais robusta regulação sobre a temática, contando com leis específicas sobre assuntos como recomendação algorítmica e manipulação profunda de conteúdos. A abordagem chinesa, diferentemente da europeia e americana, enxerga a forte atuação estatal como um diferencial apto a promover, em primeiro lugar, o fortalecimento do mercado interno chinês, tendo como consequência uma posição hegemônica no desenvolvimento da tecnologia em perspectiva global.

A estratégica chinesa envolve a aproximação do Estado com as principais empresas de IA do país, o que nos leva a um ponto interessante da discussão sobre a regulação dessa tecnologia. Segundo reportagem do Washington Post, quando a Administração para o Ciberespaço da China (CAC) teve sua primeira reunião com as empresas para discutir a regulação de algoritmos, os representantes estatais “demonstraram pouca compreensão dos detalhes técnicos”, fazendo com que os representantes das empresas empregassem uma combinação de metáforas e linguagem simplificada para abordar o assunto. Isso deixa claro que, em se tratando da regulação da IA (e outras tecnologias emergentes), confiar apenas no aparato estatal para estabelecer normas e diretrizes de desenvolvimento pode ser um fator negativo do ponto de vista da inovação.

Deixar claros os fins da regulação da IA, afinal, é uma tarefa complexa, mas que pode definir os rumos de um país. Enquanto, a título ilustrativo, o AI Act europeu apresenta um desenho rígido, focado estritamente nos direitos fundamentais dos usuários, a abordagem estadunidense tem como premissa principal uma agenda pró-inovação, que se volta à eliminação de potenciais barreiras ao avanço tecnológico. De um lado, o modelo europeu implica alguns problemas, especialmente em razão de sua inflexibilidade quanto às classificações e limitações do uso da IA, além de sanções que podem impedir o investimento em tecnologia; do outro, um modelo autorregulatório, com normas baseadas em consensos, mas que pode acabar por descuidar de determinados direitos e garantias.

continua após a publicidade
No contexto brasileiro, por sua vez, vivenciamos um movimento quase pendular, iniciado pela Estratégia Brasileira de Inteligência Artificial (EBIA), à qual se somou o PL 21/2020, de caráter eminentemente principiológico. Por outro lado, o atual PL 2338/23, é louvável pela instituição de uma comissão de juristas extremamente qualificados para debater o assunto, contando com o entusiasmo salutar do ilustre Presidente Senador Rodrigo Pacheco, tendo produzido uma norma moderna e muito bem estruturada. Se não bastasse, a norma vem sendo objeto de grande debate em Comissão Especial no Senado Federal, demonstrando a maturidade do parlamento e preocupação quanto a matéria tão importante. Com efeito, dentro de algumas preocupações, estão aquelas desenvolvimentistas dentro do dilema secular de inovação e regulação, buscando-se o ponto ideal que não alije o Brasil, que tem enorme potencial na criação de novas tecnologias e ideias da corrida internacional, e preserve a mitigação de riscos, que são sempre potencializados em um país continental, com muitas diferenças raciais e sociais, dentre outras. Assim, na busca de se contribuir para o debate, é imprescindível que o Congresso se debruce na verificação de categorizações e particularidades setoriais, e no contexto sociopolítico econômico, preservando-se o estimulo a inovação e desenvolvimento tecnológico no Brasil.

Nesse sentido, a autorregulação regulada (i.e., com participação de entes privados no processo regulatório, sob supervisão do Estado) representa uma via promissora para fomentar o desenvolvimento ético e responsável da IA, ao mesmo tempo em que haja flexibilidade e adaptabilidade necessárias para a inovação. Diversos fatores podem ser ponderados para fortalecer e apoiar esse enfoque: a participação ativa e multidisciplinar de uma ampla gama de partes interessadas na concepção e construção de ferramentas autorregulatórias para a IA pode potencializar o compromisso e a aceitação dessas iniciativas, o que permite incorporar uma diversidade de perspectivas e conhecimentos, enriquecendo o processo como um todo. Além disso, a busca por abordagens inovadoras é essencial para lidar com os custos percebidos e os ônus associados à implementação de mecanismos de autorregulação.

Na discussão da norma, é imprescindível considerar os diferentes processos de formação de conhecimento existentes na sociedade digital atual. A utilização de ferramentas de autorregulação, adaptadas a contextos e casos de uso específicos, incentiva a adoção voluntária dessas ferramentas. Ao fim e ao cabo, isso permite a adaptação das normas às necessidades singulares das diversas aplicações da IA, estabelecendo um ambiente regulatório que respeita e promove direitos fundamentais e, ao mesmo tempo, estimula o desenvolvimento e a inovação.

*Ricardo Campos, docente na Goethe Universidade Frankfurt am Main e sócio do Warde Advogados

*Rodrigo Badaró, advogado, conselheiro nacional do Ministério Público e conselheiro nacional de proteção de dados (2021/2023)

Sobre o autor
Ricardo Campos

Ricardo Campos

Docente nas áreas de proteção de dados, regulação de serviços digitais e direito público na Faculdade de Direito da Goethe Universität Frankfurt am Main (Alemanha). Doutor e Mestre pela Goethe Universität. Atua com regulação de serviços digitais, proteção de dados, direito público e regulatório. Participa recorrentemente em audiências públicas e comissões no Congresso brasileiro e em tribunais superiores para discussão de temas ligados ao direito e tecnologia. Ganhador do prêmio Werner Pünder sobre regulação de serviços digitais (Alemanha, 2021) e do European Award for Legal Theory da European Academy of Legal Theory (2022). Coordenador da área de Direito Digital da OAB Federal/ESA Nacional. Diretor do Legal Grounds Institute. Sócio do Warde Advogados, consultor jurídico e parecerista
Ricardo Campos

Ricardo Campos

Docente nas áreas de proteção de dados, regulação de serviços digitais e direito público na Faculdade de Direito da Goethe Universität Frankfurt am Main (Alemanha). Doutor e Mestre pela Goethe Universität. Atua com regulação de serviços digitais, proteção de dados, direito público e regulatório. Participa recorrentemente em audiências públicas e comissões no Congresso brasileiro e em tribunais superiores para discussão de temas ligados ao direito e tecnologia. Ganhador do prêmio Werner Pünder sobre regulação de serviços digitais (Alemanha, 2021) e do European Award for Legal Theory da European Academy of Legal Theory (2022). Coordenador da área de Direito Digital da OAB Federal/ESA Nacional. Diretor do Legal Grounds Institute. Sócio do Warde Advogados, consultor jurídico e parecerista

Leia mais

Tradutor »
Pular para o conteúdo