Originalmente publicado no site Folha de S.Paulo
Não é exagero dizer que existe uma corrida global pela regulação da inteligência artificial. Em março, o Parlamento Europeu aprovou o seu Regulamento sobre IA. Estados Unidos e China também têm discutido legislações afins.
No Brasil, destacam-se duas propostas legislativas para a regulação da matéria: uma influenciada pela norma europeia e outra focada em questões éticas, levantando o debate sobre a adoção ou não do modelo europeu.Imagem ilustrativa mostra as palavras artificial intelligence (inteligência artificial, em inglês) atrás de uma boneca – Dado Ruvic/Reuters
A regulação da IA se difere de outras searas por um motivo: não há experiência significativa sobre o tema em lugar algum do mundo. Enquanto no campo da proteção de dados a Europa teve um amadurecimento legislativo de quase 50 anos, a regulação da IA tem sido um caminho percorrido às cegas. Ainda não é possível saber se o modelo adotado terá um impacto positivo ou negativo para o bloco, sobretudo no que diz respeito à inovação.
No caso da proteção de dados, o Brasil acertou ao se inspirar no modelo europeu já amadurecido. Mas, em relação à IA, qual direção devemos seguir? É preciso, antes de tudo, cautela.
O primeiro passo reside em não relegar ao mercado a sua própria regulação. O segundo, e mais importante, em criar designs regulatórios adequados para o atual momento de incerteza.
O modelo europeu é incerto, pois o direito regulatório moderno somente se concretiza efetivamente na forma legislada após o acúmulo de experiência sobre riscos e danos. O tráfego aéreo somente foi regulado depois que aviões começaram a voar, e a empírica demonstrou onde os danos surgem ou podem surgir; regular no momento anterior afetaria o desenvolvimento da tecnologia e seus benefícios.
O mesmo ocorre com IA: apesar da urgência do tema, danos concretos ainda são incipientes e setoriais, podendo ser absorvido por estruturas normativas já existentes.
Por exemplo, a polêmica propaganda com uma deepfake da cantora Elis Regina não deveria implicar a necessidade de criar uma nova lei, pois o aparato normativo do Conar é capaz de lidar com a questão.
Seguir o modelo do AI Act implica, dada a pouca experiência regulatória, fazer um perigoso exercício de futurologia sobre um dos mais importantes assuntos da nossa era. Um regime regulatório ideal deveria setorizar a regulação, criando mecanismos para que setores distintos possam monitorar e fiscalizar novas tecnologias, emitindo alertas caso elas gerem danos ou riscos.
Não é razoável acreditar que uma lei geral regularia de forma efetiva diferentes setores, como a saúde e os transportes, o agronegócio, a educação etc sem engessar a inovação. Setorizar a regulação da IA significa atribuir aos agentes reguladores de cada setor a possibilidade de construir o aparato normativo mais adequado para a sua realidade.
A criação de uma autoridade reguladora para IA, outra inovação legislativa, também é temerária. O mais racional seria que os órgãos regulatórios setoriais se debruçassem sobre o tema, com a criação de comitês especializados dentro das agências reguladoras, ou até mesmo, de um órgão que atue como coordenador dos setores, mas não como um regulador centralizado.
Há um grande hiato entre a percepção midiática dos perigos de IA, os danos concretos da nova tecnologia e a experiência regulatória disponível sobre o tema.
O dilema brasileiro reside justamente no fato de que a nossa opção regulatória significa, acima de tudo, uma decisão quanto ao nosso posicionamento geopolítico no mercado global de inovações em IA.
Com o G20 ocorrendo no Brasil, dispomos de uma vitrine mundial para exibir sinais de maturidade, racionalidade e pioneirismo na regulação tecnológica, alinhando inovação e proteção de direitos num cenário de incertezas.