Marco deve considerar diferentes abordagens regulatórias e a distribuição do poder normativo sobre o tema no Brasil
Por Juliano Souza de Albuquerque Maranhão
Publicado originalmente no JOTA, em 08/05/2024|05:20
Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), no Senado Federal / Crédito: Roque de Sá/Agência Senado
O trâmite legislativo do chamado Marco Legal da Inteligência Artificial no Senado deu mais um passo, com a divulgação, pelo relator da Comissão Temporária de IA (CTIA), senador Eduardo Gomes (PL-TO), do novo texto em relação ao PL 2338/23, proposto ano passado pelo senador Rodrigo Pacheco (PSD-MG), a partir do resultado dos trabalhos da Comissão de Juristas do Senado.
O novo texto divulgado pela CTIA não pode ser acusado de ter sido insensível às críticas dirigidas ao PL 2338/23, ao menos no que diz respeito ao arranjo institucional de fiscalização.
Podemos distinguir as seguintes abordagens regulatórias como alternativas para gerar comprometimento dos agentes desenvolvedores e aplicadores de sistemas de inteligência artificial com as melhores práticas de governança para mitigação dos riscos inerentes a essa tecnologia:
- a judiciária, em que a lei prevê direitos individuais em relação à IA, cabendo ao Poder Judiciário atuar na proteção dos cidadãos não só em relação a danos, mas também quando a gestão de riscos pelos agentes de IA for considerada insuficiente;
- a administrativa transversal, em que a lei cria uma autoridade central, com a imposição externa de medidas de governança de IA a serem exigidas e fiscalizadas pela autoridade nos mais diversos setores de atividade econômica;
- a administrativa setorial, em que a lei delega às autoridades reguladoras setoriais a competência normativa para impor e fiscalizar a adoção de medidas de governança de IA pelos agentes de mercado, específicas para o respectivo setor regulado;
- a autorregulação regulada, em que a lei prevê parâmetros gerais de governança que terão suas medidas especificadas e fiscalizadas por entidades privadas setoriais de autorregulação, supervisionadas pelo Estado, às quais os agentes de IA se filiam e se adequam;
- a autorregulação por certificação, em que parâmetros gerais de governança previstos na lei são especificados por entidades certificadoras especialistas em IA e no domínio de aplicação do sistema, conferindo selos de qualidade e responsabilidade validados pelo Estado. O estímulo à governança responsável provém da busca por oportunidades de negócio em um mercado que valoriza a ética.
- a autorregulação pura, em que a lei apenas prevê princípios gerais e abstratos sobre ética de IA e confia sua aplicação e regulação ao setor privado.
O PL 2338/23 já nasceu com o acoplamento de duas abordagens, a administrativa transversal e a judiciária. Previa uma autoridade central e regras de governança transversais e, ao mesmo tempo, atribuía uma série de direitos a “pessoas afetadas por IA”, conceito vago que não se limita àqueles que sofreram danos, abrangendo pretensões judiciais quanto a praticamente todos os procedimentos de governança.
O novo texto, agora, faz acenos aos críticos que propunham abordagens distintas, com exceção da autorregulação pura, que resultou, no passado, em códigos de ética pouco implementáveis.
Para acolher a abordagem administrativa setorial, o novo texto propõe a criação do Sistema Nacional de Regulação e Governança de IA (SIA), que congrega, além da autoridade central, as agências reguladoras e os órgãos públicos setoriais, com a principal tarefa de definir quais sistemas de IA serão considerados de alto risco. Mas a autoridade de IA continua a centralizar as competências normativas, como coordenadora do SIA.
Para acolher a autorregulação regulada, prevê capítulo em que admite a filiação dos agentes a entidades de autorregulação setorial para desenvolver a padronização de elementos técnicos de sistemas de IA, e estipular, contextualmente, estruturas de governança.
Para acolher a autorregulação por certificação, prevê capítulo em que associações representativas de setores podem solicitar a acreditação à autoridade de IA para certificar sistemas e agentes de inteligência artificial.
Mas todos esses acenos podem se tornar anódinos caso as pontas não sejam bem amarradas para que efetivamente haja comprometimento dos agentes com IA responsável, em tempo útil, diante do avanço da tecnologia e da necessidade do país se desenvolver e entrar na competição global.
Apesar dos acenos, o novo texto continua pautado pela abordagem judiciária e administrativa transversal. Aqui, há duas grandes dificuldades. Primeiro, o Judiciário ainda não está preparado para lidar com o conteúdo complexo e técnico da matéria, com o potencial de decisões conflitantes e insegurança jurídica.
Segundo, levará tempo até que uma autoridade administrativa seja minimamente equipada para a atividade normativa e fiscalizadora que a lei lhe incumbe. Não podemos esperar até 2030 (vide o exemplo da Autoridade Nacional de Proteção de Dados) para que compromissos com IA responsável e direitos fundamentais sejam assegurados. Daí a necessidade de contar com a colaboração do aparato regulatório setorial e dos próprios agentes privados regulados.
A verdade, como bem apontou Luca Belli, é que a IA responsável somente será alcançada com o detalhamento dos procedimentos de governança em padrões técnicos e regras organizacionais claras e auditáveis; ou seja, no preenchimento dos termos “razoáveis”, “adequadas”, “proporcionais”, que acompanham cada uma das medidas listadas nas propostas de regulação.
Nenhuma regulação estatal é capaz de fazer essa especificação, pois ela depende de expertise setorial e da dinâmica de desenvolvimento tecnológico. É por isso que, na alternativa proposta pela Associação Lawgorithm, entidades de certificação setorial e especialistas em IA constituem o centro da regulação, que inclui conjunto de regras de fomento ao investimento e desenvolvimento da tecnologia no Brasil.
A rápida evolução da IA e sua ubiquidade tornarão praticamente impossível, a uma ou mais agências estatais, normatizar a tecnologia e, mais importante, fiscalizar todas as aplicações. Será crucial para a administração contar com Códigos de Conduta privados que acompanhem o estado da arte e a fiscalização mútua entre os agentes de IA em termos de controle de qualidade (responsabilidade), a cada contratação.
Assim, caso não haja disposição política em se migrar completamente para um papel estratégico do Estado na simples indução e supervisão dos agentes privados, é fundamental que as menções na lei à autorregulação não sejam “para inglês ver”. E, principalmente, é crucial dar relevo às entidades técnicas de padronização de procedimentos confiáveis e auditáveis, para promover o uso responsável de IA.
Sugere-se, em primeiro lugar, reduzir a abordagem judiciária para que se promova segurança jurídica, o que pode ser alcançado com a limitação dos direitos e pretensões individuais à compensação por danos e à transparência quanto ao uso de IA ou quanto a informações sobre critérios de decisões automatizadas, quando tais decisões impactarem direitos dos cidadãos.
Já os capítulos sobre Códigos de Conduta, sobre autorregulação e sobre certificação tratam essencialmente do mesmo tema, e deveriam ser unificados em um arranjo robusto em que os códigos de conduta, com padrões técnicos e setoriais, sejam elementos propostos pelas entidades de certificação para sua acreditação pela autoridade.
Agências reguladoras e órgãos setoriais poderiam participar desse arranjo, com emissão de pareceres técnicos no processo de acreditação, nos respectivos domínios de atuação. O mais importante, contudo, é assegurar que a participação no arranjo pelos agentes de IA seja efetivamente premiada, com a atenuação significativa de sanções, em caso de incidentes, para aqueles que comprovadamente implementaram as melhores práticas de mitigação de riscos.
As regras sobre fomento ao investimento, que apareceram no novo texto, também são bem-vindas, mas devem ser reforçadas no sentido de incentivar cooperações público-privadas em grandes projetos de pesquisa e desenvolvimento.
Regular a IA é tarefa extremamente complexa e a composição em ambiente democrático, com a conciliação de diferentes abordagens regulatórias, pode ser produtiva, desde que a carga de poderes normativos e fiscalizadores seja efetivamente distribuída entre uma autoridade central, agências estatais setoriais, entidades de padronização e agentes privados.