Opinião: Inteligência artificial não é a vilã das eleições

Por Juliano Maranhão

Publicado na Folha de S. Paulo

O debate na imprensa sobre as eleições municipais deste ano elegeu sua nova vilã: a inteligência artificial (IA). Há alarme sobre o uso de IAs generativas para manipulação fraudulenta de áudios e vídeos de candidatos e sobre o direcionamento de conteúdo para persuadir eleitores. Tal alarme levou o Tribunal Superior Eleitoral a propor nova resolução com regras sobre uso de IA por candidatos e partidos políticos.

Mas a IA seria realmente vilã? As ameaças levantadas residem na disponibilização e acesso a conteúdo abusivo nas mídias digitais. Portanto, em primeira linha, o problema está no comportamento malicioso dos candidatos e, em segunda, na eficácia da moderação de conteúdos pelas plataformas. É importante não confundir a regulação da IA com regulação de partidos ou de plataformas digitais.

Imagem ilustrativa mostra propagação de notícias falsas em redes sociais – Sebastian Bozon – 1º.dez.23/AFP – AFP

É verdade que deepfakes gerados por IA potencializam a desinformação, particularmente com conteúdos escandalosos próximos ao dia da votação. Mas o vilão é o manipulador humano, não a máquina.

Por outro lado, a IA pode ser usada por eleitores para obter, resumir e simplificar programas eleitorais ou informações sobre candidatos. E por candidatos para construir o discurso de campanha em múltiplas variações e gerar áudios e vídeos legítimos, com redução de custos em relação à produção humana, favorecendo-se aqueles com menos recursos.

Assim, a IA pode contribuir com o engajamento de eleitores e trazer mais equilíbrio ao campo de disputa, fortalecendo o processo democrático. Além disso, sem auxílio da inteligência artificial para personalizar conteúdos, os eleitores ficariam perdidos em um mar de informações irrelevantes para suas escolhas eleitorais, e a moderação de conteúdo pelas plataformas, inclusive para a integridade do processo democrático, seria impossível.

Hackers são desafiados a buscar falhas na inteligência artificial
Hackers são desafiados a buscar falhas na inteligência artificial

Assim, em vez de restringir, o melhor caminho é trazer mecanismos de transparência sobre o uso de IA pelos candidatos em suas comunicações, como a introdução de marcadores digitais. Mas, para um ambiente eleitoral saudável, é fundamental que a imprensa evite o sensacionalismo ou abordagens enviesadas que venham a identificar a tecnologia como fraude.

Certamente muitos áudios e vídeos produzidos com IA, desde ajustes como filtros estéticos, cenários de fundo, obter fluidez da fala ou visual empático, até a produção de vídeos e áudios sintéticos com diferentes conteúdos, serão legítimos.

Imagens falsas feitas com IA viralizaram nas redes sociais
Imagens falsas feitas com IA viralizaram nas redes sociais

O alarme generalizado pela imprensa pode atingir o alvo errado. Ou candidatos deixarão de usar a tecnologia para fins legítimos, reduzindo o engajamento e equilíbrio entre candidaturas, ou será criado ambiente de completa desconfiança entre eleitores: conteúdos verdadeiros marcados com IA serão identificados como falsos; conteúdos falsos criados sem uso de IA podem ser automaticamente considerados verdadeiros; e candidatos podem descartar fatos reais desabonadores, alegando, ao estilo Trump, uma suposta “fake news“.

A preocupação social com o mau uso da tecnologia é bem-vinda e exige regulação dos partidos e candidatos sem ser contra, mas com a cooperação das plataformas para a moderação eficaz de conteúdos.

Contudo, o alarme para uma eleição catastrófica em função da IA pode, em vez de evitar, criar um cenário de desinformação, onde se perderá completamente a referência sobre a verdade, fazendo com que o resultado das eleições se torne uma loteria sombria.

Sobre o autor
Picture of Juliano Maranhão

Juliano Maranhão

Professor Associado da Faculdade de Direito da Universidade de São Paulo. Pesquisador da Fundação Alexander von Humboldt. Pós-doutorado na Faculdade de Ciência da Computação da Universidade de Utrecht. Membro do Comitê Executivo da International Association for Artificial Intelligence and Law (IAAIL). Pesquisador Associado do Center for Artificial Intelligence USP-IBM (C4AI/USP) e do Centro de Pesquisa Inteligência Artificial Recriando Ambientes – IARA. Diretor do Legal Grounds Institute e da Lawgorithm (USP).
Picture of Juliano Maranhão

Juliano Maranhão

Professor Associado da Faculdade de Direito da Universidade de São Paulo. Pesquisador da Fundação Alexander von Humboldt. Pós-doutorado na Faculdade de Ciência da Computação da Universidade de Utrecht. Membro do Comitê Executivo da International Association for Artificial Intelligence and Law (IAAIL). Pesquisador Associado do Center for Artificial Intelligence USP-IBM (C4AI/USP) e do Centro de Pesquisa Inteligência Artificial Recriando Ambientes – IARA. Diretor do Legal Grounds Institute e da Lawgorithm (USP).

Leia mais

Tradutor »
Pular para o conteúdo