Honestidade no uso da Inteligência Artificial em propaganda eleitoral

Por Juliano Maranhão

Originalmente publicado no JOTA.

O recente confronto travado entre a deputada Tabata Amaral (PSB-SP) e o prefeito Ricardo Nunes (MDB) na disputa pela Prefeitura de São Paulo despertou a atenção para a aplicação da Resolução 23.732/24 do Tribunal Superior Eeleitoral (TSE), que traz regras sobre uso de inteligência artificial (IA) em propaganda eleitoral. A deputada retrocedeu, após a campanha de Nunes insurgir-se e apontar como ilegal o uso de IA em vídeo no qual o prefeito aparece como o personagem Ken em cena do filme Barbie. Mas tal uso da IA efetivamente violaria a Resolução do TSE?

A Resolução diferencia três tipos de uso, com consequências distintas.

Primeiro, os usos que podemos chamar de “irrelevantes”, previstos no art. 9ºB, par. 2º, tais como ajustes para melhorar qualidade de imagem e som, inclusão de elementos gráficos como vinhetas e logos, ou, ainda montagens corriqueiras para compor fotografias de candidatos e apoiadores, todos elementos já presentes em campanhas e produção audiovisual, mas que podem ter resultados melhores e redução de custos com o uso de IA. Para esses usos, não se impõe qualquer obrigação.

A segunda categoria, que pode ser chamada e “usos autorizados”, consiste em produzir conteúdo sintético com IA para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons. Ou seja, elementos capazes não só de ajustar o conteúdo ou marcar com identidade visual, mas que compõem novas formas de produzir e manipular sinteticamente textos, áudios e vídeos. Para esses usos, previstos no art. 9-B, caput, impõem-se obrigações de transparência, para informar claramente o eleitor sobre o emprego de IA.

Já a terceira categoria, que podemos chamar de “usos proibidos”, previstos no art. 9º-C, par. 1º, refere-se a conteúdo sintético gerado por IA para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia, seja para prejudicar, seja para favorecer candidatura.

Não fica clara a distinção entre as ações de “criar alterar ou substituir imagem ou voz de pessoas” (proibidas pelo art. 9º C, par 1º) e as hipóteses de “criar, substituir, omitir, mesclar ou alterar e velocidade e sobrepor imagens ou sons” (permitidas pelo art. 9º-B, caput). Isso porque a diferença está não propriamente na ação, mas na intenção e efeitos, conforme previsto no art 9ºC, caput: apenas são proibidas tais manipulações por IA quando (i) objetivarem difundir fatos notoriamente inverídicos ou descontextualizados e (ii) que tenham o potencial de causar danos ao equilíbrio do pleito. Presentes esse elementos, a manipulação é proibida seja ela para prejudicar um candidato oponente, seja para favorecer o próprio candidato.

A diferenciação não pelo tipo de ação ou técnica de IA empregada, mas pelo objetivo enganoso e efeitos traz dois elementos de subjetividade e indeterminação. Quando devemos considerar que a intenção é maliciosa ou dissimuladora? E quando o efeito poderia efetivamente alterar o equilíbrio da disputa?

A resposta não se limita a analisar se o uso foi ou não consentido, pois a proibição, quando presentes aqueles dois elementos, aplica-se tanto a usos para prejudicar o rival, quanto para beneficiar o próprio candidato ou candidata.

Como caso prototípico proibido de uso não consentido e prejudicial ao rival, teríamos, por exemplo, candidata que veicula deepfake do oponente dizendo algo impopular ou escandaloso próximo à votação. Já um uso não consentido para beneficiar o próprio candidato, claramente proibido, estaria presente em caso deepfake de político popular ou de alguma celebridade declarando apoio a determinado candidato.

Nesses dois casos, o ardil está claramente presente e também se presume o potencial para mudança de intenções de voto, fruto exatamente do equívoco causado pela desinformação. Perceber esse aspecto é importante, pois revela que a Resolução do TSE não se voltou propriamente contra o uso da inteligência artificial, mas sim contra a própria desinformação capaz de desequilibrar a disputa, produzida com auxílio da IA.

Após questionamentos, o vídeo veiculado pela deputada foi alterado, usando-se técnica inferior (uma foto de Nunes sobre o rosto do personagem na cena do filme), para evitar uma suposta ilegalidade. Mas se colocar a foto sobre o rosto não é ilegal, por que produzir o efeito de substituição do rosto com IA o seria? Por mais perfeita que seja a integração do rosto ao personagem “Ken”, ninguém acreditaria que seria mesmo o prefeito Ricardo Nunes dançando em cena do filme . O ponto do vídeo pouco tinha a ver com a cena, mas com o trocadilho entre o nome do personagem “Ken” e a pergunta “Quem”, questionando-se a popularidade do prefeito, em resposta à crítica quanto à experiência da candidata, tudo dentro do confronto democrático de opiniões mútuas sobre as qualidades dos disputantes, trazendo pontos para reflexão pelo eleitor.

A jurisprudência do TSE tem sido bastante cautelosa, buscando preservar a liberdade dos candidatos na veiculação de ideias e formas de expressão. Veda apenas conteúdos inverídicos e ofensivos à honra.[1] Por outro lado, preserva a legitimidade do uso satírico e humorístico, em nome da liberdade de expressão,[2] como já corroborado pelo Supremo Tribunal Federal.[3] Não foi objetivo da Resolução do TSE mudar esse entendimento, quando se estiver diante de manipulações envolvendo IA. Não faria sentido defender ser livre o uso de humor e sátira, mas não quando o meio técnico de execução envolva IA.

Resta a hipótese de uso consentido para manipular a imagem ou áudio da própria candidata ou candidato.

Suponha candidata ou candidato com disfemia que usa IA para melhorar a fluidez do seu discurso. Ainda que se considere haver potencial para essa manipulação mudar intenções de voto, teríamos aqui um uso ilegítimo? Embora a IA crie algo distinto do real, parece que o objetivo é veicular melhor as ideias e não propriamente ocultar a deficiência na dicção. E alterações no visual da própria candidata? Aspectos estéticos menores não parecem problema, mas a manipulação pode ser tal que crie uma imagem positiva totalmente desconexa da real, influenciando o eleitor de modo enganoso.

Nesse espectro de manipulações possíveis da imagem e voz para propaganda positiva própria ou propaganda negativa em relação a terceiros, a resposta não é simples e depende de análise contextual. Em última análise, entra em jogo a avaliação da honestidade da manipulação. O que a IA traz de novo é a perfeição do resultado. A questão é saber se essa perfeição foi usada especificamente para enganar e se o equívoco induzido tem potencial para mudar intenções de voto. Tal apreciação pode e deve ser antecipada pelo partido ou coligação, com uma estrutura de governança adequada para orientação dos candidatos e para verificação dos casos limítrofes, tendo em vista que, pelo art. 9º da Resolução, todos esses atores podem ser responsabilizados.


[1] Rp nº 060130762. Rel. Min. Carlos Horbach; Rel. designada Min. Maria Claudia Bucchianeri. Julgamento: 18/05/2023. Rp nº 060137257. Rel. Min. Floriano de Azevedo Marques. Julgamento: 28/09/2023. Publicação: 17/10/2023; Rp nº 060137257. Rel. Min. Floriano de Azevedo Marques. Julgamento: 28/09/2023. Publicação: 17/10/2023; f-Rp nº 060135873. Rel. Min. Maria Claudia Bucchianeri. Julgamento: 25/10/2022. Publicação: 25/10/2022.

[2] E – Rp nº 060114652/DF. Rel. Min. Carlos Horbach. Julgado em: 20/04/2023. Publicado em 12/05/2023; TSE – R-RP nº 060096930/DF. Rel. Min. Carlos Horbach. Julgado em: 20/09/2018. Publicado em 20/09/2018; posição perfilada pelo STF.

[3] ADI 4451/DF. Rel. Min. Alexandre de Moraes. Julgado em: 21/06/2018. Publicado em: 06/03/2019.

Sobre o autor
Picture of Juliano Maranhão

Juliano Maranhão

Professor Associado da Faculdade de Direito da Universidade de São Paulo. Pesquisador da Fundação Alexander von Humboldt. Pós-doutorado na Faculdade de Ciência da Computação da Universidade de Utrecht. Membro do Comitê Executivo da International Association for Artificial Intelligence and Law (IAAIL). Pesquisador Associado do Center for Artificial Intelligence USP-IBM (C4AI/USP) e do Centro de Pesquisa Inteligência Artificial Recriando Ambientes – IARA. Diretor do Legal Grounds Institute e da Lawgorithm (USP).
Picture of Juliano Maranhão

Juliano Maranhão

Professor Associado da Faculdade de Direito da Universidade de São Paulo. Pesquisador da Fundação Alexander von Humboldt. Pós-doutorado na Faculdade de Ciência da Computação da Universidade de Utrecht. Membro do Comitê Executivo da International Association for Artificial Intelligence and Law (IAAIL). Pesquisador Associado do Center for Artificial Intelligence USP-IBM (C4AI/USP) e do Centro de Pesquisa Inteligência Artificial Recriando Ambientes – IARA. Diretor do Legal Grounds Institute e da Lawgorithm (USP).

Leia mais

Tradutor »
Pular para o conteúdo