Por Jaine Mendes
Na audiência pública sobre as resoluções das eleições, realizada nesta quinta-feira (25) pelo TSE, Juliano Maranhão, diretor do Legal Grounds Institute, apresentou sugestão à minuta sobre propaganda eleitoral, para que as medidas de transparência não acabem por identificar equivocadamente o uso de IA com conteúdo fraudulento.
Ele elogiou a norma por direcionar sua atenção ao comportamento dos candidatos e partidos, restringindo as preocupações aos chamados deep fake.
Maranhão não enxerga a necessidade de nesse momento falar sobre a regulação das plataformas e proteger dados pessoais nesse contexto, argumentando que já existem debates em curso ou regulação específica para essa questão no Congresso. Caso isso não esteja claro, é fundamental destacar que a responsabilidade pela informação contida é inteiramente do candidato.
Para ele, é importante informar explicitamente sobre a presença da IA na criação do conteúdo audiovisual. A principal preocupação apontada pelo professor é evitar que o eleitor identifique qualquer uso da IA como fraudulento ou deep fake, já que a IA pode ser legitimamente empregada para aprimorar o áudio do discurso, criar um cenário empático para o candidato ou utilizar uma única gravação para produzir conteúdos adaptados a diferentes audiências.
Essa abordagem pode resultar em uma redução de gastos de campanha, promovendo equidade entre os candidatos com diferentes níveis de financiamento. Assim, a IA pode contribuir para o processo democrático, e suas aplicações legítimas não estão limitadas apenas ao que é estabelecido no primeiro parágrafo da resolução.
Portanto, é de suma importância que, após o uso da IA, o eleitor seja informado sobre sua utilização e a finalidade específica desse emprego na produção, seja no áudio ou no vídeo.