Por Ani Karini Schiebert. Jéssica Guedes e Marina Lucena
Publicado originalmente no Jota.
A sociedade vem implementando nos últimos anos em diversos setores o desenvolvimento das inteligências artificiais (IAs). As IAs classificadas como generativas geram conteúdos de forma autônoma e assemelhadas às criações humanas. Isso ocorre por meio do processamento de linguagem natural[1], ramo da IA capaz de interpretar, gerar e manipular a linguagem humana.
As ferramentas de IA têm sido utilizadas de forma recorrente também na atividade de busca online por conteúdos e informações. Um dos grandes exemplos é o ChatGPT, lançado em novembro de 2022, que propicia aos seus usuários respostas a demandas específicas. Os conteúdos são obtidos por meio do resultado do processamento de informações que já estão armazenadas na web e apresentados de forma convincente[2].
Apesar do ChatGPT apresentar manifestações persuasivas de forma a convencer que indica informações e fatos verdadeiros, não é sempre que a ferramenta cumpre com a veracidade de fatos, como ilustram os três casos abaixo, os quais demonstram que o ChatGPT pode contribuir com a criação e propagação de conteúdo desinformativo.
O primeiro deles é a invenção de um escândalo de assédio sexual contra um professor. Um advogado estava realizando estudo e solicitou ao ChatGPT que gerasse a lista de juristas acadêmicos que tinham cometido assédio sexual e o chatbot incluiu indevidamente o nome do professor. Inclusive, o ChatGPT criou uma evidência enganosa para corroborar a informação falsa: um suposto artigo do The Washington Post[3], o qual o próprio jornal confirmou que era inexistente[4]. Além disso, o ChatGPT ainda mencionou que o assédio teria acontecido durante uma viagem ao Alaska, a qual nunca ocorreu na realidade[5].
O segundo caso é de um advogado que utilizou precedentes falsos gerados pelo ChatGPT em processo contra a companhia aérea Avianca. No caso, após pedido de extinção do processo da Avianca, os advogados da parte autora responderam com documento com diversas decisões que fundamentariam a continuidade do processo. No entanto, a empresa aérea não conseguiu encontrar os casos citados para refutar os argumentos apresentados. Assim, o juiz determinou que as cópias dos julgados fossem acostadas aos autos, momento no qual se descobriu que os precedentes não eram reais[6].
O advogado alegou que o próprio ChatGPT garantiu a confiabilidade das citações (ao ser questionado, a IA confirmou que os casos eram reais), que não sabia que a tecnologia pode apresentar erros por ser a primeira vez que a utilizada para fins profissionais, e manifestou seu arrependimento por não ter verificado os resultados obtidos[7].
No terceiro caso, o ChatGPT informou falsamente que um prefeito teria sido preso por suborno[8], quando, na realidade, o prefeito havia denunciado um escândalo de suborno no National Reserve Bank na Austrália.
Esses erros parecem ocorrer porque o ChatGPT funciona por meio da análise de informações presentes na internet e na elaboração de respostas de acordo com os resultados mais prováveis. Em outras palavras, havendo uma relação provável dos fatos, a IA autocompleta as informações ausentes de forma provável, mas não necessariamente verídica. Trata-se da concretização da chamada “alucinação” da IA, ou seja, a apresentação de resultados com dados incorretos, tendenciosos ou inverídicos[9]. Nesse sentido, um dos maiores desafios das tecnologias de IA é justamente a falta de discernimento sobre o que é real e o que não é.
Essas e outras situações demonstram que as IAs generativas e o ChatGPT podem ser utilizados para propagar desinformação[10], o que aponta a necessidade de criação de iniciativas específicas para impedir a constância de tais situações na ferramenta, ainda em fase de aprimoramento.
A própria OpenAI, empresa criadora do ChatGPT, aponta que às vezes, o ChatGPT apresenta respostas que “parecem plausíveis, mas que são incorretas ou sem sentido[11].” Outras pesquisas também já demonstram que ChatGPT reproduz discursos desinformativos presentes na sociedade a depender da forma que as perguntas são realizadas[12].Por isso, o uso indiscriminado sem a verificação da confiabilidade do conteúdo gerado pode trazer sérias consequências negativas à sociedade, como a criação e disseminação de notícias falsas e de informações inverídicas. Inclusive, foi noticiado recentemente que a FTC (Federal Trade Commission) questionou a OpenAI sobre a produção de informações falsas no ChatGPT e eventuais prejuízos que causaram para terceiros.
Existem ações que podem ser adotadas para evitar que a ferramenta seja um meio desinformativo. Inclui-se a indicação da fonte do resultado obtido e a necessidade de transparência da empresa com os usuários, esclarecendo sobre a possibilidade de resultados equivocados. Porém, o principal impedimento da propagação da desinformação nesse momento é a conscientização do usuário, que deve estar muito atento à forma de utilização do ChatGPT, para utilizar a ferramenta de forma crítica.
[1] O QUE é Processamento de Linguagem Natural? Oracle Cloud Infrastructure (OCI). Disponível em: https://www.oracle.com/br/artificial-intelligence/what-is-natural-language-processing. Acesso em: 19 jul. 2023.
[2] PREOCUPAÇÃO do ChatGPT na imprensa está na origem das informações coletadas. 09 mar. 2023. Jornal da USP. Disponível em: https://jornal.usp.br/radio-usp/preocupacao-do-chatgpt-na-imprensa-esta-na-origem-das-informacoes-coletadas/. Acesso em: 19 jul. 2023.
[3] THE URGENT RISKS OF RUNAWAY AI: and what to do about them. [Locução de]: Elise Hu e Chris Anderson. Entrevistado: Gary Marcus. [S.l.]:TED Talks Daily, 12 maio 2023. Podcast. Disponível em: https://open.spotify.com/episode/2cAGTRd4ZbwbOXGQSKRcQw?si=99986892ca3944e5. Acesso em: 11 jul. 2023.
[4] JOSHI, Mahima. ChatGPT Fabricates Sexual Harassment Scandal, Names Real US Law Professor As Accused. 10 abr. 2023. RepublicWorld. Disponível em: https://www.republicworld.com/technology-news/other-tech-news/chatgpt-fabricates-sexual-harassment-scandal-names-real-us-law-professor-as-accused-articleshow.html. Acesso em: 18 jul. 2023.
[5] JOSHI, Mahima. ChatGPT Fabricates Sexual Harassment Scandal, Names Real US Law Professor As Accused. 10 abr. 2023. RepublicWorld. Disponível em: https://www.republicworld.com/technology-news/other-tech-news/chatgpt-fabricates-sexual-harassment-scandal-names-real-us-law-professor-as-accused-articleshow.html. Acesso em: 18 jul. 2023.
[6] MORAN, Lyle. Lawyer cites fake cases generated by ChatGPT in legal brief. 30 maio 2023. Legal Dive. Disponível em: https://www.legaldive.com/news/chatgpt-fake-legal-cases-generative-ai-hallucinations/651557/. Acesso em: 19 jul. 2023.
[7] WEISER, Benjamin; SCHWEBER, Nate. The ChatGPT Lawyer Explains Himself. 08 jun. 2023. NyTimes. Disponível em: https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html. Acesso em: 19 jul. 2023.
[8] SANDS, Leo. ChatGPT falsely told voters their mayor was jailed for bribery. He may sue. 06 abr. 2023. The Washington Post. Disponível em: https://www.washingtonpost.com/technology/2023/04/06/chatgpt-australia-mayor-lawsuit-lies/. Acesso em: 18 jul. 2023.
[9] O QUE é a “alucinação” de inteligência artificial. 16 maio 2023. BBC Brasil. Disponível em: https://www.bbc.com/portuguese/articles/cv24066nkpqo. Acesso em: 19 jul. 2023.
[10] FELIPE, Bruno Farage da Costa; FICO, Bernardo. Inteligência artificial generativa como aliada da desinformação. 13 jul. 2023. Disponível em: https://www.conjur.com.br/2023-jul-15/farage-fico-ia-generativa-aliada-desinformacao. Acesso em: 18 jul. 2023.
[11] Tradução livre do trecho “ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers” disponível em: https://openai.com/blog/chatgpt. Acesso em: 18 jul. 2023.
[12] HSU, Tiffany; THOMPSON, Stuart A. ChatGPT será maior espalhador de desinformação que já existiu, diz pesquisador. 09 fev. 2023. Folha de São Paulo. Disponível em: https://www1.folha.uol.com.br/tec/2023/02/chatgpt-sera-maior-espalhador-de-desinformacao-que-ja-existiu-diz-pesquisador.shtml. Acesso em: 19 jul. 2023.