Era da manipulação digital: o ChatGPT pode impulsionar a desinformação?

Compartilhar no facebook
Compartilhar no twitter
Compartilhar no linkedin

Por Ani Karini Schiebert. Jéssica Guedes e Marina Lucena

Publicado originalmente no Jota.

A sociedade vem implementando nos últimos anos em diversos setores o desenvolvimento das inteligências artificiais (IAs). As IAs classificadas como generativas geram conteúdos de forma autônoma e assemelhadas às criações humanas. Isso ocorre por meio do processamento de linguagem natural[1], ramo da IA capaz de interpretar, gerar e manipular a linguagem humana.

As ferramentas de IA têm sido utilizadas de forma recorrente também na atividade de busca online por conteúdos e informações. Um dos grandes exemplos é o ChatGPT, lançado em novembro de 2022, que propicia aos seus usuários respostas a demandas específicas. Os conteúdos são obtidos por meio do resultado do processamento de informações que já estão armazenadas na web e apresentados de forma convincente[2].

Apesar do ChatGPT apresentar manifestações persuasivas de forma a convencer que indica informações e fatos verdadeiros, não é sempre que a ferramenta cumpre com a veracidade de fatos, como ilustram os três casos abaixo, os quais demonstram que o ChatGPT pode contribuir com a criação e propagação de conteúdo desinformativo.

O primeiro deles é a invenção de um escândalo de assédio sexual contra um professor. Um advogado estava realizando estudo e solicitou ao ChatGPT que gerasse a lista de juristas acadêmicos que tinham cometido assédio sexual e o chatbot incluiu indevidamente o nome do professor. Inclusive, o ChatGPT criou uma evidência enganosa para corroborar a informação falsa: um suposto artigo do The Washington Post[3], o qual o próprio jornal confirmou que era inexistente[4]. Além disso, o ChatGPT ainda mencionou que o assédio teria acontecido durante uma viagem ao Alaska, a qual nunca ocorreu na realidade[5].

O segundo caso é de um advogado que utilizou precedentes falsos gerados pelo ChatGPT em processo contra a companhia aérea Avianca. No caso, após pedido de extinção do processo da Avianca, os advogados da parte autora responderam com documento com diversas decisões que fundamentariam a continuidade do processo. No entanto, a empresa aérea não conseguiu encontrar os casos citados para refutar os argumentos apresentados. Assim, o juiz determinou que as cópias dos julgados fossem acostadas aos autos, momento no qual se descobriu que os precedentes não eram reais[6].

O advogado alegou que o próprio ChatGPT garantiu a confiabilidade das citações (ao ser questionado, a IA confirmou que os casos eram reais), que não sabia que a tecnologia pode apresentar erros por ser a primeira vez que a utilizada para fins profissionais, e manifestou seu arrependimento por não ter verificado os resultados obtidos[7].

No terceiro caso, o ChatGPT informou falsamente que um prefeito teria sido preso por suborno[8], quando, na realidade, o prefeito havia denunciado um escândalo de suborno no National Reserve Bank na Austrália.

Esses erros parecem ocorrer porque o ChatGPT funciona por meio da análise de informações presentes na internet e na elaboração de respostas de acordo com os resultados mais prováveis. Em outras palavras, havendo uma relação provável dos fatos, a IA autocompleta as informações ausentes de forma provável, mas não necessariamente verídica. Trata-se da concretização da chamada “alucinação” da IA, ou seja, a apresentação de resultados com dados incorretos, tendenciosos ou inverídicos[9]. Nesse sentido, um dos maiores desafios das tecnologias de IA é justamente a falta de discernimento sobre o que é real e o que não é.

Essas e outras situações demonstram que as IAs generativas e o ChatGPT podem ser utilizados para propagar desinformação[10], o que aponta a necessidade de criação de iniciativas específicas para impedir a constância de tais situações na ferramenta, ainda em fase de aprimoramento.

A própria OpenAI, empresa criadora do ChatGPT, aponta que às vezes, o ChatGPT apresenta respostas que “parecem plausíveis, mas que são incorretas ou sem sentido[11].” Outras pesquisas também já demonstram que ChatGPT reproduz discursos desinformativos presentes na sociedade a depender da forma que as perguntas são realizadas[12].Por isso, o uso indiscriminado sem a verificação da confiabilidade do conteúdo gerado pode trazer sérias consequências negativas à sociedade, como a criação e disseminação de notícias falsas e de informações inverídicas. Inclusive, foi noticiado recentemente que a FTC (Federal Trade Commission) questionou a OpenAI sobre a produção de informações falsas no ChatGPT e eventuais prejuízos que causaram para terceiros.

Existem ações que podem ser adotadas para evitar que a ferramenta seja um meio desinformativo. Inclui-se a indicação da fonte do resultado obtido e a necessidade de transparência da empresa com os usuários, esclarecendo sobre a possibilidade de resultados equivocados. Porém, o principal impedimento da propagação da desinformação nesse momento é a conscientização do usuário, que deve estar muito atento à forma de utilização do ChatGPT, para utilizar a ferramenta de forma crítica.

[1] O QUE é Processamento de Linguagem Natural? Oracle Cloud Infrastructure (OCI). Disponível em: https://www.oracle.com/br/artificial-intelligence/what-is-natural-language-processing. Acesso em: 19 jul. 2023.

[2] PREOCUPAÇÃO do ChatGPT na imprensa está na origem das informações coletadas. 09 mar. 2023. Jornal da USP. Disponível em: https://jornal.usp.br/radio-usp/preocupacao-do-chatgpt-na-imprensa-esta-na-origem-das-informacoes-coletadas/. Acesso em: 19 jul. 2023.

[3] THE URGENT RISKS OF RUNAWAY AI: and what to do about them. [Locução de]: Elise Hu e Chris Anderson. Entrevistado: Gary Marcus. [S.l.]:TED Talks Daily, 12 maio 2023. Podcast. Disponível em: https://open.spotify.com/episode/2cAGTRd4ZbwbOXGQSKRcQw?si=99986892ca3944e5. Acesso em: 11 jul. 2023.

[4] JOSHI, Mahima. ChatGPT Fabricates Sexual Harassment Scandal, Names Real US Law Professor As Accused. 10 abr. 2023. RepublicWorld. Disponível em: https://www.republicworld.com/technology-news/other-tech-news/chatgpt-fabricates-sexual-harassment-scandal-names-real-us-law-professor-as-accused-articleshow.html. Acesso em: 18 jul. 2023.

[5] JOSHI, Mahima. ChatGPT Fabricates Sexual Harassment Scandal, Names Real US Law Professor As Accused. 10 abr. 2023. RepublicWorld. Disponível em: https://www.republicworld.com/technology-news/other-tech-news/chatgpt-fabricates-sexual-harassment-scandal-names-real-us-law-professor-as-accused-articleshow.html. Acesso em: 18 jul. 2023.

[6] MORAN, Lyle. Lawyer cites fake cases generated by ChatGPT in legal brief. 30 maio 2023. Legal Dive. Disponível em: https://www.legaldive.com/news/chatgpt-fake-legal-cases-generative-ai-hallucinations/651557/. Acesso em: 19 jul. 2023.

[7] WEISER, Benjamin; SCHWEBER, Nate. The ChatGPT Lawyer Explains Himself. 08 jun. 2023. NyTimes. Disponível em: https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html. Acesso em: 19 jul. 2023.

[8] SANDS, Leo. ChatGPT falsely told voters their mayor was jailed for bribery. He may sue. 06 abr. 2023. The Washington Post. Disponível em: https://www.washingtonpost.com/technology/2023/04/06/chatgpt-australia-mayor-lawsuit-lies/. Acesso em: 18 jul. 2023.

[9] O QUE é a “alucinação” de inteligência artificial. 16 maio 2023. BBC Brasil. Disponível em: https://www.bbc.com/portuguese/articles/cv24066nkpqo. Acesso em: 19 jul. 2023.

[10] FELIPE, Bruno Farage da Costa; FICO, Bernardo. Inteligência artificial generativa como aliada da desinformação. 13 jul. 2023. Disponível em: https://www.conjur.com.br/2023-jul-15/farage-fico-ia-generativa-aliada-desinformacao. Acesso em: 18 jul. 2023.

[11] Tradução livre do trecho “ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers” disponível em: https://openai.com/blog/chatgpt. Acesso em: 18 jul. 2023.

[12] HSU, Tiffany; THOMPSON, Stuart A. ChatGPT será maior espalhador de desinformação que já existiu, diz pesquisador. 09 fev. 2023. Folha de São Paulo. Disponível em: https://www1.folha.uol.com.br/tec/2023/02/chatgpt-sera-maior-espalhador-de-desinformacao-que-ja-existiu-diz-pesquisador.shtml. Acesso em: 19 jul. 2023.

Sobre o autor
Francisco Cavalcante

Francisco Cavalcante

Gestor Executivo no Legal Grounds Institute. Graduado em Direito pela Universidade do Estado do Rio Grande do Norte (UERN). Coordenador do Observatório do Direito à Educação da Universidade de São Paulo (USP). Membro associado da Rede de Pesquisa Empírica em Direito (REED). Alumni em Governança da Internet pela South School on Internet Governance (SSIG), fellow do Programa Youth 2024, do Comitê Gestor da Internet no Brasil (CGI.br), e do Registro de Endereços da Internet para a América Latina e o Caribe (LACNIC 40). É embaixador jovem da Comissão Europeia no One Young World, da Brazil Conference at Harvard & MIT e do Young Americas Forum, da Cúpula das Américas.
Francisco Cavalcante

Francisco Cavalcante

Gestor Executivo no Legal Grounds Institute. Graduado em Direito pela Universidade do Estado do Rio Grande do Norte (UERN). Coordenador do Observatório do Direito à Educação da Universidade de São Paulo (USP). Membro associado da Rede de Pesquisa Empírica em Direito (REED). Alumni em Governança da Internet pela South School on Internet Governance (SSIG), fellow do Programa Youth 2024, do Comitê Gestor da Internet no Brasil (CGI.br), e do Registro de Endereços da Internet para a América Latina e o Caribe (LACNIC 40). É embaixador jovem da Comissão Europeia no One Young World, da Brazil Conference at Harvard & MIT e do Young Americas Forum, da Cúpula das Américas.

Leia mais

Tradutor »
Pular para o conteúdo