Era da manipulação digital: o ChatGPT pode impulsionar a desinformação?

5 min. de leitura
Casos recentes expõem como o ChatGPT pode gerar informações falsas e propagar desinformação. O texto analisa erros da inteligência artificial generativa, riscos sociais, desafios regulatórios e a importância da checagem crítica para um uso mais seguro da tecnologia.

Publicado originalmente no Jota.

A sociedade vem implementando nos últimos anos em diversos setores o desenvolvimento das inteligências artificiais (IAs). As IAs classificadas como generativas geram conteúdos de forma autônoma e assemelhadas às criações humanas. Isso ocorre por meio do processamento de linguagem natural[1], ramo da IA capaz de interpretar, gerar e manipular a linguagem humana.

As ferramentas de IA têm sido utilizadas de forma recorrente também na atividade de busca online por conteúdos e informações. Um dos grandes exemplos é o ChatGPT, lançado em novembro de 2022, que propicia aos seus usuários respostas a demandas específicas. Os conteúdos são obtidos por meio do resultado do processamento de informações que já estão armazenadas na web e apresentados de forma convincente[2].

Apesar do ChatGPT apresentar manifestações persuasivas de forma a convencer que indica informações e fatos verdadeiros, não é sempre que a ferramenta cumpre com a veracidade de fatos, como ilustram os três casos abaixo, os quais demonstram que o ChatGPT pode contribuir com a criação e propagação de conteúdo desinformativo.

O primeiro deles é a invenção de um escândalo de assédio sexual contra um professor. Um advogado estava realizando estudo e solicitou ao ChatGPT que gerasse a lista de juristas acadêmicos que tinham cometido assédio sexual e o chatbot incluiu indevidamente o nome do professor. Inclusive, o ChatGPT criou uma evidência enganosa para corroborar a informação falsa: um suposto artigo do The Washington Post[3], o qual o próprio jornal confirmou que era inexistente[4]. Além disso, o ChatGPT ainda mencionou que o assédio teria acontecido durante uma viagem ao Alaska, a qual nunca ocorreu na realidade[5].

O segundo caso é de um advogado que utilizou precedentes falsos gerados pelo ChatGPT em processo contra a companhia aérea Avianca. No caso, após pedido de extinção do processo da Avianca, os advogados da parte autora responderam com documento com diversas decisões que fundamentariam a continuidade do processo. No entanto, a empresa aérea não conseguiu encontrar os casos citados para refutar os argumentos apresentados. Assim, o juiz determinou que as cópias dos julgados fossem acostadas aos autos, momento no qual se descobriu que os precedentes não eram reais[6].

O advogado alegou que o próprio ChatGPT garantiu a confiabilidade das citações (ao ser questionado, a IA confirmou que os casos eram reais), que não sabia que a tecnologia pode apresentar erros por ser a primeira vez que a utilizada para fins profissionais, e manifestou seu arrependimento por não ter verificado os resultados obtidos[7].

No terceiro caso, o ChatGPT informou falsamente que um prefeito teria sido preso por suborno[8], quando, na realidade, o prefeito havia denunciado um escândalo de suborno no National Reserve Bank na Austrália.

Esses erros parecem ocorrer porque o ChatGPT funciona por meio da análise de informações presentes na internet e na elaboração de respostas de acordo com os resultados mais prováveis. Em outras palavras, havendo uma relação provável dos fatos, a IA autocompleta as informações ausentes de forma provável, mas não necessariamente verídica. Trata-se da concretização da chamada “alucinação” da IA, ou seja, a apresentação de resultados com dados incorretos, tendenciosos ou inverídicos[9]. Nesse sentido, um dos maiores desafios das tecnologias de IA é justamente a falta de discernimento sobre o que é real e o que não é.

Essas e outras situações demonstram que as IAs generativas e o ChatGPT podem ser utilizados para propagar desinformação[10], o que aponta a necessidade de criação de iniciativas específicas para impedir a constância de tais situações na ferramenta, ainda em fase de aprimoramento.

A própria OpenAI, empresa criadora do ChatGPT, aponta que às vezes, o ChatGPT apresenta respostas que “parecem plausíveis, mas que são incorretas ou sem sentido[11].” Outras pesquisas também já demonstram que ChatGPT reproduz discursos desinformativos presentes na sociedade a depender da forma que as perguntas são realizadas[12].Por isso, o uso indiscriminado sem a verificação da confiabilidade do conteúdo gerado pode trazer sérias consequências negativas à sociedade, como a criação e disseminação de notícias falsas e de informações inverídicas. Inclusive, foi noticiado recentemente que a FTC (Federal Trade Commission) questionou a OpenAI sobre a produção de informações falsas no ChatGPT e eventuais prejuízos que causaram para terceiros.

Existem ações que podem ser adotadas para evitar que a ferramenta seja um meio desinformativo. Inclui-se a indicação da fonte do resultado obtido e a necessidade de transparência da empresa com os usuários, esclarecendo sobre a possibilidade de resultados equivocados. Porém, o principal impedimento da propagação da desinformação nesse momento é a conscientização do usuário, que deve estar muito atento à forma de utilização do ChatGPT, para utilizar a ferramenta de forma crítica.

[1] O QUE é Processamento de Linguagem Natural? Oracle Cloud Infrastructure (OCI). Disponível em: https://www.oracle.com/br/artificial-intelligence/what-is-natural-language-processing. Acesso em: 19 jul. 2023.

[2] PREOCUPAÇÃO do ChatGPT na imprensa está na origem das informações coletadas. 09 mar. 2023. Jornal da USP. Disponível em: https://jornal.usp.br/radio-usp/preocupacao-do-chatgpt-na-imprensa-esta-na-origem-das-informacoes-coletadas/. Acesso em: 19 jul. 2023.

[3] THE URGENT RISKS OF RUNAWAY AI: and what to do about them. [Locução de]: Elise Hu e Chris Anderson. Entrevistado: Gary Marcus. [S.l.]:TED Talks Daily, 12 maio 2023. Podcast. Disponível em: https://open.spotify.com/episode/2cAGTRd4ZbwbOXGQSKRcQw?si=99986892ca3944e5. Acesso em: 11 jul. 2023.

[4] JOSHI, Mahima. ChatGPT Fabricates Sexual Harassment Scandal, Names Real US Law Professor As Accused. 10 abr. 2023. RepublicWorld. Disponível em: https://www.republicworld.com/technology-news/other-tech-news/chatgpt-fabricates-sexual-harassment-scandal-names-real-us-law-professor-as-accused-articleshow.html. Acesso em: 18 jul. 2023.

[5] JOSHI, Mahima. ChatGPT Fabricates Sexual Harassment Scandal, Names Real US Law Professor As Accused. 10 abr. 2023. RepublicWorld. Disponível em: https://www.republicworld.com/technology-news/other-tech-news/chatgpt-fabricates-sexual-harassment-scandal-names-real-us-law-professor-as-accused-articleshow.html. Acesso em: 18 jul. 2023.

[6] MORAN, Lyle. Lawyer cites fake cases generated by ChatGPT in legal brief. 30 maio 2023. Legal Dive. Disponível em: https://www.legaldive.com/news/chatgpt-fake-legal-cases-generative-ai-hallucinations/651557/. Acesso em: 19 jul. 2023.

[7] WEISER, Benjamin; SCHWEBER, Nate. The ChatGPT Lawyer Explains Himself. 08 jun. 2023. NyTimes. Disponível em: https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html. Acesso em: 19 jul. 2023.

[8] SANDS, Leo. ChatGPT falsely told voters their mayor was jailed for bribery. He may sue. 06 abr. 2023. The Washington Post. Disponível em: https://www.washingtonpost.com/technology/2023/04/06/chatgpt-australia-mayor-lawsuit-lies/. Acesso em: 18 jul. 2023.

[9] O QUE é a “alucinação” de inteligência artificial. 16 maio 2023. BBC Brasil. Disponível em: https://www.bbc.com/portuguese/articles/cv24066nkpqo. Acesso em: 19 jul. 2023.

[10] FELIPE, Bruno Farage da Costa; FICO, Bernardo. Inteligência artificial generativa como aliada da desinformação. 13 jul. 2023. Disponível em: https://www.conjur.com.br/2023-jul-15/farage-fico-ia-generativa-aliada-desinformacao. Acesso em: 18 jul. 2023.

[11] Tradução livre do trecho “ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers” disponível em: https://openai.com/blog/chatgpt. Acesso em: 18 jul. 2023.

[12] HSU, Tiffany; THOMPSON, Stuart A. ChatGPT será maior espalhador de desinformação que já existiu, diz pesquisador. 09 fev. 2023. Folha de São Paulo. Disponível em: https://www1.folha.uol.com.br/tec/2023/02/chatgpt-sera-maior-espalhador-de-desinformacao-que-ja-existiu-diz-pesquisador.shtml. Acesso em: 19 jul. 2023.

Sobre os Autores

  • Doutoranda em Direito pela Humboldt-Universität zu Berlin (Alemanha)e pela Universidade do Estado do Rio de Janeiro (UERJ) com ênfase em Direito Civil, Direito Digital e IA, mestre em Direito Alemão e Europeu e Prática Jurídica pela Humboldt-Universität zu Berlin (Alemanha) com enfoque em Direito Digital, Proteção de Dados e IA, pós-graduada em Direito Público pela Universidade Candido Mendes (UCAM-Centro), graduada em Direito pela UCAM-Centro, graduada em Letras (Língua e Literatura Alemã) pela Universidade Federal Fluminense (UFF), possui cursos de extensão em Direito Digital pela Escola Superior da Magistratura do Estado de Goiás (ESMEG) e atualização em Direito Digital pela ESA/OAB-RJ. Docente convidada da Escola Superior do Ministério Público da União (ESMPU), advogada, pesquisadora no Legal Grounds Institute, membro colaboradora da Comissão de Inteligência Artificial da OAB/MG, membro associada da Robotics & AI Law Society (RAILS) e.V. (Alemanha); membro associada da International Association for Artificial Intelligence (I2AI).

  • Mestranda em Direito pela Universidade de Brasília (UnB). Especialista em Direito Constitucional pelo Instituto Brasiliense de Direito Público (IDP) e Graduada em Direito pela mesma Instituição. Cofundadora do Portal Bot Jurídico. Advogada.

  • Doutora em Direito Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Foi Research Fellow pelo Weizenbaum Institut (Alemanha). Mestre em Direito e Inovação pela Universidade Federal de Juiz de Fora (UFJF). Graduada em Direito pela UFJF, com período de intercâmbio acadêmico na Università degli Studi di Camerino (Itália). Pesquisadora no projeto "Governança de Plataformas Digitais" do Centro de Tecnologia e Sociedade (CTS) da FGV Direito Rio e no Legal Fronts Institute.

Tradutor »