Modelo mais recente do ChatGPT cita enciclopédia gerada por IA com narrativas controversas em respostas a perguntas sensíveis
O ChatGPT 5.2 tem citado Grokipedia, enciclopédia alimentada por IA ligada a Elon Musk, levantando preocupações sobre a propagação de desinformação no sistema.
O ChatGPT 5.2, versão mais recente do popular modelo de linguagem da OpenAI, tem utilizado a Grokipedia como uma das fontes em suas respostas, conforme testes realizados pelo Guardian. Esta enciclopédia online, lançada em outubro e associada ao empresário Elon Musk, é alimentada exclusivamente por inteligência artificial e visa competir com a Wikipedia, embora tenha sido alvo de críticas por propagar narrativas de direita em temas sensíveis como casamento gay e eventos políticos nos Estados Unidos.
Origem e características da Grokipedia
Diferentemente da Wikipedia, que permite edição direta por humanos, a Grokipedia gera seu conteúdo e responde a solicitações de mudanças por meio de um modelo de IA. Essa abordagem limita a revisão humana e, segundo especialistas, pode facilitar a disseminação de informações não verificadas ou enviesadas.
Impacto na qualidade das respostas do ChatGPT 5.2
Durante a avaliação, o ChatGPT 5.2 citou a Grokipedia em nove ocasiões dentro de mais de uma dúzia de perguntas, abrangendo temas complexos como estruturas políticas do Irã e biografias de historiadores renomados. Em algumas respostas, o modelo reproduziu afirmações mais contundentes do que as disponíveis na Wikipedia, como ligações políticas controversas de empresas iranianas, ou detalhes que haviam sido previamente desmentidos por veículos confiáveis.
Preocupações com a propagação de desinformação
Especialistas em desinformação alertam que a inclusão de fontes como a Grokipedia pode legitimar conteúdos duvidosos. A pesquisadora Nina Jankowicz enfatiza que, embora Elon Musk talvez não tenha a intenção de influenciar os modelos de linguagem, as fontes usadas pela Grokipedia muitas vezes baseiam-se em informações não confiáveis, mal fundamentadas ou mesmo deliberadamente falsas.
Além disso, a citação dessas fontes pelo ChatGPT pode levar usuários a atribuírem maior credibilidade a elas, influenciando percepções e decisões, especialmente em temas sensíveis como as notícias sobre conflitos ou direitos humanos.
Desafios para remover informações falsas de modelos de IA
Informações incorretas incorporadas aos modelos de linguagem são difíceis de corrigir. Casos relatados indicam que, mesmo após a exclusão de conteúdos falsos em fontes originais, os modelos continuam a reproduzi-los por períodos prolongados, dificultando o combate à desinformação.
Resposta das empresas envolvidas
A OpenAI informou que seu sistema busca coletar informações de diversas fontes públicas e aplica filtros de segurança para minimizar riscos associados a conteúdos nocivos. Também ressaltou que o ChatGPT exibe as fontes consultadas para maior transparência e possui programas contínuos para filtrar informações de baixa credibilidade.
A xAI, empresa responsável pela Grokipedia, limitou seu comentário à afirmação de que “mídias tradicionais divulgam mentiras”.
Contexto mais amplo do uso de fontes em modelos de linguagem
A utilização de conteúdos gerados ou manipulados por atores com interesses estratégicos, prática conhecida como “LLM grooming”, tem sido motivo de apreensão global. Casos anteriores incluem modelos que difundiram narrativas alinhadas a posições governamentais controversas, como em Xinjiang e políticas relacionadas à pandemia. A situação atual reforça o debate sobre a necessidade de maior rigor na curadoria de dados usados para treinar e alimentar inteligências artificiais.