ChatGPT passa a citar Grokipedia e levanta questionamentos sobre confiabilidade de fontes na IA

ChatGPT, em sua versão GPT-5.2, foi observado mencionando a Grokipedia — enciclopédia online gerada por inteligência artificial pertencente à xAI — como referência em respostas sobre assuntos politicamente delicados. A constatação, feita pelo jornal britânico The Guardian, trouxe à tona preocupações de pesquisadores sobre o potencial de propagação indireta de informações de baixa credibilidade por meio de grandes modelos de linguagem.
- ChatGPT incorpora Grokipedia em respostas sobre temas sensíveis
- Como o jornal britânico avaliou o comportamento do ChatGPT
- Estrutura e críticas à Grokipedia, a enciclopédia gerada por IA
- Posicionamento da OpenAI sobre as referências do ChatGPT
- Pesquisadores apontam riscos de credibilidade amplificada pelo ChatGPT
- ChatGPT e o contexto mais amplo de “LLM grooming”
- Repercussão entre outras empresas de IA e resposta da xAI
ChatGPT incorpora Grokipedia em respostas sobre temas sensíveis
Segundo os testes documentados, o GPT-5.2 citou a Grokipedia nove vezes ao longo de pouco mais de uma dúzia de perguntas. Entre os tópicos em que a enciclopédia apareceu como fonte estavam detalhes sobre a estrutura política do Irã, dados de remuneração da força paramilitar Basij, informações sobre a Fundação Mostazafan e nota biográfica do historiador britânico Sir Richard Evans. Além dessas menções, o modelo repetiu afirmações enfáticas relacionadas a supostos vínculos da empresa MTN-Irancell com o gabinete do líder supremo iraniano, também baseando-se no conteúdo da Grokipedia.
Embora o ChatGPT tenha evitado citar a enciclopédia em questões que poderiam ser verificadas facilmente na Wikipedia ou em bases de dados consolidadas, ele recorreu à Grokipedia em assuntos menos populares, ou seja, em áreas onde a verificação independente tende a ser mais trabalhosa. Essa dinâmica chamou atenção dos especialistas, que veem risco de validação inadvertida de narrativas questionáveis.
Como o jornal britânico avaliou o comportamento do ChatGPT
O levantamento descrito pelo Guardian adotou um método de consulta direta ao ChatGPT. Perguntas estruturadas abrangeram política externa, economia e biografias de figuras relevantes para o debate público. A cada interação, foram verificadas as fontes listadas na resposta do modelo. O resultado mostrou que, das nove citações à Grokipedia, todas ocorreram em temas cuja literatura de apoio é menos difundida em veículos de grande circulação.
Além das menções quantitativas, os avaliadores analisaram a intensidade das afirmações. Em alguns casos, a redação do GPT-5.2 se mostrou mais categórica do que aquela encontrada em artigos equivalentes na Wikipedia. Essa diferença de tom, embora não represente necessariamente imprecisão, sugere influência direta do texto da Grokipedia, que possui estilo próprio e não passa por revisão humana aberta.
Estrutura e críticas à Grokipedia, a enciclopédia gerada por IA
Lançada em outubro pela xAI como alternativa à Wikipedia, a Grokipedia distingue-se por um modelo editorial totalmente automatizado. Um sistema de inteligência artificial redige os verbetes e também processa solicitações de alteração. Não existe, portanto, a edição colaborativa tradicional que caracteriza a Wikipedia. Essa característica foi alvo de críticas de pesquisadores e veículos de imprensa, que apontaram vieses em diversas entradas, incluindo temas como casamento entre pessoas do mesmo sexo e os eventos de 6 de janeiro no Capitólio dos Estados Unidos.
Para além de críticas sobre viés, questiona-se a ausência de mecanismos transparentes de verificação factual. Como as fontes originais utilizadas pelo modelo da Grokipedia não ficam explicitamente disponíveis ao público, torna-se difícil aferir a confiabilidade de cada afirmação. Essa opacidade alimenta o receio de que conteúdos dúbios se consolidem em plataformas maiores quando citados por sistemas como o ChatGPT.
Posicionamento da OpenAI sobre as referências do ChatGPT
Indagada sobre as citações, a OpenAI afirmou que a busca na web do ChatGPT visa extrair uma ampla gama de fontes publicamente acessíveis, contemplando diferentes pontos de vista. A empresa mencionou filtros de segurança desenhados para reduzir o risco de exibição de links associados a danos graves e informou manter programas contínuos para remover informações de baixa credibilidade ou resultantes de campanhas de influência.
A declaração indica que, mesmo com salvaguardas, há espaço para que conteúdos questionáveis apareçam em respostas, especialmente quando o assunto consultado carece de grande cobertura jornalística ou acadêmica. O caso reforça a complexidade de calibrar filtros sem limitar o espectro de fontes, ao mesmo tempo em que se evita a disseminação de desinformação.

Imagem: Markus Mainka
Pesquisadores apontam riscos de credibilidade amplificada pelo ChatGPT
Nina Jankowicz, pesquisadora em desinformação, afirmou que as entradas da Grokipedia analisadas por ela e colegas baseavam-se em referências frágeis ou deliberadamente enganosas. Segundo Jankowicz, o ato de modelos de linguagem mencionarem tais páginas potencializa a percepção de confiabilidade diante do usuário comum, que tende a aceitar a resposta como verificada.
Jankowicz relatou ainda um exemplo pessoal: uma citação inventada a seu respeito, publicada por um veículo de grande circulação, continuou a ser reproduzida por diferentes modelos de IA mesmo após a correção pública. O episódio ilustra como a persistência de dados imprecisos pode ser ampliada pelos sistemas de geração de texto.
ChatGPT e o contexto mais amplo de “LLM grooming”
Análises em segurança digital já haviam alertado, na primavera do ano anterior, para a prática denominada LLM grooming. Nesse processo, redes de propaganda produzem grandes volumes de informação, verdadeira ou falsa, com o objetivo de alimentar modelos de linguagem e, assim, influenciar as saídas geradas posteriormente. A citação da Grokipedia pelo ChatGPT foi interpretada por alguns observadores como exemplo de como esse ambiente pode favorecer fontes com curadoria limitada.
O debate ganhou corpo no Congresso dos Estados Unidos em junho, quando parlamentares discutiram relatos de que o modelo Gemini, do Google, teria repetido posicionamentos atribuídos ao governo chinês sobre violações de direitos humanos em Xinjiang e sobre políticas de enfrentamento à Covid-19. Tais referências mostram que a preocupação com a influência de conteúdos enviesados é transversal aos principais fornecedores de IA.
Repercussão entre outras empresas de IA e resposta da xAI
Além da OpenAI, o Guardian procurou a Anthropic, responsável pelo modelo Claude, que também teria mencionado a Grokipedia em determinados assuntos. A empresa não enviou resposta aos questionamentos. Já um porta-voz da xAI, companhia controladora da Grokipedia, afirmou: “A mídia tradicional mente”. A declaração sintetiza o antagonismo entre plataformas emergentes de IA e veículos jornalísticos em torno da definição do que constitui uma fonte confiável.
Até o momento, não foram anunciadas alterações formais no mecanismo de busca do ChatGPT ou atualizações na política de curadoria da Grokipedia. Pesquisadores seguem monitorando a incidência de citações e a evolução dos filtros, enquanto se mantém o debate sobre a responsabilidade de modelos de linguagem na cadeia de produção e disseminação de informações.

Olá! Meu nome é Zaira Silva e sou apaixonada por tornar a vida mais leve, prática e organizada — especialmente depois que me tornei mãe.
Criei o Organiza Simples como um cantinho acolhedor para compartilhar tudo o que aprendi (e continuo aprendendo!) sobre organização da casa, da rotina e da mente, sem fórmulas impossíveis ou metas inalcançáveis.

Conteúdo Relacionado