IA, alucinações e uma narrativa de alerta subitamente intensificada
Deparei-me com o tema porque, desde o início de novembro de 2025, tenho encontrado uma narrativa notavelmente uniforme: em vários formatos de mídia de língua alemã, surge de repente e com alta frequência a fórmula de que não se deve, em hipótese alguma, usar o ChatGPT e sistemas semelhantes como um motor de busca. Não se trata de uma única coluna, mas de uma breve série de artigos que são muito semelhantes em termos de escolha de palavras e enquadramento do problema.
Um exemplo é o artigo da RuhrkanalNews de 11 de novembro de 2025 intitulado «ChatGPT NÃO é um motor de busca». Nele, é feita uma advertência explícita contra a utilização do ChatGPT como substituto dos motores de busca clássicos. A redação descreve o sistema como traiçoeiro, pois supostamente transforma absurdos em frases bem formuladas e, portanto, não é uma ferramenta de pesquisa e não pode substituir o jornalismo, a ciência ou uma verificação independente de fontes.
Um segundo ponto de referência é a campanha da Mimikama. Desde o início de novembro, a organização divulga um mosaico visualmente apelativo com a indicação «ChatGPT NÃO é um motor de busca», associado à afirmação de que grande parte dos utilizadores utiliza o sistema como se fosse um substituto do Google e de outros serviços de pesquisa, o que é considerado perigoso. Num texto subsequente, a Mimikama comenta que a publicação provocou muito mais reações do que o esperado, o que mostra que esta narrativa é amplamente percebida.
Um terceiro elemento é a entrevista com a informática Katharina Zweig, que foi divulgada pelo Frankfurter Allgemeine Zeitung e circula nas redes sociais. Nela, não só se alerta para uma grande bolha de IA, como se eleva literalmente à primeira regra não utilizar o ChatGPT como motor de busca. Isto é justificado com a afirmação de que os modelos de linguagem não dispõem de uma verdadeira base de dados de conhecimento, mas apenas encadeiam palavras.
Estes três exemplos provêm de contextos diferentes. Um portal de notícias local, uma plataforma de verificação de factos e um grande jornal suprarregional. No entanto, em termos de conteúdo, eles dizem quase a mesma coisa: o ChatGPT não é um motor de busca, os modelos de linguagem são estruturalmente pouco fiáveis e o utilizador médio fica sobrecarregado com essa tecnologia. Além disso, aparecem artigos paralelos, por exemplo, no jornal austríaco Standard, que descrevem os navegadores de IA como um pesadelo para a segurança e a privacidade, ampliando assim o alerta para uma dimensão de política de segurança.
Para mim, isso resulta numa narrativa de alerta consolidada em novembro, que, resumidamente, diz: a IA é tentadora, mas perigosa e não deve ser usada para pesquisa ou para decisões do dia a dia, pelo menos não pelo público em geral.
Antropologia em vez de determinismo tecnológico
A minha própria observação parte de um outro ponto. Antes de falar sobre tecnologia, penso primeiro nas pessoas. Para uma vida consciente neste mundo, não basta poder aceder a informações. É fundamental que eu tenha clareza sobre o que sei, o que não sei e que existe uma área de incógnitas desconhecidas. Ou seja, questões e problemas que nem sequer formulei, porque me falta a perspetiva adequada.
Este triângulo epistémico é independente da tecnologia utilizada. Aplica-se a motores de busca clássicos, livros, conversas com especialistas e também ao manuseamento de sistemas de IA. Quem não presta contas dos seus próprios limites de conhecimento e desconhecimento tomará más decisões, mesmo com o motor de busca perfeito. Nesse sentido, a dimensão central não é técnica, mas antropológica.
Desde outubro de 2022, trabalho intensamente com sistemas de IA. Os meus primeiros contactos com a IA, entre outros, como sistemas de prova jurídica, ocorreram já entre 2014 e 2017. Durante esse período, a base técnica evoluiu significativamente. Experimentei modelos baseados exclusivamente em conhecimento pré-treinado e, atualmente, utilizo versões que podem pesquisar em tempo real na Internet. Para a minha forma de trabalhar, é fundamental que eu trabalhe consistentemente com requisitos explícitos. Exijo referências para todas as afirmações factuais relevantes, proíbo a invenção de referências e exijo a verificação de várias fontes independentes para temas controversos ou urgentes.
Ao mesmo tempo, utilizo as minhas capacidades para armazenar contexto e memórias de longo prazo. Quando um erro é identificado, como uma datação incorreta ou uma atribuição errada, espero que esse erro não se repita no futuro. Além disso, dedico tempo a formular as minhas perguntas com precisão. Tento tratar o meu prompt como se fosse uma questão científica. Isto significa que primeiro esclareço o objeto, o período relevante, o quadro normativo e os termos utilizados.
Nestas condições, observo duas coisas. Em primeiro lugar, a taxa de alucinações diminuiu significativamente. Os erros continuam a ocorrer, mas são raros e geralmente identificáveis. Em segundo lugar, a natureza dos erros está a mudar. O que antes culminava frequentemente em livros, julgamentos, números de processos ou títulos de artigos inventados, hoje manifesta-se mais em imprecisões marginais, por exemplo, em casos-limite com datas ou em questões muito específicas e mal documentadas.
Na minha opinião, isso mostra que a tecnologia tem limites, mas que esses limites dependem em grande medida da forma como utilizo o sistema de forma refletida. Quem faz perguntas conscientes, exige fontes e mantém em vista os seus próprios limites de conhecimento produz uma estrutura de erros completamente diferente daquela de alguém que trata uma resposta única e não questionada como verdade conclusiva.
Nível sistémico: gatekeeper e proteção narrativa
Quando mudo da perspetiva individual para a sistémica, surge outra questão. Nomeadamente, em que campo discursivo mais amplo se inscrevem estes artigos de alerta. Há alguns anos, a desinformação é descrita na região de língua alemã como um dos maiores perigos para as sociedades democráticas. Estudos de associações de mídia e fundações chegam à conclusão de que grande parte da população percebe a desinformação como uma ameaça à democracia e à coesão social.
Paralelamente, os meios de comunicação clássicos, as instituições financiadas com fundos públicos e várias organizações não governamentais posicionaram-se como guardiões dos factos. Eles definem quais fontes são consideradas confiáveis e quais posições devem ser classificadas como desinformação. Neste contexto, os sistemas de IA parecem, à primeira vista, ser um fator perturbador adicional. Teoricamente, eles podem tornar visíveis fontes alternativas, formular contra-argumentos a narrativas estabelecidas e colocar diferentes perspetivas lado a lado.
Os artigos de novembro encaixam-se relativamente bem neste programa-quadro existente. Não enfatizam que a IA é uma ferramenta que produz resultados muito diferentes, dependendo da sua utilização. Em vez disso, o foco é colocado nos riscos. Alucinações, desinformação e uma suposta sobrecarga estrutural do utilizador médio.
A IA não é, portanto, entendida principalmente como uma extensão das capacidades cognitivas, mas como um potencial amplificador de equívocos. Não há um plano mestre central nesta imagem. Os sistemas não são controlados por uma única instância, mas por estruturas de incentivos, lógicas institucionais e interpretações compartilhadas dos problemas.
Se a questão principal é como conter uma suposta enxurrada de desinformação, então é sistematicamente lógico questionar ferramentas que poderiam fortalecer o acesso à informação e a capacidade de argumentação fora dos canais clássicos de gatekeepers.
Nessa lógica, a narrativa de que o ChatGPT não é um motor de busca nem uma fonte de informação confiável torna-se um instrumento de proteção narrativa. Estabiliza a posição dos atores que se consideram fornecedores de factos verificados e, ao mesmo tempo, desacredita o uso espontâneo e não institucional da IA como auxílio à pesquisa.
Onde a minha tese se sustenta e onde permanece especulativa
Considero importante separar claramente o que pode ser deduzido das observações e onde me movo no domínio da interpretação plausível, mas não comprovável.
Em primeiro lugar, a condensação temporal está bem comprovada. No outono de 2025, há uma série de artigos que transmitem o mesmo tema principal em rápida sucessão. O ChatGPT não é um motor de busca, o seu uso como tal é perigoso e os sistemas de IA não são confiáveis como fonte de informação. Vários exemplos provêm de diferentes tipos de mídia, mas alguns deles utilizam formulações idênticas.
Em segundo lugar, está bem documentada a integração num discurso já estabelecido, no qual a desinformação é descrita como um grande perigo estrutural para a democracia e a estabilidade social. Neste discurso, é coerente considerar os novos sistemas técnicos principalmente do ponto de vista da gestão de riscos.
Também é compreensível a suposição de que uma ferramenta de IA poderosa desafia a autoridade interpretativa dos gatekeepers clássicos. Quem é capaz de comparar diferentes fontes e reconstruir posições contrárias com a ajuda de um sistema depende menos da seleção visível e curada que lhe é oferecida, por exemplo, nos noticiários clássicos. Este efeito decorre da estrutura da ferramenta e não requer nenhuma teoria da conspiração.
Resta especular se determinados atores têm como objetivo consciente desacreditar a IA como ferramenta de pesquisa para proteger as suas próprias narrativas. Os textos públicos não fornecem informações explícitas sobre isso. É perfeitamente possível que convicção, identidade profissional e lógica institucional sejam suficientes para produzir a retórica observada, sem que haja uma estratégia coordenada por trás disso. Da mesma forma, permanece em aberto até que ponto os alertas contra o uso indevido da IA são cobertos por casos reais de abuso e em que medida representam projetos de medo antecipados.
Em outras palavras: a minha tese é válida quando descreve a adequação estrutural entre um discurso de desinformação mais orientado para o controlo e a representação problemática da IA. Ela torna-se especulativa quando se quer concluir, a partir dessa adequação, que existem intenções de controlo específicas por parte de instituições individuais.
«Experiência de alucinação»
Um ponto de referência central da minha avaliação são as minhas próprias experiências com alucinações ao lidar com sistemas de IA. As primeiras gerações de modelos tinham uma tendência significativamente maior para gerar respostas plausíveis, mas inventadas, quando faltava conhecimento. Isto afetava principalmente questões muito específicas e detalhadas, factos pouco documentados e combinações fictícias de elementos reais e inventados.
Com a possibilidade de pesquisa em tempo real e a introdução de diretrizes claras que proíbem a invenção de fontes, esse padrão mudou significativamente. Os erros continuam a ocorrer. No entanto, eles se manifestam mais frequentemente na forma de imprecisões ou incompletudes, e menos na forma de estruturas completamente inventadas. Além disso, os erros identificados podem ser evitados no decorrer do processo através do uso adequado do componente de memória.
É claro que esta observação não pode ser generalizada. É o resultado de uma abordagem específica. Trabalho com prompts detalhados, exijo referências de fontes, questiono afirmações e considero cada resposta inicialmente como uma hipótese, não como uma verdade definitiva. Nestas condições, a taxa de alucinações é extremamente baixa. Nesse sentido, o aviso geral contra alucinações como característica estrutural é insuficiente. Ela ignora que a estrutura de erros de um modelo não depende apenas da arquitetura, mas também da maneira como as pessoas utilizam o modelo.
Ao mesmo tempo, seria desonesto minimizar os riscos. Quem trabalha sem criticar as fontes, quem aceita as respostas da IA sem as classificar no seu próprio conhecimento, pode ser induzido em erro por alguns erros graves. Os meios de comunicação que enfatizam esse perigo têm, nesse sentido, um argumento válido. Mas eles mencionam apenas uma parte da verdade. A outra parte é que a mesma tecnologia, quando utilizada de forma refletida, pode ser uma expansão muito potencial da capacidade intelectual.
Para mim, isso leva a uma conclusão simples. A verdadeira proteção contra desenvolvimentos indesejáveis não está no descrédito generalizado da ferramenta, mas no fortalecimento das competências epistémicas. Isso significa que as pessoas precisam aprender a reconhecer os limites do seu próprio conhecimento, fazer perguntas precisas, verificar fontes e tolerar contradições. Quem não faz isso fica vulnerável, mesmo sem a IA. Quem faz isso pode usar a IA de forma produtiva.
