O que é alucinação de IA, consequências, causas e soluções?

Muita gente já se acostumou a usar alguma IA em vez de acessar dois, três ou mais links das páginas de resultados do Google ou de qualquer outro site de busca e ainda ter que ler vários parágrafos até encontrar uma resposta.

Temos que concordar que é muito mais conveniente, porém o que nem todo muito sabe é que essa resposta pode ser uma alucinação de IA!

Se você nunca ouviu falar e, portanto, não sabe do que se trata, por quais razões acontece, quais as consequências e como tratar o problema, esse bate-papo será muito útil.

O que é alucinação de IA?

Resumidamente, a alucinação de IA ocorre quando um modelo de inteligência artificial fornece uma resposta incorreta – parcialmente ou completamente – ou que não corresponde aos fatos, mas que na forma como é apresentada, parece muito plausível e digna de confiança.

Então as IAs mentem?

Não exatamente. Uma mentira é uma afirmação falsa com intenção de enganar, induzir ao erro ou prejudicar, o que não é o caso dos grandes modelos de linguagem (LLMs), como o ChatGPT, Microsoft Copilot ou Gemini.

Conforme veremos em breve, por diferentes razões, as IAs parecem acreditar que as informações que fornecem são exatas e confiáveis. Inclusive, a forma como as respostas são elaboradas e fornecidas, fazem com que a maioria das pessoas acredite que são sim precisas e verdadeiras.

É por isso que quando tal situação ocorre, que se diz que a inteligência artificial alucinou. Da mesma forma que um ser humano é capaz de “enxergar” figuras e formas variadas nas nuvens, um LLM pode “ver” padrões ou informações que nem mesmo existem ou correspondem aos fatos.

Mas independente da origem ou causa do problema, para um leigo no assunto – seja nos modelos de linguagem, seja no assunto pesquisado – é bastante difícil identificar alguma imprecisão ou sinal de que a informação não esteja correta.

É aí começam os problemas!

Quais as consequências da alucinação de IA?

Não se trata “apenas” de receber uma resposta que pode estar parcialmente incorreta.

A medida que cada vez mais a inteligência artificial está presente em uma série de áreas e de situações quotidianas, uma série de graves consequências são possíveis, como por exemplo:

  • Saúdeagentes de IA de saúde podem emitir diagnósticos errados, o que pode ser especialmente perigoso ao não identificar uma doença e com isso impedir o seu tratamento precoce, o que implica menores chances de cura, como no caso de câncer;

  • Cibersegurança – se ocorre uma alucinação em segurança cibernética – área na qual a IA está cada vez mais presente – vulnerabilidades podem ser exploradas e ações de contenção podem ser ineficientes;

  • Automação – atualmente a automação é muito dependente – de modo progressivo e crescente – de inteligência artificial e se ela falha na interpretação de uma situação, as consequências podem ser fatais, como nos veículos autônomos;

  • Chatbots – os chatbots podem dar respostas incorretas nos casos de chats atendimento, prejudicando e fornecendo soluções ineficientes aos clientes;

  • Fake news – dada à maciça e ascendente adoção de IA na produção de conteúdo Web, alucinações favorecem o aumento das fake news e desinformação na Web;

  • Trabalho – quem usa os grandes modelos de linguagem ou agentes de IA visando obter ganhos de produtividade, pode na verdade gerar retrabalho e tomar decisões inadequadas com base em dados incorretos;

  • Cálculos – muitos usuários comuns usam o Gemini ou ChatGPT como calculadora ou para análise de dados. Porém essas IAs podem errar contas simples (aritmética) porque tratam números como "tokens" (pedaços de texto) e não como valores matemáticos, gerando resultados que parecem certos, mas estão matematicamente incorretos.

Embora todas as possibilidades não estejam listadas acima, é suficiente para percebermos o impacto negativo que a alucinação de IA pode produzir em diversas áreas, incluindo os custos econômicos e de reputação.

Por que acontecem as alucinações?

O grande problema do porquê ocorrem, não se deve a um único motivo e, portanto, a solução não é tão simples:

  • Overfitting – em tradução literal, é algo como “sobre ajuste”, que é quando no processo de machine learning, o modelo aprende e responde muito bem para um conjunto de dados conhecidos, mas não desempenha igual quando submetido a dados novos;

  • Viés e qualidade dos dados – quando os dados de treinamento são de baixa qualidade, contém informação enviesada, imprecisa, ou os dados são insuficientes, as respostas que dependem desses dados também serão afetadas negativamente;

  • Ataque – como muitos modelos aprendem continuamente, empresas concorrentes podem efetuar um ataque, fornecendo propositalmente uma quantidade de dados incorretos, fazendo com que a IA incorpore informação incorreta e alucine quando envolver o assunto associado ao ataque;

  • Informações conflitantes – os dados de treinamento de alguns temas / assuntos podem ser conflitantes e como resultado a IA não tem capacidade de decidir corretamente e de produzir uma conclusão precisa;

  • Processo de aprendizado – alguns processos de aprendizado estimulam o modelo a dar alguma resposta tal como em um teste de múltipla escolha. Chutar uma resposta, pode acarretar acerto, mas não assinalar é o mesmo que “não sei” e com certeza, nenhum ponto será feito, o que estimula a IA a “tentar adivinhar” ou “chutar” uma resposta. Na prática, os modelos preferem a adivinhação em detrimento da abstenção;

  • Métodos de geração – a forma como os resultados entregues funciona e que é baseado em fluência e coerência do texto, priorizando sequências de palavras com maior probabilidade de aparecerem juntas, pode resultar em declarações fluentes, mas incorretas ou imprecisas;

  • Ambiguidade no prompt – quando o processamento de linguagem natural (PLN) não é muito acurado ou o prompt é ambíguo, o modelo não é capaz de compreender completamente o comando e consequentemente são maiores as chances de alucinar;

  • Viés de confirmação no Prompt – às vezes, o usuário induz a alucinação, com perguntas como: "Por que o suco de limão cura a gengivite?". Alguns modelos podem tentar encontrar uma resposta para algo infundado e inventar uma explicação plausível, em vez de corrigir o usuário;

  • Propagação em cadeia – ultimamente tem sido usados conteúdos criados por outras plataformas de IA generativa em suas respostas, incluindo as suas eventuais alucinações. Os resultados são:

    • Loop recursivo – quando modelos passam a citar uns aos outros, a consequência imediata lembra o espalhamento de boatos entre pessoas, porém em escala muito maior e em velocidade incomparavelmente superior;

    • Falsa verdade – quando a informação falsa é amplamente disseminada, aumentam as chances de ser aceita como verdade devido à sua alta ocorrência. Inclusive esse é um mecanismo de perpetuação das fake news;

  • Arquitetura – a linguagem dos modelos de IA são compostos de muitas camadas (contexto, expressões idiomáticas, detalhes culturais, etc), mas se falta profundidade (não há camadas suficientes) é maior o risco de interpretações erradas e respostas imprecisas, especialmente em temas mais específicos.

Como não ser vítima das alucinações de IA?

Diante de tudo que vimos, a pergunta que fica é: “Como não ser vítima das alucinações?”.

É preciso ter em mente que a solução está nas mãos das empresas e times de desenvolvimento de cada modelo, mas enquanto as correções e novas versões não são lançadas, cabe aos usuários se cercarem de certos cuidados.

Parte da resposta já consta do post “8 dicas práticas para usar IA como assistente de conteúdo Web”, mais especificamente na parte das ressalvas:

  • Não confie cegamente – tal como era antes da popularização dos grandes modelos de linguagem, sempre que a informação fornecida for sensível, é preciso confrontar e checar as informações com fontes confiáveis;

  • Diversificação – teste e use diferentes modelos, seja para ter um universo maior de possibilidades, seja para avaliar qual se aproxima mais do que se quer e precisa. Em outras palavras, peça a mesma resposta para o Copilot, para o Gemini, o DeepSeek e outros, observando se há consenso;

  • Engenharia de Prompt – saber criar e refinar instruções (engenharia de prompt) é essencial para obter resultados mais precisos. Assim, informar o contexto, o objetivo ou o uso da resposta, eventuais dados adicionais, além de efetuar solicitações objetivas e claras, favorece uma resposta mais adequada e exata;

  • IAs favoritas – saiba que cada IA é mais precisa para determinado tipo de conteúdo e tarefa. Portanto, teste e escolha as melhores para sua realidade e para cada tipo de resposta.

Mas além dos cuidados acima, há outras ações que devem ser adotadas se não queremos pagar o preço das alucinações:

  • Autoridade tópica – em questões que exigem alta correção da informação, confirme-a em sites com reconhecida autoridade tópica;

  • Pensamento profundo – apesar dessa modalidade de resposta ser restrita aos planos pagos de alguns modelos, esse modo costuma ser mais completo, preciso e, portanto, menos suscetível à alucinação;

  • Contexto – em temas mais regionais e relacionados com a realidade brasileira, pode ser adequado recorrer às inteligências artificiais brasileiras, pois são modelos desenvolvidos no país, treinados também com textos em português brasileiro, o que confere a eles maior capacidade de lidar com as nuances linguísticas, gírias e expressões idiomáticas próprias da nossa cultura;

  • Transparência – trabalhe com a transparência nas respostas, pedindo que a IA informe que “não sabe” caso não tenha certeza. Isso reduz a pressão do modelo em “adivinhar” para entregar obrigatoriamente um resultado esperado;

  • Conteúdo humano – há alguns casos em que o conteúdo criado por humanos ainda é insubstituível e é importante sempre acessar e avaliar o que existe nos bons sites, como costumávamos fazer até pouco tempo;

  • Solicite as fontes – sempre que possível ou necessário, solicite e valorize as respostas que trazem links ou referências verificáveis;

  • Ponto de partida – as respostas da IA devem ser um ponto de partida e não uma verdade inquestionável. Trate a resposta como sugestão inicial para pesquisa, não como uma conclusão;

  • Sinais de inconsistência – atenção às possíveis contradições internas ou informações que não fazem sentido lógico, o que pode ser indício de alucinação.

  • Evite decisões críticas – em áreas como saúde, finanças ou direito, consulte sempre especialistas humanos e evite decisões baseadas apenas nas informações obtidas por uma inteligência artificial.

Conclusão

A IA é uma aliada poderosa, mas não é infalível. Entender que ela opera por probabilidades, e não por consciência, é o primeiro passo para evitar problemas que pode custar caro. Use a tecnologia para ganhar agilidade, mas mantenha o seu senso crítico como filtro final. Questione, verifique e use com inteligência.

Comentários ({{totalComentarios}})