Alucinações de IAs revelam limites de como chatbots são construídos

Alucinações de IAs revelam limites de como chatbots são construídos

Respostas incorretas de chatbots não são falhas isoladas, mas reflexo de um sistema treinado para priorizar a probabilidade em vez da veracidade

Alucinações de IAs  – Com cerca de 1,8 bilhão de pessoas utilizando sistemas de Inteligência Artificial em 2025, o que equivale a um volume diário entre 550 e 600 milhões de usuários, a onipresença de ferramentas como ChatGPT, Claude e Gemini consolidou um debate urgente: a confiabilidade dos dados fornecidos por essas plataformas. No centro da discussão estão as “alucinações”, fenômeno em que a IA apresenta informações factualmente erradas com um tom de extrema segurança.

Estudos recentes indicam que tais falhas não devem ser encaradas apenas como um “bug” técnico, mas como uma característica inerente à arquitetura dos grandes modelos de linguagem (LLMs).

LEIA: Ataque usa currículo falso para desativar defesa de sistemas de empresas

As alucinações são declarações construídas de forma gramaticalmente correta e convincente, mas que carecem de base factual. Pesquisadores ilustram o problema com exemplos cotidianos: desde a criação de títulos inexistentes para teses acadêmicas até a atribuição de múltiplas datas de nascimento errôneas para uma mesma pessoa. O agravante é a convicção com que o sistema opera, mesmo quando a resposta é uma fabricação completa.

O incentivo ao “palpite”

Por que a IA insiste em responder, mesmo sem saber? A resposta reside, em parte, nos critérios de avaliação desses modelos. Atualmente, o desempenho é medido majoritariamente pela precisão, a taxa de acertos.

Nesse formato, o sistema enfrenta um dilema: admitir desconhecimento ou arriscar um palpite. Como dizer “não sei” é computado como erro, o modelo é treinado estatisticamente para arriscar. Em grandes baterias de testes, a IA que “chuta” tende a obter pontuações superiores àquela que opta pela cautela, consolidando um comportamento de confiança excessiva que mascara a ignorância factual.

A limitação do “prever a próxima palavra”

A raiz técnica do problema está na essência dos LLMs: eles são projetados para prever a próxima palavra em uma sequência, baseando-se em padrões estatísticos extraídos de volumes massivos de documentos.

Nesse treinamento, o modelo não diferencia, nativamente, o que é fato do que é ficção; ele aprende apenas o que parece estatisticamente plausível. Embora esse método seja excelente para estrutura, gramática e ortografia, ele falha ao lidar com dados específicos, como números, datas ou eventos raros, onde o padrão estatístico não é suficiente para garantir a verdade.

Embora o senso comum sugira que aumentar o poder computacional e o volume de dados eliminaria o problema, a realidade é mais complexa. O estudo aponta que, embora modelos maiores reduzam a frequência de equívocos, eles nunca atingirão 100% de precisão. A natureza ambígua da linguagem humana e a necessidade de raciocínio contextual tornam a perfeição inalcançável apenas pelo aumento de escala.

Caminhos para uma IA mais honesta

Para contornar o problema, pesquisadores propõem uma mudança de paradigma: alterar a forma como avaliamos a IA. Em vez de valorizar apenas o acerto, os sistemas de teste deveriam penalizar erros graves e recompensar a capacidade da máquina de reconhecer e declarar sua própria incerteza, em uma lógica similar à aplicada em provas acadêmicas humanas.

O futuro da confiabilidade na IA, portanto, pode não residir em modelos cada vez maiores, mas em sistemas mais “calibrados”. O próximo grande salto tecnológico poderá ser, curiosamente, ensinar à inteligência artificial a habilidade de admitir: “não sei”.

(Com informações de Gizmodo)
(Foto: Reprodução/Freepik/plugstudio666)

Leia mais