Técnica inspirada no cérebro humano faz IA admitir o que não sabe

Pesquisa introduz etapa de “aquecimento” baseada no desenvolvimento neurobiológico para alinhar o nível de confiança das redes neurais à precisão de suas respostas

IA – Pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) desenvolveram um método de treinamento capaz de reduzir a superconfiança de sistemas de inteligência artificial (IA). O estudo foi publicado na revista científica Nature Machine Intelligence e aponta que a inicialização aleatória padrão das redes neurais está diretamente ligada à geração de respostas imprecisas ou fabricadas.

A equipe liderada pelo professor Se-Bum Paik criou uma estratégia de “aquecimento” inspirada no desenvolvimento neurobiológico. A técnica ajusta o nível de incerteza do modelo antes do treinamento com dados reais, permitindo que a confiança do sistema fique mais alinhada à sua precisão.

LEIA: Brasileiros usam emaranhamento quântico para revolucionar baterias

No método proposto, as redes neurais passam inicialmente por um treinamento curto com ruído e rótulos aleatórios antes de terem contato com informações reais. Segundo os pesquisadores, essa etapa reproduz a atividade neural espontânea observada no cérebro humano, que forma circuitos neurais antes do nascimento mesmo sem estímulos externos.

O objetivo é ensinar a IA a reconhecer o estado de “não saber nada” antes do aprendizado efetivo, calibrando melhor suas previsões futuras. De acordo com o estudo, modelos convencionais já apresentam alta confiança em respostas incorretas desde a fase inicial de treinamento, o que contribui para a propagação de erros ao longo do processo.

Os pesquisadores afirmam que essa característica está relacionada às chamadas “alucinações” em sistemas de IA generativa, quando informações falsas são produzidas de maneira aparentemente convincente. Com a nova abordagem, o nível de confiança inicial permanece baixo, próximo ao acaso, principalmente diante de conteúdos desconhecidos.

“Este estudo demonstra que, ao incorporar princípios fundamentais do desenvolvimento cerebral, a IA pode reconhecer seu próprio estado de conhecimento de uma forma mais semelhante à dos humanos”, afirmou o professor Se-Bum Paik, em comunicado.

Os testes mostraram ainda que a técnica melhora a capacidade das redes neurais de detectar informações estranhas ou dados que não fazem parte do que o sistema aprendeu anteriormente. Segundo os autores, isso torna a solução mais confiável para aplicações práticas.

A pesquisa destaca que o método pode ser aplicado em áreas como carros autônomos, suporte a diagnósticos médicos e sistemas de IA generativa voltados à criação de conteúdo.

O trabalho foi conduzido por Jeonghwan Cheon, estudante de mestrado no Departamento de Ciências Cognitivas e do Cérebro do KAIST. O estudo recebeu apoio da Fundação Nacional de Pesquisa da Coreia e do Programa de Pesquisa de Professores Singulares do KAIST.

(Com informações de Olhar Digital)
(Foto: Reprodução/Magnific/DC Studio)

Leia mais