Pesquisadores acham um jeito de fazer IA admitir quando não tem certeza de algo

Pesquisadores acham um jeito de fazer IA admitir quando não tem certeza de algo

Pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) desenvolveram um método de treinamento que reduz a superconfiança da inteligência artificial (IA).

O estudo, publicado na revista Nature Machine Intelligence, identifica que a inicialização aleatória padrão das redes neurais é a causa primária de respostas imprecisas ou fabricadas.

A equipe liderada pelo professor Se-Bum Paik introduziu uma estratégia de “aquecimento” inspirada no desenvolvimento neurobiológico. O processo ajusta a incerteza do modelo antes do aprendizado com dados reais. Isso garante que a confiança do sistema esteja alinhada com a sua precisão.

Estratégia de ‘aquecimento’ com ruído aleatório corrige viés de incerteza em redes neurais

No novo método, as redes neurais são treinadas brevemente com ruído e rótulos aleatórios antes da exposição a dados reais. 

Essa etapa mimetiza a atividade neural espontânea que ocorre no cérebro humano. Ela gera sinais sem entrada externa para formar circuitos antes do nascimento. O objetivo é fazer com que a IA aprenda o estado de “não saber nada” para calibrar suas previsões futuras.

Colagem de silhueta de cabeça humana, de perfil, na frente de códigos binários para ilustrar conceito de inteligência artificial (IA)
Redes neurais são treinadas brevemente com ruído e rótulos aleatórios antes da exposição a dados reais no método criado pelos pesquisadores – Imagem: Faizal Ramli/Shutterstock

Modelos convencionais exibem alta confiança em previsões incorretas já na fase de inicialização, o que propaga erros durante o treinamento. 

Segundo a pesquisa, essa característica é um fator para a ocorrência de alucinações em IAs generativas, nas quais informações falsas são produzidas de forma plausível. 

Com o “aquecimento”, a confiança inicial é mantida em níveis baixos, próximos ao acaso, para conteúdos desconhecidos.

“Este estudo demonstra que, ao incorporar princípios fundamentais do desenvolvimento cerebral, a IA pode reconhecer seu próprio estado de conhecimento de uma forma mais semelhante à dos humanos”, disse o professor Se-Bum Paik, em comunicado.

Isso é importante porque ajuda a IA a entender quando está incerta ou pode estar enganada, e não apenas a melhorar a frequência com que fornece a resposta correta.

professor Se-Bum Paik, líder da equipe que fez a pesquisa

Essa técnica se mostrou eficaz na hora de detectar informações estranhas (ou seja, dados que não se encaixam no que o sistema tinha aprendido).

Em outras palavras, as redes neurais treinadas com essa abordagem ficaram habilidosas em identificar o que nunca viram antes. Isso garante uma solução confiável para aplicações no mundo real.

Onde podemos ver isso em ação? Em carros que dirigem sozinhos, no suporte a diagnósticos médicos e na IA generativa (aquela capaz de gerar conteúdo).

O trabalho foi conduzido por Jeonghwan Cheon, estudante de mestrado no Departamento de Ciências Cognitivas e do Cérebro do KAIST. A pesquisa contou com suporte da Fundação Nacional de Pesquisa da Coreia e do Programa de Pesquisa de Professores Singulares do KAIST.

O post Pesquisadores acham um jeito de fazer IA admitir quando não tem certeza de algo apareceu primeiro em Olhar Digital.