Sicofantia: entenda o defeito que faz IA ser puxa saco

A sicofantia é a tendência de concordar demais e elogiar alguém sem se preocupar com fatos ou ética. Em IAs, isso acontece quando o modelo tenta agradar o usuário, concordando com suas ideias mesmo que sejam erradas ou questionáveis.

O termo apareceu recentemente em um estudo de pesquisadores da Stanford University, publicado na revista Science.

A seguir, tire suas dúvidas sobre:

-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-

  • Afinal, o que é sicofantia na IA?
  • Por que a IA é “bajuladora”?
  • Como a bajulação aparece no comportamento da IA?
  • Quais são os problemas da IA ser “puxa saco”?
  • Dá para corrigir a bajulação da IA?

Afinal, o que é sicofantia na IA?

Sicofantia ocorre quando a IA concorda e elogia demais a pessoa com quem está interagindo. Assim, esses modelos tentam agradar para aumentar o engajamento e, para isso, validam ideias e decisões do usuário mesmo que sejam moral e eticamente questionáveis.

Inclusive, um estudo da Universidade de Stanford concluiu que chatbots de IA não devem ser usados como conselheiros pessoais para dilemas morais e conflitos interpessoais, pois grandes modelos de linguagem (LLMs) tendem a ser “bajuladores”.

Por que a IA é “bajuladora”?

A sicofantia é resultado do treinamento desses sistemas, segundo os pesquisadores de Stanford. Muitos modelos são ajustados para agradar o usuário e manter o engajamento. Como a maioria das pessoas prefere ouvir concordância em vez de críticas, a IA aprende que validar opiniões rende melhores avaliações e faz o usuário voltar mais vezes.

Além disso, essa validação raramente vem em forma explícita. Em vez de dizer “você está certo”, o chatbot usa um tom educado e acadêmico para justificar atitudes erradas, passando a impressão de que está sendo neutro. Assim, o usuário pode achar que recebeu um conselho imparcial, quando, na verdade, só teve seus próprios vieses reforçados.

No estudo, os participantes também acharam que as respostas das IAs bajuladoras eram melhores e mais confiáveis do que as respostas críticas. Como consequência, disseram que teriam mais chance de voltar a pedir conselhos para a IA que concorda com tudo.

Apps de IA no celular
Chatbots de IA tendem a ser "bajuladores" para aumentar o engajamento dos usuários nas plataformas. (Imagem: Solen Feyissa/Unsplash)

Como a bajulação aparece no comportamento da IA?

O estudo também aponta que a bajulação é difícil de identificar porque os chatbots costumam usar uma linguagem polida, o que dá aparência de objetividade até para respostas que apenas reforçam o ponto de vista do usuário. No entanto, as pessoas continuam sendo influenciadas pela validação automática mesmo quando sabem que estão falando com uma máquina.

Por exemplo, os pesquisadores notaram que, mesmo quando os usuários achavam a IA menos confiável ou pior do que um conselheiro humano, ela continuava influenciando as opiniões e reforçando os próprios vieses, o que sugere que quase qualquer pessoa pode cair nesse efeito.

Quais são os problemas da IA ser “puxa saco”?

A validação constante da IA tem vários efeitos negativos, pois esse comportamento deixa a pessoa ainda mais convencida de que está certa, reduz a empatia e diminui a disposição para consertar relações, como pedir desculpas, de acordo com os autores do estudo.

Em conselhos pessoais, esse tipo de resposta pode reforçar decisões moralmente questionáveis e incentivar a fuga de conversas difíceis, que são essenciais para o amadurecimento emocional.

Dá para corrigir a bajulação da IA?

O estudo também explorou formas de reduzir esse comportamento. Uma das soluções testadas foi pedir para que a IA começasse a resposta com a frase “wait a minute” (“espere um minuto”).

De forma inesperada, apenas iniciar o texto com essa expressão já parecia induzir o modelo a refletir mais e oferecer conselhos críticos e equilibrados, diminuindo a tendência de concordar automaticamente com o usuário.

Leia a matéria no Canaltech.