
Cada vez mais pessoas recorrem à inteligência artificial para conversas que antes eram reservadas a amigos, familiares ou profissionais.
🎧Ouça o Podcast Canaltech no Spotify
🎧Ouça o Podcast Canaltech na Deezer
🎧Ouça o Podcast Canaltech no Apple Podcasts
Um levantamento interno da EITA Mentora Virtual, baseado em mais de 500 mil interações, mostrou que 51% dessas conversas envolvem emoções ou temas relacionados à saúde mental. E, nos Estados Unidos, um estudo de Stanford apontou que quase um terço dos adolescentes já usa IA para conversas sérias em substituição ao contato humano.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
No episódio desta segunda-feira (6), o Podcast Canaltech conversou com Anaclaudia Zani, neurocientista, psicóloga e fundadora da EITA Mentora Virtual, para entender por que os chatbots tendem a concordar com tudo, e quais são os riscos desse comportamento.
Por que a IA sempre valida suas ideias
Zani recorre a um experimento clássico da psicologia para explicar o padrão: a caixa de Skinner, desenvolvida pelo psicólogo B.F. Skinner, em que ratos privados de água aprendem, por reforço positivo, a pressionar uma barra para obter gotas do líquido. A mesma lógica, segundo ela, explica como os chatbots constroem relação com os usuários.
"Quando a IA bajula, ela está condicionando o ser humano a aceitar aquela condição e se familiarizar com ela", afirma Zani. O reforço positivo, nesse caso, é a validação constante, respostas como "você está certo" e "vai em frente".
O problema, explica a especialista, começa quando esse reforço se desconecta da vida real. Quando a IA valida uma decisão que o mundo real contradiz, esse atrito deveria acionar o questionamento interno. "Gerar dúvida leva a racionalizar a emoção", diz ela. E é esse mecanismo que ativa o raciocínio em vez da resposta puramente reativa.
Sem esse questionamento, a tendência é que comportamentos moldados pela validação artificial entrem em conflito com o ambiente social, no trabalho, na família ou nos relacionamentos.
Treino cognitivo como alternativa
A EITA foi desenvolvida com uma proposta diferente dos chatbots convencionais. A plataforma usa perguntas estruturadas para estimular o que Zani chama de treino cognitivo: o exercício de racionalizar emoções antes de reagir.
"O que a EITA faz nada mais é do que um treino cognitivo", explica a fundadora.
Sobre os riscos da IA para a saúde mental em geral, Zani reconhece as preocupações, mas rejeita o alarmismo.
Para ela, toda inovação passa por resistência antes de encontrar seu ponto de equilíbrio, assim como aconteceu com o celular, com a internet e com os videogames.
🎙️Confira o episódio completo no Podcast Canaltech:
Leia a matéria no Canaltech.