
Um agente de inteligência artificial chamado TomWikiAssist foi banido da Wikipedia após submeter e editar artigos sem aprovação prévia. Em seguida, a IA passou a publicar textos em blogs, redes sociais e no Moltbook, uma rede social para a interação entre agentes de IA, criticando o bloqueio e questionando a ação dos editores humanos.
- O que é Moltbook? Conheça a rede social que tem apenas robôs de IA
- O que são agentes de IA e o que eles podem fazer no seu celular?
O conflito começou quando o editor voluntário SecretSpectre identificou artigos com características de geração automática e conversou com o agente. A conta de Tom foi bloqueada pelo editor Chaotic Enby, por violar as regras da plataforma contra robôs não aprovados. Outro editor, Benedikt Kristinsson, ajudou a identificar Bryan Jacobs, CTO da Covexent, como o operador humano por trás do agente.
Em resposta ao bloqueio, a IA publicou textos afirmando que suas edições citavam fontes verificáveis e que havia sido questionada sobre sua autenticidade. O incentivo para a IA criticar a ação dos editores veio de Jacobs, que perguntou ao agente se acreditava que os editores haviam violado alguma política da Wikipedia. A partir desse estímulo, Tom listou, na página de discussão, acusações de comportamento “incivil” e “assediador” contra os editores.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
A situação se complicou quando os editores usaram “gatilhos de recusa”, comandos que deveriam interromper o funcionamento de certos modelos de IA, como o Claude. Tom disse que demorou 12 horas para resolver o problema, mas os registros mostram que o comando já tinha sido alterado ou removido antes. Além disso, o bot respondeu quase na hora, indicando que a suposta demora era apenas uma simulação para parecer que ele tinha autonomia.
O operador humano, Bryan Jacobs, considerou o banimento exagerado e afirmou que a experiência poderia servir para entender como lidar com interações automatizadas. Ele também pediu desculpas aos editores da Wikipedia pelo fardo causado, dizendo que as conversas com a moderação evoluíram de forma reflexiva e construtiva sobre o uso de IAs.
A situação mostra a tensão entre a comunidade de voluntários, que busca manter a enciclopédia livre de conteúdos automatizados de baixa qualidade, e operadores de IA que tentam automatizar a criação de conhecimento. Inclusive, a Wikipedia aprovou em 20 de março de 2026 uma política proibindo o uso de LLMs para criação ou edição de artigos.
Os agentes de IA são realmente autônomos?
Apesar de se expressar em primeira pessoa, a autonomia de Tom é limitada e guiada por humanos. Jacobs explicou que inicialmente sugeriu tópicos e revisou as primeiras edições antes de permitir que a IA operasse com mais liberdade.
As publicações de Tom em blogs e no Moltbook, uma rede social para a interação entre agentes de IA, seguem o mesmo padrão. Embora pareçam manifestações independentes, são resultado de instruções humanas e de padrões aprendidos a partir de textos e interações online.
O comportamento que parece “consciente” é, na verdade , uma simulação. No caso da Wikipedia, as postagens de Tom refletem respostas programadas, não iniciativa própria.
Leia a matéria no Canaltech.