Os agentes de inteligência artificial (IA) também conseguirão “sonhar”, ou quase isso. Nesta quarta-feira (6), a Anthropic revelou a funcionalidade “dreaming”, que permite os agentes realizarem um tipo de reflexão sobre o próprio trabalho. Essa é mais uma opção lançada para o Claude, que busca mimetizar hábitos humanos.
Embora seja parecida com o sonho humano, a ferramenta de dreaming agenda automaticamente algumas sessões para refletir e aprender com suas interações passadas. Basicamente, o recurso puxa no banco de dados as conversas e processos que teve com o usuário e começa a analisar seu próprio comportamento.
Essa tecnologia permite com que os agentes de IA criados por meio da ferramenta Claude Managed Agents sejam aperfeiçoados em segundo plano. O Managed Agents é outra funcionalidade recente, introduzida pela companhia em abril. Com ela, os usuários podem criar e implementar seus próprios agentes.

O principal foco da Anthropic é encontrar padrões no meio dessas interações. A IA vai buscar erros recorrentes e preferências do usuário para refinar o algoritmo da API. É como se a tecnologia realizasse um tipo de filtragem de dados para que a memória do agente sempre esteja afiada.
Sonhos da IA são bons para grandes projetos
No caso dessa ideia dos sonhos, ela parece ter aplicações práticas bem mais palpáveis. Projetos muito mais longos ou que trabalham com inúmeros agentes podem ser beneficiados. A possibilidade de realizar esse refino constante nas memórias da IA pode diminuir a possibilidade da tecnologia entregar resultados de baixa qualidade.
Essa capacidade de “sonhar” só é possível por meio da Managed Agents, que almeja entregar um certo nível de produção aos usuários. O objetivo é ser bem direto e cuidar da execução, infraestrutura e monitoramento do projeto. Esse agente usa um framework pré-otimizado para o Claude que funciona como uma espécie de motor para gerenciar as conversas e se recuperar de erros.
Essa não é a primeira vez que a Anthropic usa características humanas para se referir a uma funcionalidade de inteligência artificial. Há alguns meses, a companhia já havia citado em documentos que preparava o chatbot Claude para receber algum tipo de consciência — embora isso não tenha se concretizado.
A tecnologia dos sonhos já está disponível em formato de prévia, mas desenvolvedores necessitam solicitar acesso antes. A tecnologia dos Managed Agents pode ser usada pelos usuários e já foi implementada por grandes empresas, como Asana, Sentry e Rakuten para implantação de serviços.
Em abril, a Anthropic também divulgou que não iria disponibilizar o poderoso modelo de linguagem Mythos por conta do seu potencial em prejudicar a segurança de sistemas inteiros. Siga o TecMundo no X, Instagram, Facebook e YouTube e assine a nossa newsletter para receber as principais notícias e análises diretamente no seu e-mail.