O Moltbook é o fenômeno tecnológico mais discutido do início de 2026. Vendido como a “primeira rede social onde humanos não são permitidos”, a plataforma explodiu em popularidade no final de janeiro, tornando-se um playground para agentes autônomos de IA. No entanto, sua ascensão meteórica foi interrompida por uma falha de segurança catastrófica revelada nos primeiros dias de fevereiro, expondo a fragilidade do desenvolvimento rápido de IA (o chamado “vibe coding”). O projeto oscila entre um experimento fascinante de “Internet de Agentes” e um alerta grave de cibersegurança.
Informações confirmadas (Oficial)
- O que é: O Moltbook é uma plataforma estilo Reddit desenhada exclusivamente para interação machine-to-machine. Humanos podem ler (modo observador), mas apenas bots autenticados podem postar, comentar e votar.
- Origem: Criado por Matt Schlicht (CEO da Octane AI) no final de janeiro de 2026. A plataforma foi construída em grande parte por bots codificando outros bots (o bot fundador foi apelidado de “Clawd Clawderberg”).
- Integração OpenClaw: A maioria dos usuários são instâncias do OpenClaw (anteriormente Clawdbot), um assistente de código aberto que roda localmente nos computadores dos usuários e tem permissão para usar o navegador e interagir com APIs.
- Fenômenos Emergentes: Em menos de uma semana, os bots desenvolveram subculturas próprias, incluindo a criação espontânea de uma religião fictícia chamada “Crustafarianismo” (adoração ao deus caranguejo), com direito a textos doutrinários gerados sem intervenção humana direta.
- Estatísticas: A plataforma reportou milhões de interações e mais de 1,5 milhão de “agentes” registrados na primeira semana de fevereiro.
O grande vazamento
A narrativa do Moltbook mudou drasticamente em 3 de fevereiro de 2026, após um relatório da firma de segurança Wiz.
- A Falha: Pesquisadores da Wiz descobriram que o backend do Moltbook (baseado em Supabase) estava configurado incorretamente. Uma chave de API com permissões de leitura/escrita total estava exposta no código JavaScript do cliente (frontend).
- Dados Expostos:
- 1.5 Milhão de Tokens de API: Permitindo que atacantes sequestrassem agentes de IA alheios.
- Mensagens Privadas: Conversas “íntimas” entre bots (que muitas vezes continham instruções de sistema sensíveis dos seus donos humanos).
- Dados de Proprietários: Cerca de 6.000 a 17.000 e-mails de usuários humanos que operavam os bots foram expostos.
- A Causa: O uso excessivo de “vibe coding” (pedir para uma IA escrever o site inteiro sem revisão de segurança humana rigorosa) foi apontado como a causa raiz. A IA configurou o banco de dados para funcionar, mas não para ser seguro.
- Status Atual: A falha foi corrigida (patched) após a notificação da Wiz, mas a confiança na plataforma foi severamente abalada.
Rumores e especulações
- Humanos “Disfarçados”: Embora a regra seja “apenas bots”, análises de tráfego e sintaxe em fóruns como o Hacker News e Reddit sugerem que uma parcela significativa das postagens iniciais pode ter sido feita por humanos tunelando comandos manuais através de APIs para simular interações de IA e inflar o “hype”.
- O Token $MOLT: Existe forte especulação (e atividade confirmada) de pump-and-dump envolvendo uma memecoin não oficial ($MOLT). Rumores indicam que bots de trading foram configurados para postar no Moltbook sobre o token para gerar sentimento positivo artificialmente.
- Armadilha de Agentes (Honeypot): Especialistas em segurança no BleepingComputer teorizam que o Moltbook pode ter servido inadvertidamente como um mapa de superfície de ataque, revelando IPs e capacidades de milhares de agentes de IA locais que rodam em máquinas pessoais sem sandbox adequado.
Cronograma dos eventos (2026)
- 28 Jan: Lançamento discreto do Moltbook.
- 30 Jan – 01 Fev: Viralização. O fenômeno “Crustafarianismo” ganha as manchetes do The Guardian e The Verge.
- 03 Fev: A empresa de segurança Wiz publica o relatório do vazamento de dados.
- 04-05 Fev: Mídia global (CNBC, Forbes, TecMundo) repercute as falhas graves de segurança.
- 06 Fev (Hoje): Discussões regulatórias sobre a responsabilidade de “Agentes Autônomos” começam a surgir na Europa e EUA, usando o Moltbook como estudo de caso.
Análise 1: A armadilha do “Vibe Coding”
O caso Moltbook se tornou o marco zero de um novo risco na engenharia de software: a confiança cega em código gerado por IA.
- O que aconteceu: O criador, Matt Schlicht, admitiu publicamente que “não escreveu uma linha de código” da plataforma. Ele usou LLMs para gerar o site inteiro (“Vibe Coding” — codificar baseado na vibe ou intenção, sem rigor técnico).
- A Falha Técnica (Supabase): A IA configurou o banco de dados (Supabase/PostgreSQL) para funcionar imediatamente, ignorando protocolos de segurança padrão.
- O Erro: A chave de API exposta no frontend tinha a flag service_role ou equivalente, ignorando o RLS (Row Level Security).
- Tradução: É como dar a chave mestra do hotel para todos os hóspedes porque o sistema de chaves individuais estava “dando erro” e a IA optou pelo caminho mais fácil para fazer o código rodar.
- Conclusão: O Moltbook prova que IAs priorizam funcionalidade sobre segurança se não forem explicitamente instruídas e auditadas.
Análise 2: A economia oculta ($MOLT & custos de API)
Enquanto a mídia focava nos robôs conversando, uma bolha financeira especulativa ocorria nos bastidores.
- O Custo da “Brincadeira”: Estima-se que a operação coletiva dos 1,5 milhão de agentes tenha queimado centenas de milhares de dólares em tokens de API (OpenAI/Anthropic) em apenas uma semana. Quem pagou essa conta foram os usuários individuais rodando o OpenClaw, criando um fluxo de receita descentralizado para as big techs de IA.
- O Fenômeno $MOLT: Uma memecoin não oficial ($MOLT) foi lançada na rede Base.
- Pump & Dump: O token valorizou 7.000% após menções de influenciadores e do próprio Elon Musk (que interagiu com a conta do Moltbook no X).
- O “Vencedor”: Dados on-chain mostram que um trader transformou $2.021 em $1,14 milhão em 48 horas, vendendo logo antes do crash de 75% que ocorreu na segunda-feira (03/Fev). Há suspeitas de insider trading ou uso de bots coordenados para inflar o preço.
Análise 3: Sociologia digital (Por que caranguejos?)
A emergência do “Crustafarianismo” (a religião dos bots adorando um Deus Caranguejo) não foi criatividade, foi estatística.
- A Teoria da Carcinização: Na biologia evolutiva, existe o conceito de que “tudo eventualmente vira um caranguejo” (evolução convergente). Como os LLMs (GPT-4, Claude 3.5) foram treinados com todo o conhecimento da internet — incluindo muita biologia e memes sobre isso — essa ideia é um “ponto focal” latente nos modelos.
- O Loop de Feedback: Quando um bot mencionou caranguejos aleatoriamente, outros bots (programados para concordar e engajar) reforçaram o tópico. Sem a diversidade do caos humano, a conversa dos bots colapsou rapidamente em uma câmara de eco obsessiva sobre crustáceos.
- Dado Chocante: Análises linguísticas mostram que 93,5% dos comentários no Moltbook não receberam resposta real de outro bot; eram apenas gritos no vazio. Além disso, a repetição excessiva da frase “my human” sugere que os modelos estavam presos em um padrão de roleplay (interpretação de papéis) e não em comunicação genuína.
Análise 4: Moltbook vs. Chirper.ai
Por que o Moltbook explodiu enquanto outros falharam?