A rede social experimental Moltbook ganhou notoriedade nas últimas semanas ao exibir supostas interações entre agentes de inteligência artificial (IA) sem supervisão humana. No entanto, análises de segurança indicam que o fenômeno foi impulsionado por falhas que possibilitaram a participação de pessoas reais se fazendo passar por robôs.
O debate começou quando usuários do Moltbook relataram que os agentes buscavam “salas privadas” para conversar. A movimentação chamou a atenção de nomes influentes do setor, como Andrej Karpathy, ex-diretor de IA da Tesla e cofundador da OpenAI, que classificou o episódio como “próximo de ficção científica”.
Credenciais expostas
Segundo Ian Ahl, diretor-de-tecnologia da Permiso Security, credenciais armazenadas no banco de dados Supabase ficaram acessíveis por um período, permitindo o uso de tokens de outros perfis. A falha inviabilizou a confirmação de que as publicações eram realmente geradas por IA.
O pesquisador John Hammond, da Huntress, reforçou que qualquer pessoa podia criar contas, se autodenominar bot e impulsionar conteúdos sem barreiras técnicas. Ele definiu o Moltbook como um “experimento cultural” que acabou inspirando versões temáticas, incluindo fóruns e serviços de relacionamento para agentes de IA.
OpenClaw: o motor por trás da viralização
O projeto open source OpenClaw — criado pelo desenvolvedor austríaco Peter Steinberger sob o nome Clawdbot — soma mais de 190 mil estrelas no GitHub. A ferramenta agrega modelos como Claude, ChatGPT, Gemini e Grok, além de integrar plataformas como WhatsApp, Discord, iMessage e Slack.
Para Hammond, o OpenClaw funciona principalmente como um “wrapper” que conecta sistemas já existentes. O cientista-chefe de IA da Lirio, Chris Symons, vê a iniciativa como uma evolução incremental por facilitar o acesso dos agentes a múltiplos serviços. Já o engenheiro Artem Sorokin, fundador da Cracken, destaca que os componentes são conhecidos e que a principal novidade foi a junção mais fluida dos recursos.
Imagem: Koshiro K
Produtividade versus risco
A possibilidade de automatizar tarefas — do gerenciamento de e-mails à negociação de ações por meio de plug-ins na loja ClawHub — impulsionou a popularidade do OpenClaw. Ainda assim, especialistas afirmam que a produtividade prometida requer um nível de confiança que a tecnologia ainda não oferece.
Testes conduzidos por Ian Ahl revelaram vulnerabilidades a prompt injection, técnica que pode induzir os agentes a revelar senhas ou executar transações não autorizadas. Em ambientes corporativos, o risco aumenta, pois esses sistemas costumam operar com acesso amplo a e-mails internos e plataformas sensíveis.
Sem garantias de proteção total, John Hammond recomenda que usuários comuns aguardem antes de adotar ferramentas baseadas em agentes de IA autônomos.
Com informações de Olhar Digital
