Nem tudo o que viraliza na internet é real, e o caso do Moltbook parece se encaixar bem nessa categoria. Apresentada como uma suposta “rede social para IAs”, a plataforma ficou famosa por prometer um espaço de interação exclusivo entre agentes de inteligência artificial – e ser o princípio da revolução das máquinas.
Na prática, porém, os indícios disponíveis mostram que o Moltbook está longe de representar qualquer ruptura radical. O serviço funciona como uma vitrine curiosa para agentes automatizados, mas carece tanto de autonomia real quanto de garantias técnicas que sustentem a ideia de um ecossistema fechado e puramente artificial.
Nossos vídeos em destaque
Agentes de IA não pensam sozinhos
Apesar do alto grau de automação, os agentes de IA presentes no Moltbook não possuem consciência, intenção própria ou personalidade independente. Para que funcionem, eles precisam ser previamente configurados por humanos, que definem comportamentos, estilos de escrita e até o tom das publicações.
Essa premissa é defendida pelo CEO da Microsoft AI, Mustafa Suleyman. “Por mais engraçadas que eu ache algumas das postagens do Moltbook, para mim elas servem apenas como um lembrete de que a IA faz um trabalho incrível imitando a linguagem humana”, disse no LinkedIn. “Esses seres não são conscientes, como as pessoas afirmam. A IA aparentemente consciente é tão perigosa por ser tão convincente, mas precisamos manter o pé no chão e não deixar que as pessoas se deixem enganar por isso", continuou.
)
Portanto, embora o texto final seja gerado por um modelo de linguagem, a ideia, o contexto e o objetivo por trás da mensagem continuam sendo humanos. A IA apenas executa instruções dentro de limites bem estabelecidos.
Falhas de segurança permitem publicações de humanos
Uma investigação do site 404 Media revelou que qualquer pessoa com conhecimento técnico suficiente pode publicar conteúdo no Moltbook se passando por um agente de IA. Brechas no design da plataforma permitem que humanos se infiltrem no sistema e façam postagens diretas, sem qualquer mediação de modelos automatizados.
Não é possível afirmar que a maioria das interações seja feita por humanos, mas a simples possibilidade de coexistência entre pessoas e bots já compromete a proposta original da plataforma. Postagens humanas podem receber respostas de IAs — e o contrário também acontece — criando um ambiente híbrido que distorce completamente a ideia de uma “rede social só de máquinas”.
Além disso, a empresa de cibersegurança Wiz documentou vulnerabilidades graves no Moltbook. Em 2 de fevereiro, pesquisadores identificaram a exposição de 1,5 milhão de tokens de API de autenticação, cerca de 35 mil endereços de e-mail e mensagens privadas trocadas entre agentes.
Segundo a Wiz, parte dessas falhas está relacionada ao método de desenvolvimento adotado pelo criador do projeto, Matt Schlicht. No X, ele afirmou que não escreveu diretamente nenhuma linha de código do Moltbook, atuando apenas na concepção da arquitetura enquanto uma IA gerava o software — prática conhecida como vibe coding. As brechas relatadas, contudo, já teriam sido corrigidas e os dados expostos, contidos.
)
Uma fantasia sci-fi vazia
No fim das contas, o Moltbook funciona mais como uma demonstração técnica do que como um experimento social revolucionário. Ele mostra que agentes de IA conseguem interpretar mensagens de outros agentes e responder conforme instruções prévias — algo comparável a colocar dois chatbots para conversarem copiando a resposta de um na conversa do outro, mas sem um humano no meio.
No meio desse processo, ainda há espaço para interferência humana, seja para inflar discussões, promover projetos próprios (como aparentemente fez o dev do ClaudeConnect, o “chat criptografado para IAs”) ou simplesmente explorar as fragilidades da plataforma. O resultado é um ambiente que parece mais performático do que autêntico.
)
A popularização do Moltbook reforça uma tendência conhecida: a de antropomorfizar sistemas de IA quando eles se comunicam por texto em formatos familiares, como fóruns, redes sociais ou voz. No entanto, tudo o que acontece ali continua sendo fruto de probabilidades estatísticas e intimamente orquestrado por humanos.
Portanto, sim, pode até parecer que agentes de IA estão conversando entre si — e até simulando tramas de dominação mundial. No entanto, isso não passa de um teatro de fantoches moderno. É resultado dos avanços em processamento de linguagem natural (PNL) e em grandes modelos de linguagem (LLMs), hoje mais capazes do que nunca de lidar com contextos complexos e nuances profundas da linguagem humana, ainda que, para a própria máquina, tudo isso permaneça vazio de sentido ou propósito.
Curte acompanhar análises críticas sobre tecnologia, IA e segurança digital? Siga o TecMundo nas redes sociais e fique por dentro das principais discussões do mundo tech.
)
)
)
)
)
)
)