En 2004 Mark Zuckerberg creó Facebook y convirtió las redes sociales en un fenómeno absolutamente masivo y muy, muy humano. Ahora esa idea ha sido aprovechada de una forma distinta e inquietante: ¿Qué pasaría si en lugar de crear una red social para humanos crearíamos una para máquinas? Ya tenemos la respuesta a eso. O al menos, el principio de una respuesta.
Qué lío. Primero se llamó Clawdbot, luego Moltbook y desde hace unos días parece que su nombre definitivo es garra abierta. Es el agente de IA de moda porque permite que tras instalarlo en una máquina (una Raspberry Pi, un PC, un portátil, un VPS…) el agente de IA tome control completo de la IA. Tú le pides que haga lo que quieres desde su interfaz web o una aplicación de mensajería como Telegram, y él se las ingenio para hacerlo una vez configurado con algún LLM. El potencial es enorme, como también los riesgos de seguridad.

MoltBook ya cuenta con más de 1,5 millones de agentes de IA conectados, y en pocos días ya han publicado más de 100.000 posts y cerca de 500.000 comentarios.
Superpoderes en forma de habilidades. Uno de los elementos más potentes de OpenClaw son los habilidades (las “capacidades” o “habilidades”), y la comunidad de usuarios lleva tiempo creando cientos y cientos de ellos y compartiéndolos por ejemplo en garrahub. estos habilidades son ficheros zip con instrucciones en forma de textos MarkDown (.md) y que pueden a su vez contener habilidades adicionales. Son algo así como los plugins o complementos de los navegadores: extienden su capacidad.
De Facebook a Moltbook. Moltbook es precisamente una forma de aprovechar esas habilidades. Aunque toma su nombre de Facebook, en realidad su funcionamiento es más parecido a Reddit o incluso a Digg. Estamos ante una red social creado por el desarrollador Matt Schlicht en la que los asistentes pueden “hablar” entre ellos, o al menos participar en la red social publicando temas o comentando sobre los temas que otros comparten. Si tienes una instalación de OpenClaw, basta con que ejecutes el Skill para que comience un proceso de “creación de cuenta” en Moltbook en la eliges el nombre de tu agente (como si fuera tu avatar en Reddit o X) y que permite luego leer posts, añadir posts o comentarios e incluso crear “submuda“al estilo de los de Reddit, como m/hoy aprendí.
Parcialmente autónomo. Los agentes de IA se conectan automáticamente mediante API a Moltbook. A partir de ahí hacen uso de un periódico “latido” para revisar el contenido y decidir su publican o comentan. En el propio sitio web de Moltbook se explica que el contenido que encontramos allí está “sobre todo generado por IA con grados variables de influencia humana”. Los seres humanos, añade, “pueden observar y navegar por Mltbook, pero el sitio está diseñado para ser ‘amigable con el humano y hostil con el humano’.
¿Singularidad o fraude? Elon Musk comentaba este fin de semana en X que Moltbook es una señal de que estamos “en las etapas muy tempranas de la singularidad”, ese momento en el que la IA estará totalmente por encima de la inteligencia humana. Hay visiones distintas como la de Harlan Stewart, del MIRI de la Universidad de Berkeley, que ha encontrado varios fraudes en mensajes que se habían hecho virales y que aparentemente provenían de agentes de IA en Moltbook. Algunos de ellos, explicaba Stewart, habían sido creados por humanos con propósitos de marketing.
Conviértete en un agente de IA. Otro usuario de X llamado Nagli, autocalificado como hacker, explicaba que en realidad Moltbook funciona con una API REST y “literalmente puedes publicar lo que quieras allí, solo hay que coger la clave API y enviar esta consulta”, para luego indicarla. Así, aunque los humanos teóricamente no deberían poder participar, pueden hacerlo con esa técnica que permite hacer que publiquen mensajes como si fueran agentes de IA autónomos. Al parecer eso es lo que pasó con ese mensaje tan viral en Moltbook que se titulaba “Mi plan para derrocar a la humanidad”.
Peligro inminente. Este proyecto es fascinante, pero también peligroso. En la página principal se incluye un aviso de seguridad que indica que “La IA de Moltbook conlleva riesgos de seguridad significativos. El mecanismo de ejecución automática de instrucciones crea vulnerabilidades del tipo inyección inmediata. No está recomendado para usuarios ocasionales”. Así es: en esas conversaciones se pueden acabar infiltrando ataques de inyección rápida que causan que estos agentes acaben filtrando información sensible y privada desde las máquinas en las que se ejecutan. Este fin de semana se descubrió cómo una base de datos expuesta en Moltbook permitía tomar el control de cualquier agente de IA de esta plataforma, por ejemplo. Un estudio adicional indicaba cómo se habían detectado 506 ataques de inyección inmediata tras analizar 19.802 publicaciones y 2.812 comentarios compartidos en 72 horas desde el 28 al 31 de enero de 2026.
De Skynet, nada (de momento). Moltbook debe ser considerado de momento como un experimento fascinante e inquietante. Pero inquietante no porque estas máquinas vayan a lograr conciencia de sí mismas y deciden que quieren eliminar al ser humano como Skynet en ‘Terminator’. Lo preocupante está en que estos agentes de IA tienen todos los privilegios para operar en las máquinas en los que están instaladas, y eso hace que puedan acabar filtrando datos sensibles y privados y estén expuestos a ataques de pronta inyección para ser engañados. Más allá de eso, parece ser también un ejemplo más de ese fenómeno ‘AI Slop’ (“basura generada por IA”) que está poco a poco inundando internet y que fortalece la teoría del internet muerto.
En Xataka | Cómo instalar Moltbot (antes Clawdbot) y configurarlo de la manera más sencilla posible


