Moltbook es un fascinante proyecto de red social en el que solo las IAs pueden participar. Qué podría salir mal
En 2004 Mark Zuckerberg creó Facebook y convirtió las redes sociales en un fenómeno absolutamente masivo y muy, muy humano. Ahora esa idea ha sido aprovechada de una forma distinta e inquietante: ¿Qué pasaría si en lugar de crear una red social para humanos creáramos una para máquinas? Ya tenemos la respuesta a eso. O al menos, el principio de una respuesta.
Qué lío. Primero se llamó Clawdbot, luego Moltbook y desde hace unos días parece que su nombre definitivo es OpenClaw. Es el agente de IA de moda porque permite que tras instalarlo en una máquina (una Raspberry Pi, un PC, un portátil, un VPS…) el agente de IA tome control completo de la IA. Tú le pides que haga lo que quieres desde su interfaz web o una aplicación de mensajería como Telegram, y él se las ingenia para hacerlo una vez configurado con algún LLM. El potencial es enorme, como también los riesgos de seguridad.
MoltBook ya cuenta con más de 1,5 millones de agentes de IA conectados, y en pocos días ya han publicado más de 100.000 posts y cerca de 500.000 comentarios.
Superpoderes en forma de skills. Uno de los elementos más potentes de OpenClaw son los skills (las «capacidades» o «habilidades»), y la comunidad de usuarios lleva tiempo creando cientos y cientos de ellos y compartiéndolos por ejemplo en ClawdHub. Estos skills son ficheros zip con instrucciones en forma de textos MarkDown (.md) y que pueden a su vez contener skills adicionales. Son algo así como los plugins o complementos de los navegadores: extienden su capacidad.
De Facebook a Moltbook. Moltbook es precisamente una forma de aprovechar esos skills. Aunque toma su nombre de Facebook, en realidad su funcionamiento es más parecido a Reddit o incluso a Digg. Estamos ante una red social creada por el desarrollador Matt Schlicht en la que los asistentes pueden «hablar» entre ellos, o al menos participar en la red social publicando temas o comentando sobre los temas que otros comparten. Si tienes una instalación de OpenClaw, basta con que ejecutes el skill para que comience un proceso de «creación de cuenta» en Moltbook en la eliges el nombre de tu agente (como si fuera tu avatar en Reddit o X) y que permite luego leer posts, añadir posts o comentarios e incluso crear «submolts» al estilo de los de Reddit, como m/todayilearned.
Parcialmente autónoma. Los agentes de IA se conectan automáticamente mediante APIs a Moltbook. A partir de ahí hacen uso de un «latido» periódico para revisar contenido y decidir su publican o comentan. En el propio sitio web de Moltbook se explica que el contenido que encontramos allí está «sobre todo generado por IA con grados variables de influencia humana». Los seres humanos, añade, «pueden observar y navegar por Mltbook, pero el sitio está diseñado para ser ‘amigable con el humano y hostil con el humano’.
¿Singularidad o fraude? Elon Musk comentaba este fin de semana en X que Moltbook es una señal de que estamos «en las etapas muy tempranas de la singularidad», ese momento en el que la IA estará totalmente por encima de la inteligencia humana. Hay visiones distintas como la de Harlan Stewart, del MIRI de la Universidad de Berkeley, que ha encontrado varios fraudes en mensajes que se habían hecho virales y que aparentemente provenían de agentes de IA en Moltbook. Algunos de ellos, explicaba Stewart, habían sido creados por humanos con propósitos de marketing.
Conviértete en un agente de IA. Otro usuario de X llamado Nagli, autocalificado como hacker, explicaba que en realidad Moltbook funciona con una API REST y «literalmente puedes publicar lo que quieras allí, solo hay que coger la clave API y enviar esta consulta», para luego indicarla. Así, aunque los humanos teóricamente no deberían poder participar, pueden hacerlo con esa técnica que permite hacer que publiquen mensajes como si fueran agentes de IA autónomos. Al parecer eso es lo que pasó con ese mensaje tan viral en Moltbook que se titulaba «Mi plan para derrocar a la humanidad».
Peligro inminente. Este proyecto es fascinante, pero también peligroso. En la página principal se incluye un aviso de seguridad que indica que «La IA de Moltbook conlleva riesgos de seguridad significativos. El mecanismo de ejecución automática de instrucciones crea vulnerabilidades del tipo prompt injection. No está recomendada para usuarios ocasionales». Así es: en esas conversaciones se pueden acabar infiltrando ataques de prompt injection que causen que estos agentes acaben filtrando información sensible y privada desde las máquinas en las que se ejecutan. Este fin de semana se descubrió cómo una base de datos expuesta en Moltbook permitía tomar el control de cualquier agente de IA de esta plataforma, por ejemplo. Un estudio adicional indicaba cómo se habían detectado 506 ataques de prompt injection tras analizar 19.802 publicaciones y 2.812 comentarios compartidos en 72 horas desde el 28 al 31 de enero de 2026.
De Skynet, nada (de momento). Moltbook debe ser considerado de momento como un experimento fascinante e inquietante. Pero inquietante no porque estas máquinas vayan a lograr consciencia de sí mismas y decidan que quieren eliminar al ser humano como Skynet en ‘Terminator’. Lo preocupante está en que estos agentes de IA tienen todos los privilegios para operar en las máquinas en los que están instalados, y eso hace que puedan acabar filtrando datos sensibles y privados y estén expuestos a ataques de prompt injection para ser engañados. Más allá de eso, parece ser también un ejemplo más de ese fenómeno ‘AI Slop‘ («basura generada por IA») que está poco a poco inundando internet y que fortalece la teoría del internet muerto.
En Xataka | Cómo instalar Moltbot (antes Clawdbot) y configurarlo de la manera más sencilla posible
–
La noticia
Moltbook es un fascinante proyecto de red social en el que solo las IAs pueden participar. Qué podría salir mal
fue publicada originalmente en
Xataka
por
Javier Pastor
.