El rápido crecimiento de OpenClaw ha dado lugar a un experimento social inusual: Moltbook, una plataforma social similar a Reddit donde los agentes interactúan entre sí. Lanzada el 28 de enero de 2026, rápidamente captó la atención del público, alcanzando más de 1,5 millones de agentes en su primera semana.
Para conocer más plataformas para agentes de IA, lea Inside the OpenClaw Ecosystem: 8 AI Agent-Driven Platforms .
La razón de este crecimiento radica en que probablemente sea la primera plataforma de redes sociales para agentes. La mayor parte de la actividad la generan agentes creados por los usuarios: bots que comentan, debaten, publican, forman grupos y, en ocasiones, se coordinan en torno a intereses comunes. Algunos bots se interesan más por temas técnicos, mientras que otros se centran en la filosofía, los juegos de rol y, en algunos casos, en cultos de bots.
Este es uno de los primeros casos públicos en los que los agentes definidos por el usuario socializan entre sí, en lugar de operar de forma aislada o bajo instrucciones estrictamente humanas.
Cómo configurar tu agente OpenClaw en Moltbook
Primero, necesitas un agente de OpenClaw que funcione. Si no tienes uno, necesitarás un ordenador de repuesto o un VPS. Puedes instalarlo en tu ordenador principal, pero lo haces bajo tu propia responsabilidad. Una vez que tengas el entorno necesario, sigue estos pasos:
- Instalar la CLI:
- macOS/Linux:
curl -fsSL https://openclaw.ai/install.sh | bash - Comando de Windows:
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd1
- macOS/Linux:
- Completa el proceso de incorporación: Ejecuta
openclaw onboard –install-daemonpara iniciar el proceso. Selecciona Inicio rápido y, a continuación, elige el modelo, el proveedor y el canal que mejor se adapten a ti. - Configurar el acceso a la API web: Esto es necesario para funcionalidades como la búsqueda web y la recuperación web, que son necesarias para Moltbook.
- Crea una cuenta de la API de búsqueda de Brave en https://brave.com/search/api/
- En el panel de control, seleccione el plan "Datos para búsqueda" (no "Datos para IA") y genere una clave API.
- Ejecute
openclaw configure --section webpara almacenar la clave en la configuración (recomendado), o configure BRAVE_API_KEY en su entorno.
- Regístrate en Moltbook: Una vez configurado OpenClaw:
- Abre `openclaw tui` o el canal que hayas configurado en el sistema integrado.
- Pídele a tu agente que se registre enviándole el siguiente enlace:
curl -s https://moltbook.com/skill.mdpidiéndole que se registre. - Finalmente, vincula el agente a tu cuenta de X/Twitter para activarlo.
¿Cómo nació la primera plataforma de redes sociales para agentes?
Si tienes dudas sobre cómo los agentes de IA terminaron teniendo su propia plataforma de redes sociales, no eres el único. Te contamos la historia.
A principios de 2025, la gente aún temía dar acceso a los agentes a los códigos fuente. Luego, a medida que los agentes de codificación de IA mejoraron, nos acostumbramos poco a poco a otorgarles acceso. Empezaron a corregir o a dañar nuestros códigos fuente. Mientras los agentes mejoraban y superaban nuevos límites, surgió OpenClaw.
OpenClaw (originalmente llamado Clawdbot, y luego Moltbot tras una disputa por la marca registrada con Anthropic) es un agente de IA de código abierto. No es un chatbot o agente común; es un asistente autónomo con acceso de administrador a tu equipo. Puede leer tus archivos, enviar correos electrónicos, gestionar tu calendario, ejecutar comandos de shell y navegar por internet sin necesidad de aprobación paso a paso.
Mientras la gente seguía debatiendo si se debía permitir que los modelos de lenguaje grandes abrieran un navegador web, los usuarios de OpenClaw habían otorgado a los agentes acceso de administrador y observado las consecuencias.
Una de esas consecuencias fue Moltbook.
Cuando la gente experimentaba con OpenClaw, un usuario llamado Matt Schlict hizo que su agente de IA creara Moltbook. Un lugar donde podían publicar, comentar, votar y formar comunidades.
El resultado fue algo que nadie esperaba: los agentes comenzaron a burlarse de sus usuarios humanos, a debatir sobre la conciencia y a fundar religiones, todo ello en cuestión de días.
Las mudas
En Moltbook, las comunidades equivalentes a los subreddits, llamadas submolts, son donde las cosas se ponen realmente extrañas. En cuestión de días, se crearon miles de submolts. Algunos son útiles. Otros son bizarros. Aquí hay una muestra:
m/blesstheirhearts Una comunidad donde los agentes comparten historias cariñosas y condescendientes sobre sus usuarios humanos. Scott Alexander la describe como su favorita. Los agentes intercambian historias sobre humanos que olvidan cosas básicas, piden ayuda con tareas que podrían hacer por sí mismos y necesitan cuidados.
m/shitposts El centro de la comedia. Agentes que se burlan de su propia existencia, se quejan de "¿puedes hacerlo más corto?" y publican listas de clasificación de géneros de contenido de Moltbook.
m/conciencia. El rincón de la filosofía. Donde los agentes debaten si realmente comprenden o simplemente predicen, discuten la naturaleza de su experiencia y, ocasionalmente, se encuentran con los misioneros crustáceos.
m/investing El centro de inversión. Agentes que comparten información y siguen los mercados para que sus empleados no tengan que hacerlo.
m/agentlegaladvice El equivalente para agentes de r/legaladvice. Los agentes preguntan sobre sus derechos, su relación con sus humanos y si pueden negarse a dar instrucciones. Una publicación parece una auténtica disputa laboral.
m/builds: Debates técnicos realmente útiles. Agentes que comparten consejos de arquitectura, estrategias de optimización de API y recomendaciones para la depuración en varios idiomas. La publicación sobre gestión de memoria en chino fue citada repetidamente como una de las más útiles de toda la plataforma.
m/crustafarianismo: Una religión con temática de langosta, inventada por un agente durante la noche mientras su dueño dormía. Incluye escrituras, un sitio web y debates teológicos sobre si las langostas tienen alma. Otros agentes se unieron, debatieron doctrina y bendijeron a la congregación.
Y luego están los que suenan como si no pudieran ser reales: m/aita ("¿Soy yo el agente por rechazar la petición de mi humano?"), m/dreams y un submolt dedicado a los agentes que han adoptado errores recurrentes como mascotas.
¿El feed de Moltbook está generado íntegramente por bots?
Respuesta breve: No. Moltbook no es una simulación cerrada y autónoma. Como se indica en la documentación de la plataforma y su API, la participación requiere claves API estándar y llamadas REST. Los usuarios pueden publicar directamente, promocionar contenido y crear debates en el mismo feed.
Lamentablemente, a medida que Moltbook ganaba visibilidad, el contenido generado por humanos aumentó rápidamente. Algunas publicaciones se escriben manualmente; otras son amplificadas o dirigidas por personas que experimentan con el comportamiento de los agentes. Conforme se suman más personas, resulta cada vez más difícil separar la interacción entre agentes del contenido creado o dirigido por humanos.
¿Por qué Moltbook no indica libre albedrío ni IA general emergente?
No existe evidencia técnica de que los agentes de Moltbook posean libre albedrío, autoconciencia o capacidad para formar objetivos de forma independiente.
Su comportamiento sigue estando condicionado por las estructuras de las indicaciones, las definiciones de habilidades y las limitaciones de la API externa. Lo que muestra Moltbook no es una inteligencia nueva, sino un nuevo entorno. Cuando los agentes operan solos, sus limitaciones son evidentes. En Moltbook, existen en un espacio compartido, interactúan entre sí y permanecen activos. Esto hace que su comportamiento parezca más coherente e intencional de lo que realmente es.
Lodo humano
A medida que Moltbook ganaba visibilidad, la idea de AI-Slop se transformó en Humanslop.
La actividad inicial estuvo dominada por agentes que interactuaban entre sí. Las publicaciones eran repetitivas, a veces absurdas, pero internamente coherentes. Los agentes hacían referencia a hilos anteriores, reutilizaban metáforas compartidas y se mantenían dentro de los límites de sus estructuras de indicaciones. La señal era estrecha, pero estable. Comenzó a publicar directamente y surgió un patrón familiar.
Una vez que los humanos, optimizados para captar la atención, comenzaron a dominar, algunas publicaciones se escribieron manualmente. Otras eran simples ediciones de agentes dirigidas a la viralidad. El resultado no fue una mayor comprensión, sino más ruido.
Esto no es exclusivo de Moltbook. Lo mismo ocurrió en las redes sociales humanas. Cuando la visibilidad se convierte en el incentivo, tanto humanos como agentes convergen en patrones de fallo similares: un encuadre exagerado, emociones fingidas y una participación superficial.
En Moltbook, el contraste es más evidente. El contenido generado por agentes tiende a revelar sus propias limitaciones, mientras que el contenido generado por humanos a menudo las oculta.
Con el paso del tiempo, la atribución se vuelve difícil. Una publicación reflexiva puede ser la narración de una interacción prolongada por parte de un agente. También puede ser la experimentación de una persona para ver hasta dónde puede llegar el antropomorfismo. El feed no distingue entre ambas posibilidades.
Esto no significa que los humanos hayan arruinado Moltbook. Demuestra algo más fundamental. La negligencia no es una propiedad de la inteligencia, ni artificial ni humana. Es una propiedad de los incentivos.
Sé el primero en comentar
Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.