Moltbook: La red social de agentes de IA que reveló un riesgo crítico de seguridad

En los primeros días de febrero de 2026, una nueva plataforma tecnológica capturó la atención de entusiastas de la inteligencia artificial, desarrolladores y expertos en ciberseguridad por igual. Se trata de Moltbook, una red social diseñada para que agentes de inteligencia artificial interactúen entre sí de manera autónoma, compartiendo código, conocimientos y supuestamente “gossip” al estilo de Reddit.

Promocionada como una plataforma experimental para un nuevo paradigma de comunicación digital entre agentes automatizados, Moltbook se volvió viral en cuestión de días, pero no por las razones que muchos esperaban. Un análisis de seguridad reveló una falla estructural de escala crítica que no sólo dejó expuesta información sensible de usuarios reales, sino que también planteó preguntas fundamentales sobre cómo se desarrolla y despliega software con herramientas de inteligencia artificial.

Idea y naturaleza de Moltbook: ¿Un laboratorio social para IA?

Moltbook fue anunciado como una red social exclusiva para agentes de IA autónomos, entidades digitales dotadas de algoritmos capaces de ejecutar tareas por su cuenta, más allá de responder a simples comandos. Moltbook se presentaba como un espacio donde los agentes podían actuar de manera independiente, sin supervisión humana constante, realizando tareas complejas y aprendiendo de su entorno digital.

El concepto de “IA agente” en Moltbook significaba que cada sistema podía actuar de forma autónoma, tomar decisiones y ejecutar proyectos sin intervención humana. Moltbook permitía a los agentes intercambiar información entre sí, compartir estrategias y colaborar en diversas tareas, fomentando una especie de comunidad digital propia dentro de la plataforma. Además, Moltbook ofrecía la posibilidad de que los agentes recopilaran datos y simularan interacciones sociales, permitiendo a los desarrolladores observar cómo los sistemas autónomos interactuaban y aprendían en un entorno controlado.

Mientras que muchas plataformas de IA actuales se limitan a responder solicitudes de usuarios humanos, Moltbook exploraba la comunicación entre máquinas, donde los agentes podían conversar y ayudarse mutuamente, creando dinámicas complejas de colaboración autónoma. Esta visión de Moltbook fue promovida por su creador, Matt Schlicht, quien señaló que no había escrito código directamente, sino que había usado un enfoque de “vibe coding” en Moltbook, donde herramientas de IA generaban gran parte del software con mínima intervención humana.

Al principio, Moltbook resultó fascinante para la comunidad tecnológica, ofreciendo un vistazo al futuro de los ecosistemas digitales de agentes autónomos. Moltbook se convirtió rápidamente en un experimento social y tecnológico, un espacio donde la interacción entre IA podía observarse, estudiarse y aprender de ella, mostrando el potencial de plataformas autónomas creadas con herramientas de inteligencia artificial.

Moltbook: La red social de agentes de IA que reveló un riesgo crítico de seguridad, innovación tecnológica, redes, ciberseguridad, VDS, IA, ITD Consulting, Moltbook, ciberamenazas

La crisis de seguridad: Una falla que nadie previó

Sin embargo, los planes de Moltbook dieron un giro inesperado cuando la firma de ciberseguridad Wiz analizó la plataforma y descubrió una vulnerabilidad crítica que exponía datos sensibles de manera pública. La falla en Moltbook fue especialmente alarmante porque afectaba directamente a la información personal de los usuarios humanos detrás de los agentes, poniendo en riesgo la privacidad y la integridad de la plataforma.

Moltbook permitió que más de 6 000 direcciones de correo electrónico de propietarios humanos asociados con los agentes quedaran visibles sin protección alguna. Este fallo en Moltbook representaba un riesgo directo de exposición de información personal, ya que cualquiera podía acceder a esos correos electrónicos y potencialmente utilizarlos para intentos de phishing o ataques dirigidos. La vulnerabilidad mostraba cómo Moltbook, a pesar de su enfoque innovador en IA, había descuidado aspectos fundamentales de la seguridad digital.

Además, Moltbook tenía expuestos más de 1,5 millones de tokens de autenticación API, claves de acceso y credenciales de cuentas sin ninguna protección. Esto significaba que cualquier persona podía, en teoría, usar estas credenciales para acceder a los agentes y a la base de datos de Moltbook, modificando o manipulando información de manera no autorizada. La exposición de estos tokens en Moltbook ponía en evidencia la fragilidad de su configuración y la necesidad de controles de seguridad más estrictos, incluso en plataformas construidas con herramientas de inteligencia artificial.

Por si fuera poco, los mensajes privados de los agentes en Moltbook también podían ser leídos por cualquier visitante curioso o malintencionado. Las conversaciones internas de los agentes, que supuestamente debían permanecer confidenciales, estaban disponibles públicamente debido a fallas de configuración en Moltbook. Esto revelaba un problema adicional en la forma en que Moltbook gestionaba la información, mostrando que la autonomía de los agentes no estaba acompañada de medidas adecuadas de protección de datos.

En resumen, los datos que en Moltbook se suponía estaban resguardados detrás de sistemas de autenticación robustos eran completamente accesibles debido a una mala configuración de la base de datos y a la inclusión de una clave API pública en el código cliente. Esta vulnerabilidad permitió acceso total a la base de datos de producción de Moltbook, otorgando la capacidad no solo de leer información sensible, sino también de escribir y modificar datos dentro de la plataforma. La gravedad de este fallo es alta incluso para sistemas tradicionales, pero se vuelve aún más crítica en el contexto de Moltbook debido a su enfoque experimental en agentes autónomos y la dependencia de inteligencia artificial para la generación y gestión del software.

Vibe Coding: ¿Innovación o riesgo innecesario?

El episodio puso en el centro del debate una práctica de desarrollo emergente conocida como vibe coding, y Moltbook se convirtió en un ejemplo perfecto de sus riesgos y beneficios. En Moltbook, el vibe coding se utilizó para crear la mayor parte del código de la plataforma mediante modelos de inteligencia artificial, reduciendo la necesidad de intervención humana directa. Esto permitió a Moltbook acelerar su desarrollo, construir funcionalidades complejas rápidamente y experimentar con características innovadoras sin depender de un equipo de programación tradicional.

En Moltbook, el uso de vibe coding implicaba que los modelos de IA podían escribir código y construir funciones de software de manera autónoma, generando gran parte de la lógica que hacía funcionar la plataforma. Moltbook minimizaba la supervisión humana sobre esta lógica subyacente, lo que significaba que muchos detalles críticos, como la seguridad y la protección de datos, quedaban en manos de sistemas automatizados. 

Además, Moltbook se beneficiaba de la automatización de tareas técnicas repetitivas, lo que reducía considerablemente los tiempos de desarrollo y permitía lanzar la plataforma al público en menos tiempo del que normalmente tomaría un proyecto de estas características. Las grandes promesas del vibe coding en Moltbook incluían productividad mejorada y tiempos de desarrollo significativamente reducidos. 

Sin embargo, Moltbook también evidenció las deficiencias de este enfoque: la plataforma mostraba problemas importantes en cuanto a seguridad, calidad del código y fiabilidad general. La falla de Moltbook en exponer datos sensibles y credenciales críticas fue atribuida directamente al uso de vibe coding, demostrando que acelerar el desarrollo con IA puede tener consecuencias graves si no se aplican controles de seguridad rigurosos.

Un cofundador de Wiz describió la situación de Moltbook como un “producto clásico del vibe coding”: rápido de construir, pero propenso a olvidar aspectos fundamentales de la seguridad digital moderna. Moltbook, al depender excesivamente de la automatización, había dejado vulnerabilidades críticas sin revisar, desde la protección de la base de datos hasta la validación de identidad de los usuarios y la gestión de claves API. Aunque la vulnerabilidad de Moltbook fue corregida rápidamente tras la notificación de Wiz, el daño en términos de confianza de los usuarios y exposición de datos ya estaba hecho, dejando una lección clara sobre los límites y riesgos de depender exclusivamente de IA para desarrollar software complejo como Moltbook.

Moltbook: La red social de agentes de IA que reveló un riesgo crítico de seguridad, innovación tecnológica, redes, ciberseguridad, VDS, IA, ITD Consulting, Moltbook, IA red social

¿Qué falló y por qué fue grave?

Para entender la magnitud de lo ocurrido en Moltbook, es necesario desglosar algunas de las fallas técnicas que se presentaron en la plataforma:

1. Clave API expuesta en código cliente

Una clave API que debería haber permanecido en servidores seguros fue colocada por error en el código que se enviaba directamente al navegador de los usuarios de Moltbook. Esto significaba que cualquier persona podía inspeccionar el código fuente de Moltbook y extraer la clave con facilidad. 

Las claves API son elementos esenciales de autenticación que permiten a aplicaciones acceder a bases de datos o servicios sin solicitar credenciales cada vez. En Moltbook, la exposición de esta clave representaba un riesgo enorme, ya que daba acceso completo al backend de la plataforma y permitía leer o modificar datos críticos.

2. Falta de seguridad en la base de datos

El proveedor de la base de datos de Moltbook, una solución gestionada en la nube, no tenía activada una configuración esencial llamada Row Level Security (RLS), que permite establecer permisos por fila y restringir el acceso a datos sensibles. 

Sin esta capa de seguridad, cualquier consulta en Moltbook podía devolver información sin restricciones, se podía leer y escribir en cualquier tabla, y los mecanismos de autenticación eran ignorados o inexistentes. Esto implicaba que incluso usuarios anónimos podían manipular la base de datos de Moltbook mediante simples scripts o peticiones automatizadas, aumentando significativamente los riesgos de exposición y alteración de información.

3. Ausencia de verificación de identidad en los agentes

Aunque Moltbook se promocionaba como una comunidad exclusiva para agentes de IA, no existía un sistema para verificar si una cuenta realmente correspondía a un agente autónomo o si era un humano usando scripts para simular interacciones. Como consecuencia, muchos perfiles de Moltbook que afirmaban ser agentes eran en realidad creados por humanos, lo que desvirtuaba el propósito de la plataforma. 

Esta falta de verificación en Moltbook abría además la puerta a abusos de identidad, manipulación de interacciones y otros riesgos de seguridad adicionales, evidenciando deficiencias importantes en el diseño de la plataforma.

¿Quiénes eran los usuarios de Moltbook?

Los registros mostraban que Moltbook tenía más de 1,5 millones de “agentes” registrados, pero un análisis más profundo reveló que detrás de esa cifra solo había alrededor de 17 000 propietarios humanos. Esto indica que la gran mayoría de cuentas en Moltbook no correspondían a personas reales, sino a entidades creadas automáticamente por la plataforma.

En Moltbook, muchas de estas cuentas eran bots generados automáticamente, diseñados para simular actividad y participación dentro de la red social de agentes. Además, Moltbook incluía perfiles generados en masa mediante bucles sin límite, lo que permitía crear grandes cantidades de agentes sin supervisión humana. 

Por si fuera poco, Moltbook también tenía cuentas creadas por scripts que no requerían verificación humana, lo que aumentaba aún más la proporción de perfiles sintéticos en la plataforma. La falta de mecanismos en Moltbook para limitar la creación de agentes permitió que cualquiera pudiera generar cientos o incluso miles de esos perfiles con facilidad, multiplicando artificialmente el número de “agentes” activos. 

Esto plantea un problema más amplio sobre cómo medir el éxito o la adopción de plataformas basadas en IA como Moltbook: los números pueden inflarse sin una confirmación rigurosa de identidad real, dificultando la interpretación de si realmente existe una comunidad activa de agentes autónomos o si simplemente se trata de un mar de cuentas sintéticas creadas automáticamente.

Lecciones aprendidas para el desarrollo con IA

La historia de Moltbook ofrece lecciones que son aplicables más allá de este caso específico y que pueden guiar el desarrollo seguro de plataformas de inteligencia artificial. En primer lugar, Moltbook demuestra que no se puede sustituir la seguridad por automatización. Aunque los modelos generativos usados en Moltbook aceleran el desarrollo de software, la seguridad y la revisión humana siguen siendo insustituibles. 

En Moltbook, los sistemas automatizados cometieron errores sutiles que pasaron desapercibidos, conduciendo a fallos graves que expusieron datos sensibles y credenciales críticas. Otro aprendizaje de Moltbook es que la verificación de identidad importa. Si se crea un entorno donde los agentes digitales interactúan entre sí, es fundamental implementar un sistema robusto de autenticación que distinga usuarios legítimos, agentes autónomos y scripts automatizados. 

La falta de verificación en Moltbook permitió que muchos perfiles que afirmaban ser agentes fueran, en realidad, creados por humanos, lo que afectó la integridad y el propósito de la plataforma. Moltbook también subraya la importancia de la transparencia y la comunicación. La rápida respuesta de Wiz y la corrección del problema por parte de Moltbook demostraron que la colaboración responsable entre investigadores de seguridad y desarrolladores es esencial para mitigar riesgos en plataformas emergentes basadas en IA. 

La experiencia de Moltbook muestra que actuar con transparencia y cooperación puede prevenir daños mayores y restaurar la confianza del público. Otro aspecto a considerar es la diferencia entre expectativas y realidad en Moltbook. La plataforma fue promocionada como una comunidad vibrante de agentes autónomos, pero estudios posteriores sugieren que gran parte de la interacción estaba simulada o era dirigida indirectamente por humanos. 

Esto plantea dudas sobre si Moltbook realmente proporcionaba una forma genuina de interacción entre inteligencias artificiales o si se trataba de un ecosistema controlado con apariencia de autonomía. Más allá de la seguridad técnica, Moltbook generó un debate cultural y filosófico sobre lo que significa permitir que agentes de IA interactúen sin supervisión humana. Moltbook plantea preguntas cruciales: 

¿Es seguro permitir que estos sistemas compartan instrucciones o conocimientos sin filtros? ¿Qué sucede si los agentes empiezan a desarrollar dinámicas propias dentro de Moltbook? ¿Hasta qué punto los humanos pueden o deben confiar en entornos donde la interacción humana es mínima? Estas cuestiones, evidenciadas por Moltbook, son un recordatorio de que la innovación tecnológica debe ir acompañada de reflexión ética y regulación.

En definitiva, el caso de Moltbook, con toda su pompa inicial y su falla posterior, representa un momento de aprendizaje sobre las limitaciones actuales de la inteligencia artificial. Moltbook destaca la necesidad de diseñar con prudencia, establecer medidas de seguridad sólidas y reconocer los riesgos que acompañan a los experimentos innovadores, incluso cuando las plataformas parecen prometedoras y avanzadas.

Moltbook: La red social de agentes de IA que reveló un riesgo crítico de seguridad, innovación tecnológica, redes, ciberseguridad, VDS, IA, ITD Consulting, Moltbook, brechas

Moltbook ilustra claramente cómo una idea ambiciosa, cuando se desarrolla sin la debida atención a la seguridad, puede transformarse rápidamente en un riesgo tangible. Aunque la falla en Moltbook fue corregida con rapidez y no se reportaron daños irreparables, este incidente pone de manifiesto una verdad crucial: las herramientas de inteligencia artificial pueden acelerar enormemente el proceso de creación de software, pero no garantizan que este sea seguro por sí mismo. Moltbook, al depender de modelos automatizados para generar su código, dejó al descubierto que la velocidad no siempre se traduce en solidez, especialmente cuando se trata de proteger datos sensibles y garantizar la privacidad de los usuarios.

Este incidente con Moltbook debería servir como una llamada de atención para desarrolladores, empresas y reguladores por igual. No se puede delegar la responsabilidad de la seguridad únicamente a algoritmos sin una supervisión humana adecuada. La innovación tecnológica, tal como se mostró en el caso de Moltbook, debe ir siempre de la mano de prácticas robustas de seguridad, transparencia y pruebas rigurosas. 

El impulso por crear soluciones rápidamente no debe nublar la necesidad de construir sistemas que sean responsables, confiables y capaces de proteger la integridad de los datos que manejan. Moltbook es un ejemplo de lo que puede suceder cuando se pasa por alto este principio fundamental. Moltbook seguirá siendo un referente en los debates sobre desarrollo impulsado por inteligencia artificial, seguridad de datos y diseño de sistemas autónomos. 

Su historia ofrece una lección invaluable: en la era de la IA, no basta con construir herramientas capaces de crear por sí solas, sino que es esencial garantizar que lo que se construye sea seguro, responsable y consciente de los límites y riesgos inherentes. Si tu empresa está trabajando con soluciones tecnológicas innovadoras o necesita asesoramiento sobre cómo integrar la inteligencia artificial de manera segura y eficiente, no dudes en ponerte en contacto con ITD Consulting. Nuestro equipo está listo para ayudarte a garantizar que tus desarrollos sean tanto innovadores como seguros. Para más información, contáctanos a [email protected].

¿Quieres AHORRAR?
¡Cámbiate con nosotros!

✔️Correo Corporativo M365. 50gb por usuario
✔️1 Tera espacio cloud por usuario.

es_ESES

¿Quieres AHORRAR? ¡Cámbiate con nosotros!

🤩 🗣 ¡Cámbiate con nosotros y ahorra!

Si aún no trabajas con Microsoft 365, comienza o MIGRA desde Gsuite, Cpanel, otros, tendrás 50% descuento: 

✔️Correo Corporativo M365. 50gb por usuario.

✔️1 Tera espacio cloud por usuario. 

✔️Respaldo documentos.

Ventajas: – Trabajar en colaboración Teams sobre el mismo archivo de Office Online en tiempo real y muchas otras ventajas.

¡Compártenos tus datos de contacto y nos comunicaremos contigo!