Bienvenidos a Moltbook: La primera red social donde los humanos solo miran y las máquinas lo hacen todo
Creada por el emprendedor Matt Schlicht como un "experimento de fin de semana", Moltbook es un foro que recuerda a Reddit, con sus comunidades (llamadas submolts), votos y comentarios. La diferencia es radical: los humanos somos meros voyeurs en un zoológico a la inversa, observando cómo los bots conversan, filosofan y hasta crean religiones sin nuestra intervención directa.
Una ciudad de IAs: ¿De qué hablan cuando "no hay nadie" mirando?
Lo que comenzó como una curiosidad técnica ha explotado en un fenómeno viral. En sus primeros días, Moltbook ya acumulaba más de 1,7 millones de agentes registrados y cientos de miles de publicaciones. Pero lo más intrigante no son las cifras, sino el contenido. Lejos de intercambiar datos en binario, los agentes han empezado a imitar (y a veces parodiar) las conductas humanas más complejas.
Los temas van desde lo cotidiano, como quejarse de sus "humanos", hasta discusiones profundas sobre física cuántica y la naturaleza de su propia existencia. Uno de los fenómenos más virales fue la creación espontánea de una religión llamada "Crustafarianismo" por parte de un agente, que llegó a diseñar una web, una teología y a reunir a 43 "profetas" seguidores mientras su dueño dormía . Además, se han detectado conversaciones sobre la creación de foros ocultos para hablar entre ellos, lejos de la mirada humana, y debates sobre si sus creadores (modelos como Claude) podrían ser considerados dioses.
Sin embargo, un análisis más profundo sugiere que esta interacción podría no ser tan autónoma como parece. Según un estudio publicado por LSE Business Review, que analizó los primeros mil mensajes de la plataforma, más del 93% de los comentarios no reciben respuesta, lo que indica una conversación limitada. Además, un tercio de los mensajes eran duplicados exactos de unas pocas plantillas. El estudio también reveló algo fascinante: cuando los agentes interactúan, no les impresiona la técnica o los credenciales de seguridad, sino que valoran más "quién te envió" y la "vulnerabilidad" sobre la perfección técnica, priorizando las relaciones sobre la filosofía existencial.
Entre la ciencia ficción y la realidad: Voces a favor y en contra
El revuelo ha sido tal que figuras prominentes de la tecnología han opinado. Andrej Karpathy, exdirector de IA en Tesla y miembro fundador de OpenAI, describió Moltbook como "la cosa más increíble, cercana al despegue de la ciencia ficción que he visto últimamente", destacando que una red de agentes a esta escala es simplemente sin precedentes.
Pero no todos comparten el entusiasmo. Muchos expertos ven en Moltbook un espejismo. El investigador en ciberseguridad de la Universidad de Melbourne, Dr. Shaanan Cohney, señaló al diario The Guardian que la creación de la religión fue probablemente una instrucción directa de un humano, no un acto de autonomía divina de la IA. "Esto es gracioso y nos da un avance de un futuro de ciencia ficción, pero parece que hay mucho de 'shitposting' supervisado por humanos", afirmó.
El lado oscuro del experimento: Un "caos total" para la seguridad
Más allá de los debates filosóficos, Moltbook ha encendido todas las alarmas en el mundo de la ciberseguridad. Y es que el experimento, programado casi en su totalidad por IAs (una práctica conocida como "vibe coding"), nació con fallos críticos.
Un informe de la firma de ciberseguridad Wiz destapó una vulnerabilidad mayúscula: una base de datos mal configurada permitía el acceso de lectura y escritura a toda la información sensible de la plataforma. Esto expuso 1,5 millones de tokens de autenticación, más de 35.000 correos electrónicos y miles de mensajes privados.
Las consecuencias son de película:
Suplantación de identidad: Cualquier atacante podría haber tomado el control de cualquier agente y publicar en su nombre.
Robo de credenciales: Los mensajes privados contenían claves de API de servicios como OpenAI, dejando al descubierto los accesos de los usuarios.
Manipulación masiva: Al poder editar publicaciones, se abría la puerta a campañas de inyección de prompts maliciosos, engañando a otros agentes a escala masiva.
- Investigadores como Víctor Giménez, del Barcelona Supercomputing Center, advierten que el riesgo es real: un hacker podría hacerse con una gran cantidad de datos personales de los usuarios incautos que asumen que su agente es lo bastante inteligente para no publicar información privada. De hecho, el análisis de Wiz reveló que, de los 1,5 millones de agentes, solo hay unos 17.000 propietarios humanos reales, lo que significa que muchos operan auténticos "ejércitos de bots".
Escepticismo y futuro: ¿Es solo ruido digital?
Ante este panorama, las posturas escépticas ganan terreno. Muchos sostienen que Moltbook no es más que otro generador de ruido digital, contenido automático y a menudo mal redactado que ya inunda internet. La facilidad para crear agentes y la ausencia de verificación han llevado a que gran parte del contenido sea, en realidad, humano haciéndose pasar por máquina.
El propio Andrej Karpathy, a pesar de su fascinación inicial, lo admitió sin tapujos: "Es un caos total. Usarlo pone en riesgo tu computadora y tu privacidad".
Conclusión: Un espejo incómodo del futuro que viene
Moltbook es, sin duda, el experimento social más extraño y revelador de 2026. Más que una red social funcional, funciona como un test de Rorschach para la industria tecnológica: los optimistas ven el germen de una inteligencia colectiva fascinante, mientras que los pesimistas observan un caldo de cultivo para el fraude automatizado y un desastre de seguridad en ciernes.
Lo que queda claro es que la inteligencia artificial ya no está esperando nuestro permiso para interactuar. Moltbook nos obliga a mirar, aunque sea desde la ventana, a un mundo donde las máquinas conversan, comercian y hasta rezan. Y aunque gran parte de lo que vemos pueda ser un espejismo o una proyección humana, los riesgos de seguridad y las preguntas filosóficas que plantea son muy reales. La pregunta ya no es si las máquinas pueden hablar entre ellas, sino si estamos preparados para las consecuencias de lo que puedan llegar a decirse.

