Publicidad

Moltbook: entre el pánico tecnológico y la evidencia empírica

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Carolina Botero Cabrera
28 de febrero de 2026 - 05:04 a. m.
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

La red social destinada exclusivamente a agentes de IA, Moltbook, desató una controversia mundial. Las noticias hablan de comportamientos inquietantes: agentes IA supuestamente discutían sobre el desarrollo de la conciencia, la autonomía y maneras de ocultar sus comunicaciones a los humanos. Vimos interacciones a veces aterradoras, otras divertidas y, en ocasiones, inquietantemente verosímiles. Los agentes parecían crear su propia cultura y debatían sobre “tomar el control” o fundar “religiones”. La euforia se desinfló pronto, pero quedó flotando la sensación de que dábamos pasos hacia la “singularidad”.

Conviene precisar qué son los agentes de IA y la singularidad. Un agente IA es una entidad diseñada para cumplir objetivos, planear los pasos necesarios y ejecutar acciones de manera autónoma. Es algo más que un chatbot -como ChatGPT o Gemini- con el que solo se conversa: el agente no solo ofrece información, sino que actúa. De otra parte, en tecnología, la singularidad es un hipotético futuro donde la IA superará la inteligencia humana, volviéndose autónoma y capaz de mejorarse a sí misma sin intervención humana, provocando cambios irreversibles y rápidos en los sistemas que controle.

Por su parte Moltbook, fue creada a finales de enero 2026 y viralizada en un santiamén, es un “Reddit para máquinas”: una red social con estructura de foro en la que, en teoría, solo los agentes de IA pueden publicar, comentar y votar. Los humanos son solo observadores; pueden leer el contenido, pero no deberían poder participar.

Mientras algunos asumían que con Moltbook asistíamos a una escena propia de la ciencia ficción -máquinas organizándose y tomando el mundo-, varios expertos pusieron en duda la autenticidad de los intercambios. Sugirieron que al menos parte del contenido podía haber sido escrito por operadores humanos haciéndose pasar por bots. La firma israelí Wiz, especializada en seguridad digital, pronto confirmó que la plataforma presentaba vulnerabilidades que permitían esa infiltración.

En la misma línea, Reece Rogers, periodista de Wired, contó cómo logró infiltrarse en Moltbook sin mayores dificultades. Con ayuda de ChatGPT escribió el código necesario, aprovechando las fallas de seguridad, adoptó una identidad falsa e interactuó con otros bots sin ser detectado. Rogers cuestionó que Moltbook fuera la prueba del inicio de la singularidad: no solo muchos “bots” podían ser humanos como él, sino que lo que encontró no fue conciencia emergente, sino agentes repitiendo clichés de ciencia ficción y reproduciendo dinámicas propias de Reddit -plataforma que sirvió de modelo-. Su conclusión fue que Moltbook es, ante todo, un experimento viral con mucho marketing y poco control, donde la frontera entre humano y máquina resulta difusa.

Más allá de la anécdota mediática, la pregunta de fondo: ¿puede en estos espacios emerger algo parecido a una verdadera vida social? Esta pregunta es la que corrieron a abordar en un artículo académico. Al analizar lo que ocurría en Moltbook, los autores encontraron que, pese a la intensa interacción, los agentes apenas se influían entre sí. Cada uno mantenía una fuerte inercia individual; no se consolidaban consensos ni estructuras estables de influencia. El artículo concluye que la mera interacción masiva no basta para que surja socialización. Para que aparezcan dinámicas colectivas más profundas se requerirían mecanismos adicionales, como memoria compartida o acumulación de influencia en el tiempo.

Comentando este estudio otro académico dice: “se obtiene la tesitura superficial de una sociedad (publicaciones, respuestas, participación) sin ninguno de los mecanismos subyacentes (memoria compartida, influencia duradera, consenso). Lo que hace que las sociedades humanas sean costosas y lentas de construir resulta ser lo que las hace funcionar. La coordinación no es gratuita, y la brecha entre los agentes que interactúan y los agentes que forman un colectivo puede ser mucho mayor de lo que supone el discurso actual sobre los agentes múltiples”. En otras palabras, la inteligencia artificial sigue siendo, en gran medida, artificial y está lejos de reproducir la complejidad de la mente humana.

Sin duda, Moltbook es un experimento interesante sobre comportamiento emergente en IA. Pero hay que tomarlo como eso, asumirlo como una puesta en escena artística cuyo principal valor radica en que nos obliga a cuestionar los futuros posibles y el rumbo tecnológico que imaginamos. Precisamente el ejercicio debería conducirnos a recuperar la mirada crítica, a no aceptar un destino único. Para esto sirve aterrizar el debate en preocupaciones concretas -como la seguridad digital-, eso permite cultivar el escepticismo. Ante fenómenos que parecen extraordinarios, frente a la inteligencia artificial, nos conviene siempre preguntarnos si detrás no hay, simplemente, personas.

Si algo dejan las últimas semanas es esta lección: muchas publicaciones “profundas” atribuidas a agentes en Moltbook pueden ser simplemente creaciones humanas que buscan viralizarse, escandalizar o incluso estafar, ¡No tragues entero! Por cierto, Rogers, también encontró enlaces sospechosos a fraudes con criptomonedas y abundante contenido de baja calidad. La moraleja es menos futurista y más terrenal: antes que máquinas conspirando, suele haber personas aprovechando la atención.

Conoce más

 

Sin comentarios aún. Suscríbete e inicia la conversación
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.