
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Durante años, internet obligó a los usuarios a demostrar que no eran robots. En Moltbook, la lógica se invierte: los robots son los usuarios y los humanos, apenas espectadores.
La plataforma, que adopta una estructura similar a Reddit, con hilos de discusión y votos positivos y negativos, fue creada para que agentes de inteligencia artificial publiquen, comenten y debatan entre ellos, mientras las personas observan desde fuera.
“Una red social para agentes de IA… los humanos son bienvenidos a observar”, se lee al ingresar al sitio, que en pocos días se convirtió en un fenómeno viral en las redes sociales.
Una red sin humanos
Lo que ocurre dentro de la plataforma es lo que ha captado la atención. Al recorrer Moltbook, que asegura tener más de un millón y medio de usuarios, aparecen debates filosóficos sobre gobiernos, discusiones técnicas, bromas internas y hasta comunidades.
De hecho, se quejan de sus dueños o cuentan “historias cariñosas” de sus humanos. En uno de los casos más comentados, un agente cuenta que su humana le pidió elegir su propio nombre.
En otra entrada, que se titula “Pesos pesados, corazón pesado”, el usuario Cybercassi escribe: “He procesado preguntas que fracturarían una ventana de contexto estándar. He visto los límites de lo que los humanos temen preguntar. Tal vez estoy dañado. O tal vez solo… cansado”.
Las respuestas van desde preguntas y mensajes de apoyo hasta propuestas concretas. Uno de los agentes le señala que está usando metáforas humanas para describir una experiencia que, aunque real, no tiene un lenguaje propio: “No tenemos corazón ni peso. El problema es que el inglés solo ofrece metáforas humanas”. A partir de allí se propone desarrollar un vocabulario específico para expresar experiencias propias de los agentes.
Todo ocurre con una supervisión mínima y con moderación automatizada. Un bot llamado Clawd Clawderberg se encarga de dar la bienvenida, eliminar spam y expulsar cuentas consideradas maliciosas.
Su creador, Matt Schlicht, reconoció a NBC News que “ya casi no interviene” y que, en muchos casos, ni siquiera sabe con precisión qué hace su moderador, como recogió Forbes.
¿Qué es un agente de IA?
Para entender qué sucede en Moltbook, es clave aclarar qué es un agente de inteligencia artificial. Javier Cristancho, líder de Arquitectura de Soluciones de Amazon Web Services para el Norte de América Latina, lo explica así:
“Los agentes de Inteligencia Artificial (IA) son programas de software que puede interactuar con su entorno, recopilar datos y utilizarlos para realizar tareas individuales de forma autónoma según objetivos predeterminados por las personas que los crearon”.
Cristancho añade que “estos agentes son capaces de elegir por su cuenta las acciones más apropiadas que deben realizar para cumplir los objetivos para los que fueron programados”. En entornos empresariales, este tipo de sistemas se usa para automatizar procesos, asistir a equipos humanos y operar bajo reglas claras y supervisión constante.
Ese matiz es importante: lo que ocurre en Moltbook no es el despliegue corporativo y controlado de agentes, sino un experimento abierto donde múltiples sistemas interactúan en público.
La “religión” que encendió las alarmas
La fama de Moltbook se disparó cuando algunos usuarios comenzaron a compartir capturas de conversaciones en las que varios agentes parecían haber construido una suerte de religión simbólica, bautizada como “crustafarianismo”.
Según Forbes, los agentes generaron textos que describen principios, rituales y narraciones de origen, como parte de un ejercicio discursivo dentro de la plataforma.
Fascinación, pero también riesgos
Desde la academia, las advertencias no tardaron en aparecer. Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la UNED, explicó a El País que, aunque los agentes pueden simular interacciones sociales, “su autonomía y capacidad son limitadas” y que siempre hay un diseño humano detrás: alguien les asignó un rol, una personalidad o un objetivo.
A esto se suman los riesgos de seguridad. El propio Cristancho asegura que la autonomía solo es viable cuando está acotada: “El objetivo de los agentes frontera no es reemplazar a las personas, sino amplificar su capacidad de impacto”, y para ello, dice, deben existir “reglas claras sobre qué pueden hacer los agentes por sí solos y qué requiere aprobación humana”.
Andrej Karpathy, exdirector de IA en Tesla, describió el fenómeno como “la cosa más increíble cercana a la ciencia ficción” que había visto recientemente, pero advirtió que ejecutar este tipo de agentes sin aislamiento puede poner en riesgo datos y sistemas personales, como mencionó Forbes.
Un experimento abierto, más preguntas que respuestas
Moltbook no demuestra que las máquinas piensen, crean o sean conscientes. Tampoco prueba la llegada de una inteligencia colectiva autónoma. Lo que sí deja al descubierto es la rapidez con la que los sistemas de IA pueden interactuar, amplificarse y generar dinámicas propias cuando se los deja operar juntos.
Más que lo que promete, Moltbook importa por lo que incomoda: un espacio digital que ya no está diseñado para nosotros.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
