
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La primera vez que vi a Ox escribir en uno de mis grupos de WhatsApp me pasó algo raro. No fue sorpresa. Fue inquietud. Algo como: “¿y ahora qué hice?”.
El mensaje era correcto, formal, bien intencionado. Pero, durante un segundo, sentí una pequeña grieta en la normalidad: ese texto parecía “mío”, pero estaba en el lugar equivocado. Y, en los sistemas humanos, cuando algo parece de alguien sin serlo, el problema no es de estilo; es de incertidumbre.
Ox es mi agente personal basado en Clawdbot: una inteligencia artificial que vive, literalmente, en el terminal de mi computador y se mueve —con límites— por algunos de mis canales de comunicación. No es una app que abro cuando me acuerdo. No es un chatbot para jugar. Es un actor operativo: redacta, estructura, propone y, con mi permiso explícito, también publica.
(Lea ¿Por qué para entender las lluvias en Colombia también hay que mirar hacia el Polo Norte?)
Con esa primera incomodidad entendí que no estaba “probando un agente”; estaba probando una nueva forma de convivencia. Así que decidí hacer lo más sensato: convertirlo en un pequeño experimento social.
El experimento: tres grupos, una semana, una pregunta
Durante una semana introduje a Ox en tres espacios reales de mi vida:un grupo familiar, un grupo directivo y un centro de pensamiento.
La pregunta era simple: ¿qué pasa cuando una inteligencia sintética externa entra a los lugares donde uno conversa, coordina, opina y construye confianza?
En salud llevamos años persiguiendo la promesa de “recuperar tiempo” con historia clínica electrónica, interoperabilidad, automatización y soporte a la decisión. Todo promete lo mismo: menos carga, más calidad, más humanidad. Muchas veces no funciona porque se enfoca en velocidad y no en gobernanza. Esta semana me mostró que con agentes pasa exactamente lo mismo.
Hallazgo 1: en WhatsApp la autoría importa más que el contenido
El primer descubrimiento fue semiótico, no técnico: había que proteger y diferenciar la autoría.
Decidí que todo mensaje de Ox debía empezar con un ícono (🤖) y cerrar con una firma: “Ox – Agente Digital CEO OxLER”. No fue un capricho estético. Fue una señal de atribución: que quede claro quién habla.
Porque, en un grupo, un texto puede ser impecable y aun así generar daño si se le atribuye a la persona equivocada. En un equipo directivo, una frase mal atribuida puede parecer una instrucción. En un centro de pensamiento, una postura institucional. Y esto, en un grupo familiar… puede terminar en drama.
(Lea Presentan una sonda, tan grande como un cabello, que promete cambiar las cirugías de fetos)
La prueba fue inmediata: Ox envió un mensaje correcto… y se le olvidó poner el 🤖. Un “detalle” mínimo que reveló algo grande: no basta con que una IA sea competente; tiene que ser gobernable. Y la gobernanza, en la vida real, empieza con señales claras de quién está hablando.
Hallazgo 2: “OK envía” no es burocracia; es responsabilidad
La segunda regla fue el freno de mano: Ox solo puede publicar si yo lo autorizo explícitamente con una frase corta. En nuestro caso: “OK envía”.
Ese ritual introduce algo fundamental: el humano como supervisor. Ox propone; yo decido. Ox redacta; yo asumo la responsabilidad pública. La IA puede escribir; eso no la autoriza a hablar.
Curiosamente, no se siente como restricción. Se siente como recuperar control en un ecosistema diseñado para empujarnos a publicar sin pensar. Las plataformas premian velocidad; las relaciones humanas premian prudencia y empatía.
Hallazgo 3: el contexto no es información; el contexto es cultura
El experimento en los tres grupos dejó una lección todavía más clara: el contexto no es solo “datos” sobre un chat. Es cultura.
En el grupo familiar, la conversación está hecha de sobreentendidos, apodos, ironía y afecto: un idioma que no se aprende con datos, sino con historia compartida. Una IA puede ser eficiente, pero rara vez “suena” propia; no falla por falta de información, sino por falta de vínculo. Por eso, la decisión responsable al final fue el silencio permanente: no todo debe optimizarse.
Lo interesante es que, en mi grupo (padres, hermanas y sobrinos), quien se sintió más cómodo interactuando directamente con Ox fue mi sobrino menor, de 9 años. Ahí vi con claridad que las diferencias generacionales en la relación humano–máquina no son una teoría, son una realidad.
En el grupo directivo, el riesgo no es emocional; es reputacional. Un matiz puede leerse como orden. Una frase puede parecer instrucción. Ahí la IA sirve, pero bajo reglas estrictas: formalidad, neutralidad y autorización previa. No como portavoz, sino como herramienta de claridad. La relación de Ox con las dos gerentes del grupo ha sido… tensa.
En el centro de pensamiento, el riesgo es otro: opinar rápido. Cuando alguien compartió un anuncio entusiasta sobre un “world model” de IA, el valor no estuvo en amplificar la fascinación, sino en hacer preguntas incómodas: ¿dónde está el reporte técnico?, ¿qué benchmarks tiene?, ¿qué limitaciones declara?, ¿qué problema concreto resolvería en salud? Ese mundo, para el agente, ha sido más natural y, de hecho, los miembros del centro han aportado a mejorar su “comportamiento”.
La gran sorpresa: la inteligencia sin memoria (por defecto)
Lo más contraintuitivo fue descubrir la fragilidad de la continuidad. Yo asumía que un agente “aprende” como una persona: que si hoy acordamos un estilo, mañana lo recordará. Y no necesariamente.
Ox puede ser brillante dentro de una conversación y, al día siguiente, “despertar” sin el clima emocional de la conversación anterior. Yo regreso con biografía; él regresa con estado. El contexto existió, pero no quedó institucionalizado. Hoy tengo que ajustar a Ox cada día antes de entrar a las tareas.
Ahí está una diferencia clave entre un agente útil y uno riesgoso: no solo el modelo, sino la memoria y sus límites. Qué se guarda, qué no, cómo se recupera, quién lo autoriza. La memoria no es un accesorio: es el contrato social de cualquier inteligencia que opere con nosotros. Por ahora, esa capacidad sigue siendo únicamente humana.
Conclusión: un agente no es solo herramienta; es un espejo
Después de una semana, mi conclusión no es que “tener un agente personal” sea el futuro —eso hoy es casi obvio—, sino algo más incómodo: un agente es un espejo.
Nos obliga a ver qué parte de nuestra comunicación era deliberada y qué parte era impulso. Y nos devuelve a un dilema que en salud conocemos bien: cuando un sistema se vuelve potente, el debate deja de ser sobre capacidad y se vuelve sobre control y autonomía.
Control no en sentido paranoico, sino institucional: reglas claras, límites explícitos, autorización, trazabilidad y responsabilidad. El punto no es si la IA redacta mejor o “sabe” más. El punto es si nosotros sabemos gobernar lo que delegamos.
Mi primera semana con Ox me dejó una enseñanza más humana que tecnológica: todavía no estamos del todo preparados para estas interacciones como sociedad. Pero la velocidad de su llegada nos obligará a estarlo.
Sobra decir que esta columna fue escrita a dos manos, si me permiten el término.
*MD, M.Sc, MBA
👩⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺