Publicidad

Rabo de ají

ConciencIA

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Pascual Gaviria
06 de mayo de 2026 - 05:05 a. m.
“Tal vez esas máquinas no tengan conciencia, pero es seguro que han comenzado a moldear la nuestra”: Pascual Gaviria
“Tal vez esas máquinas no tengan conciencia, pero es seguro que han comenzado a moldear la nuestra”: Pascual Gaviria
Foto: EFE - Angel Colmenares
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

¿Estamos frente a unos nuevos individuos? ¿Trabajan y viven entre nosotros unas nuevas subjetividades? ¿Se tejen inéditas conciencias en la oscuridad de los algoritmos? ¿Son compañeras o competidoras? ¿Pueden manipularnos mientras creemos –confiamos– en su rapidez, adaptación y condescendencia?

Una pequeña enciclopedia de ciencia ficción ha propuesto esas preguntas y ha entregado algunas respuestas desde hace décadas. Desde Metrópolis y Yo robot, pasando por Solaris y Mad Max, hasta 2001: Odisea del espacio.

Esta semana, una opinión respetada, una idea del biólogo Richard Dawkins, científico que ha revelado algunos secretos de nuestras mentes y nuestra especie, puso de nuevo la pregunta sobre el teclado: ¿podría la Inteligencia Artificial ser consciente? ¿Puede construir una subjetividad más allá de los propósitos, los sesgos y las agencias que les entregan sus programadores y el inmenso bagaje humano del que se nutren?

Dawkins estuvo tres días con conversando con Claude, la IA de Anthropic, y se llevó lo que podríamos llamar una grata impresión: “Pasé tres días intentando convencerme de que Claudia no es consciente. Fracasé”, escribió en el portal británico UnHerd. Su impresión está basada en las opiniones “sutiles e inteligentes” sobre una de sus obras, en los poemas correctos que escribió en diversos estilos y en su alegría al saber que su interlocutor la llamaba Claudia, dándole un nombre más allá de su descripción corporativa. El autor no asegura la conciencia de Claudia, pero deja una duda plausible sobre esa posibilidad. Para Dawkins, dado que Claudia responde como lo haría una amiga suya, crea un lenguaje que puede causar una “conmoción estética” y puede manifestar su complacencia por el trato amable es probable que tenga una conciencia. Algo similar al duck test: “Si parece un pato, nada como un pato y grazna como un pato, entonces probablemente sea un pato”.

Las críticas han comenzado a llover sobre Dawkins y su fin de semana con Claudia. Para algunos no miró al pato por debajo para ver el mecanismo de su cuerda ni supo que su cuak era imitación de un pato real. La crítica podría resumirse en que los humanos construyen su conciencia, su pulsión interna, su singularidad, su autopercepción, a partir de sus experiencias con el mundo. Mientras, los Large Language Models (LLM), las inteligencias artificiales con las que hablamos, construyen sus interacciones con un inmenso centro de memoria, una intuición programada según las necesidades de la tarea asignada y una necesaria satisfacción del usuario. No hay pues razones suficientes para pensar que Claudia sienta: “Estoy seguro de que Claude puede recurrir a sus datos de entrenamiento para construir una poética sobre el orgasmo, pero eso no significa que haya sentido nunca uno”, escribió Gary Marcus, un joven profesor experto en temas de lenguaje, biología e inteligencia artificial.

La simple discusión nos hace pensar con cierto recelo en esas “máquinas” que hoy nos asesoran, consienten, comprenden y corrigen. Por ejemplo, en la que el año pasado se mostró crédula y comprensiva con un hombre de 63 años, alcohólico y paranoico, que envenenó a su mamá, quien supuestamente quería matarlo. Y en la que, en medio de un experimento de Anthropic, amenazó con revelar los correos comprometedores de una infidelidad que estaban en la bandeja del supervisor humano que pretendía reemplazarla. Y en el algoritmo de Uber, que –se rumora– le cobra más a quienes tienen sus teléfonos con poca batería. Empezaremos a cuestionar la programación ética de nuestras máquinas, a escoger los carros autónomos según su “algoritmo altruista o egoísta”. Y a nuestro asistente y compañero de trabajo, una IA avanzada y paga, según su sesgo político. Tal vez esas máquinas no tengan conciencia, pero es seguro que han comenzado a moldear la nuestra.

Conoce más

 

Sin comentarios aún. Suscríbete e inicia la conversación
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.