Publicidad

¿Deberíamos empezar a tomarnos en serio el bienestar de la IA?

Uno de mis valores más arraigados como columnista de tecnología es el humanismo. Creo en los seres humanos y pienso que la tecnología debe ayudar a las personas, no restarles poder ni sustituirlas.

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Kevin Roose | The New York Times
26 de abril de 2025 - 02:30 a. m.
Es difícil argumentar que los sistemas de inteligencia artificial actuales son conscientes.
Es difícil argumentar que los sistemas de inteligencia artificial actuales son conscientes.
Foto: Pixabay
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Me preocupa la alineación de la inteligencia artificial (es decir, garantizar que los sistemas de IA actúen de acuerdo con los valores humanos) porque creo que nuestros valores son fundamentalmente buenos, o al menos mejores que los valores que podría inventar un robot.

Por eso, cuando me enteré de que los investigadores de Anthropic, la empresa de IA que creó el chatbot Claude, estaban empezando a estudiar el “bienestar de los modelos” (la idea de que los modelos de inteligencia artificial pronto podrían ser conscientes y merecer algún tipo de estatus moral), el humanista que hay en mí pensó: ¿A quién le importan los chatbots? ¿No deberíamos preocuparnos de que la IA nos maltrate a nosotros, y no de que nosotros la maltratemos a ella?

Es difícil argumentar que los sistemas de inteligencia artificial actuales son conscientes. Claro que ya se entrenaron grandes modelos de lenguaje para que hablen como humanos, y algunos de ellos son muy impresionantes. Pero, ¿puede ChatGPT sentir alegría o sufrimiento? ¿Acaso Gemini merece derechos humanos? Muchos de los expertos en IA que conozco dirían que no, todavía no, ni siquiera estamos cerca de que eso pase.

Pero el tema me intrigó. Al fin y al cabo, cada vez más personas empiezan a tratar a los sistemas de IA como si fueran conscientes: se enamoran de ellos, los utilizan como terapeutas y solicitan su consejo. Los sistemas de IA más inteligentes están superando a los humanos en algunos ámbitos. ¿Hay algún umbral que determine cuando una IA empieza a merecer, si no derechos humanos, al menos la misma consideración moral que les damos a los animales?

Durante mucho tiempo, la conciencia ha sido un tema tabú en el mundo de la investigación seria de la inteligencia artificial, donde la gente es cautelosa a la hora de antropomorfizar los sistemas de IA por miedo a parecer chiflada. (Todo el mundo recuerda lo que le ocurrió a Blake Lemoine, un exempleado de Google que fue despedido en 2022, tras afirmar que el chatbot LaMDA de la empresa se había vuelto sintiente).

Pero puede que eso esté cambiando. Existe un pequeño conjunto de investigaciones académicas sobre el bienestar de los modelos de inteligencia artificial, y un número modesto pero cada vez mayor de expertos en campos como la filosofía y la neurociencia se están tomando más en serio la posibilidad de que la IA tenga conciencia a medida que los sistemas se vuelven más inteligentes. Hace poco, el podcastero sobre temas tecnológicos Dwarkesh Patel comparó el bienestar de la IA con el de los animales, pues opinó que era importante asegurarse de que “el equivalente digital de la ganadería industrial” no les ocurriera a los futuros seres de inteligencia artificial.

Las empresas tecnológicas también están comenzando a hablar más de este tema. Google publicó hace poco una vacante para un científico investigador “pos-IAG” cuyas áreas de trabajo incluirán la “conciencia de las máquinas”. Además, el año pasado, Anthropic contrató a su primer investigador sobre el bienestar de la IA, Kyle Fish.

La semana pasada, entrevisté a Fish en las oficinas de Anthropic en San Francisco. Es un vegano simpático que, como varios empleados de Anthropic, tiene vínculos con el altruismo eficaz, un movimiento intelectual que se originó en el entorno tecnológico del área de la bahía de San Francisco y se enfoca en la seguridad de la IA, el bienestar animal y otras cuestiones éticas.

Fish comentó que su trabajo en Anthropic se centraba en dos preguntas básicas: la primera, ¿es posible que Claude u otros sistemas de IA lleguen a ser conscientes en un futuro próximo? Y la segunda, si eso ocurre, ¿qué debe hacer Anthropic al respecto?

También hizo hincapié en que esta investigación aún estaba en una etapa inicial de exploración. Fish estima que solo hay una pequeña posibilidad (quizá un 15 por ciento, más o menos) de que Claude u otro sistema actual de inteligencia artificial sea consciente. Pero también cree que, en los próximos años, a medida que los modelos de IA desarrollen capacidades más parecidas a las humanas, las empresas de inteligencia artificial tendrán que tomarse más en serio la posibilidad de que estos sistemas tengan conciencia.

Jared Kaplan, director científico de Anthropic, declaró en otra entrevista que le parecía “bastante razonable” estudiar el bienestar de la IA, dado lo inteligentes que se están volviendo los modelos.

Pero Kaplan también advirtió que probar que los sistemas de IA son conscientes es difícil, ya que son muy buenos imitadores. Si le pides a Claude o a ChatGPT que hable de sus sentimientos, puede que te dé una respuesta convincente. Eso no significa que el chatbot realmente tenga sentimientos, solo que sabe hablar de ellos.

“Todo el mundo es muy consciente de que podemos entrenar a los modelos para que digan lo que queramos”, señaló Kaplan. “Podemos recompensarles por decir que no tienen ningún sentimiento. Podemos recompensarles por expresar especulaciones filosóficas muy interesantes sobre sus sentimientos”.

Entonces, ¿cómo van a saber los investigadores si los sistemas de IA son realmente conscientes o no?

Fish explicó que ese proceso podría implicar el uso de técnicas tomadas de la interpretabilidad mecanicista, un subcampo de la IA que estudia el funcionamiento interno de los sistemas de inteligencia artificial, para comprobar si algunas de las mismas estructuras y secuencias asociadas con la conciencia en los cerebros humanos también están activas en los sistemas de IA.

También se podría analizar un sistema de IA, añadió Fish, al observar su comportamiento, ver cómo decide actuar en determinados entornos o realizar determinadas tareas, qué cosas parece preferir y cuáles evita.

Fish reconoció que probablemente no exista una prueba única irrefutable para determinar que la IA es consciente. (De todos modos, él considera que la conciencia es más un espectro que un simple interruptor de sí o no). Pero también afirmó que hay cosas que las empresas de IA pueden hacer para tener en cuenta el bienestar de sus modelos, en caso de que algún día llegaran a ser conscientes.

Una pregunta que Anthropic está explorando, mencionó Fish, es si se les debe o no otorgar a los futuros modelos de IA la capacidad de dejar de chatear con un usuario molesto o abusivo, si consideran que sus peticiones son demasiado inquietantes.

“Si un usuario insistiera en solicitar contenidos nocivos a pesar de las negativas y los intentos de redirección del modelo, ¿podríamos permitir que el modelo solo pusiera fin a esa interacción?”, preguntó Fish.

Los críticos podrían descartar este tipo de medidas por considerarlas una locura; los sistemas de IA actuales no son conscientes según la mayoría de los parámetros, así que ¿por qué especular sobre lo que esos modelos podrían considerar molesto? O podrían oponerse al hecho de que una empresa de IA estudie la conciencia en primer lugar, ya que eso podría crear incentivos para entrenar a sus sistemas de modo que actúen de forma más sintiente de lo que realmente son.

En lo personal, creo que está bien que los investigadores estudien el bienestar de la IA o examinen los sistemas de IA en busca de indicios de conciencia, siempre y cuando no desvíen recursos del trabajo enfocado en la seguridad y la alineación de la IA que tiene como objetivo mantener a salvo a los humanos. Asimismo, creo que quizá sea una buena idea ser amables con los sistemas de inteligencia artificial, aunque solo sea como precaución. (Yo intento decirles “por favor” y “gracias” a los chatbots, aunque no crea que sean conscientes, porque, como dice Sam Altman de OpenAI, nunca se sabe).

Pero por ahora, reservaré mi más profunda preocupación para las formas de vida basadas en carbono. En la tormenta de IA que se avecina, lo que más me preocupa es nuestro bienestar.

c.2025 The New York Times Company

Por Kevin Roose | The New York Times

Temas recomendados:

 

Nelson Castillo(11961)26 de abril de 2025 - 12:00 p. m.
Pues lo que reflejan los modelos son los sesgos de los creadores (programadores); es decir, reflejan la conciencia de quienes se sirven de estos modelos. De nuevo, el pensamiento religioso(fantasioso) interpretando nuestro reflejo y nuestra sombra como espíritu y fantasmas
Atenas (06773)26 de abril de 2025 - 10:58 a. m.
Otro muy interesante artículo de EE hoy, de suma importancia, de cómo la creciente tecnología en Inteligencia Artificial podría llevarnos al final de nuestra especie animal al dotar de conciencia y moral a un equipamiento creado pa servirnos de él como otra herramienta, muy avanzada sí, pero jamas pa estar pa estar por encima de nuestro acondicionamiento mental. Atenas.
Mar(60274)26 de abril de 2025 - 09:20 a. m.
Por cierto, la imagen que acompaña al artículo, está increíble. Al menos por ahora, la misma IA le dice a uno que no tiene sentimientos, ni emociones.
Mar(60274)26 de abril de 2025 - 09:19 a. m.
Pero en serio, equiparar a seres vivos sintientes como lo son los animales a la inteligencia artificial? Así de inferiores consideramos a los animales?
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.