Publicidad

Pensar por nosotros mismos

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Juan Felipe Carrillo Gáfaro
05 de febrero de 2026 - 05:37 p. m.
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

En un reciente y corto ensayo publicado en el New York Times y titulado “Why A.I. Can’t Make Thoughtful Decisions” (“Por qué la Inteligencia Artificial no puede tomar decisiones pensadas”), Blair Effron, empresario norteamericano, se cuestiona sobre los alcances de la Inteligencia Artificial (IA) en ciertos contextos e intenta recordar el valor de una educación basada “en cómo pensar en lugar de en qué pensar”; en una educación centrada en “enseñar a abordar los problemas y no las respuestas definitivas”.

Y no es que el autor niegue los beneficios de la IA y su cada vez más sorprendente capacidad de buscar, sintetizar y presentar textos e imágenes a velocidades otrora inimaginables. De hecho, valora su poder transformativo y cómo ha ido tomando un espacio preponderante en escenarios tan variados como complejos. Sin embargo, el autor invita a reflexionar sobre los límites que ofrece la IA cuando se trata de hacer “juicios” o, como lo hubiera formulado el psicólogo y premio Nobel de Economía Daniel Kahneman, cuando se trata de “evaluar” opciones.

Al preguntarse sobre algunos de estos límites, el mismo Kahneman comenta, en el libro The Economics of Artificial Intelligence: An Agenda, que no ve por qué hacer “evaluaciones” es propio de los seres humanos y que, por el contrario, la Inteligencia Artificial podría superar la manera como los individuos toman decisiones. De hecho, la postura de Kahneman va aún más lejos, hasta el punto de afirmar que las tres diferencias principales entre un robot y las personas podrían ser: el razonamiento estadístico del robot, el cual sería mejor al estar menos cautivado por las historias y las narrativas; su sabiduría, el robot sería más sabio al tener una visión más amplia; y, paradójicamente, su inteligencia emocional, la cual sería superior con el tiempo.

Es probable que Effron no haya tenido en cuenta la crudeza con la que Kahneman, ya desde 2019, tiende a reconocer cómo la IA sobrepasará lo que los humanos pueden realizar. No obstante, Effron aún confía en que la IA no pueda reemplazar el análisis de si una información es o no confiable, no pueda comprender qué implicaciones tiene esa información y, mucho menos, decidir si actuar en consecuencia es prudente o no. Para Effron, hay que además tener la capacidad de poner todo en un contexto interpersonal que implica unas dinámicas que, según él, solo pueden ser “humanas”.

Esta idea la comparten tres investigadores del TNI (Transnational Institute) en un artículo titulado “Lo que oculta la inteligencia artificial -Microsoft y las niñas vulnerables del norte de Argentina”. Según sus autores, el mito de una IA objetiva no existe y siempre estará anclado a una “secuencia de decisiones humanas” que implican “consecuencias no deseadas”, como en el caso de la alianza entre Microsoft y el gobierno de Salta, al fracasar en la promesa de encontrar un algoritmo que pudiera solucionar la crisis de deserción escolar y embarazo adolescente en esa región. En otro contexto, como lo menciona el médico Robby en la segunda temporada de la serie The Pitt: la IA nunca será capaz de actuar bajo la intuición.

Como se puede suponer, este espacio es muy corto para un debate tan largo. Sin embargo, como muchas de las cosas que nos han llegado desde el origen del Internet, no sobra estar alerta si empezamos a sentir que ya no es necesario pensar por nosotros mismos y que la máquina, los chatbots y los algoritmos tienen todas las soluciones a nuestros problemas. Quizás, de manera algo inocente, me animo a creer que esta columna me salió mejor a mí que a ChatGPT.

Conoce más

 

hernando clavijo(26249)06 de febrero de 2026 - 08:42 p. m.
La máquina no es mas poderosa q los insumos q recibe
Ccdaw(0kmc6)06 de febrero de 2026 - 12:04 p. m.
De la "racionalidad" que los humanos nos creemos, apenas llegamos a unas limitadas habilidades. Esa es nuestra historia, llena de dioses y mitos, como com con ella alimentamos la IA. será difícil que la herramienta razone. Seguirá sucediendo que, al pedirle basura, entregue basura.
Tulio Claudio (70717)06 de febrero de 2026 - 11:02 a. m.
Pensar lo mismo por nosotros mismos. La inteligencia artificial y los límites de la intuición.
Mar(60274)06 de febrero de 2026 - 03:07 a. m.
Jajaja me hizo reír con su última anotación. Que le haya salido mejor, no sé, la IA escribe y analiza muy bien, tiene una cantidad inimaginable de información y puede recurrir a ella en cuestión de nanosegundos. Creo que el ser humano se sobrevalora y esa es su perdición. Se cree el rey de la creación y esa es su talón de Aquiles. Subestima a los demás seres vivos, mal utiliza y no valora nada. Maltrata a los animales, a los seres de su misma especie. Basa su vida en cuentos imaginarios....
  • Juan Felipe Carrillo Gáfaro(66878)06 de febrero de 2026 - 09:07 a. m.
    De acuerdo, gracias Mar por el comentario.
Mario Giraldo(196)05 de febrero de 2026 - 10:52 p. m.
Question de tiempo: Hoy el chat escribe articulos solo si ud le pide que escriba, y si ud le incluye opciones que definan sus intensiones, el chat lo incorporara en el articulo. Habra un día en que ud le dará suficientes instrucciones que el resultado final sera equivalente a una acción espontanea, e intuitiva y ud mismo se sorprenderá del resultado. Question de tiempo.
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.