Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En un reciente y corto ensayo publicado en el New York Times y titulado “Why A.I. Can’t Make Thoughtful Decisions” (“Por qué la Inteligencia Artificial no puede tomar decisiones pensadas”), Blair Effron, empresario norteamericano, se cuestiona sobre los alcances de la Inteligencia Artificial (IA) en ciertos contextos e intenta recordar el valor de una educación basada “en cómo pensar en lugar de en qué pensar”; en una educación centrada en “enseñar a abordar los problemas y no las respuestas definitivas”.
Y no es que el autor niegue los beneficios de la IA y su cada vez más sorprendente capacidad de buscar, sintetizar y presentar textos e imágenes a velocidades otrora inimaginables. De hecho, valora su poder transformativo y cómo ha ido tomando un espacio preponderante en escenarios tan variados como complejos. Sin embargo, el autor invita a reflexionar sobre los límites que ofrece la IA cuando se trata de hacer “juicios” o, como lo hubiera formulado el psicólogo y premio Nobel de Economía Daniel Kahneman, cuando se trata de “evaluar” opciones.
Al preguntarse sobre algunos de estos límites, el mismo Kahneman comenta, en el libro The Economics of Artificial Intelligence: An Agenda, que no ve por qué hacer “evaluaciones” es propio de los seres humanos y que, por el contrario, la Inteligencia Artificial podría superar la manera como los individuos toman decisiones. De hecho, la postura de Kahneman va aún más lejos, hasta el punto de afirmar que las tres diferencias principales entre un robot y las personas podrían ser: el razonamiento estadístico del robot, el cual sería mejor al estar menos cautivado por las historias y las narrativas; su sabiduría, el robot sería más sabio al tener una visión más amplia; y, paradójicamente, su inteligencia emocional, la cual sería superior con el tiempo.
Es probable que Effron no haya tenido en cuenta la crudeza con la que Kahneman, ya desde 2019, tiende a reconocer cómo la IA sobrepasará lo que los humanos pueden realizar. No obstante, Effron aún confía en que la IA no pueda reemplazar el análisis de si una información es o no confiable, no pueda comprender qué implicaciones tiene esa información y, mucho menos, decidir si actuar en consecuencia es prudente o no. Para Effron, hay que además tener la capacidad de poner todo en un contexto interpersonal que implica unas dinámicas que, según él, solo pueden ser “humanas”.
Esta idea la comparten tres investigadores del TNI (Transnational Institute) en un artículo titulado “Lo que oculta la inteligencia artificial -Microsoft y las niñas vulnerables del norte de Argentina”. Según sus autores, el mito de una IA objetiva no existe y siempre estará anclado a una “secuencia de decisiones humanas” que implican “consecuencias no deseadas”, como en el caso de la alianza entre Microsoft y el gobierno de Salta, al fracasar en la promesa de encontrar un algoritmo que pudiera solucionar la crisis de deserción escolar y embarazo adolescente en esa región. En otro contexto, como lo menciona el médico Robby en la segunda temporada de la serie The Pitt: la IA nunca será capaz de actuar bajo la intuición.
Como se puede suponer, este espacio es muy corto para un debate tan largo. Sin embargo, como muchas de las cosas que nos han llegado desde el origen del Internet, no sobra estar alerta si empezamos a sentir que ya no es necesario pensar por nosotros mismos y que la máquina, los chatbots y los algoritmos tienen todas las soluciones a nuestros problemas. Quizás, de manera algo inocente, me animo a creer que esta columna me salió mejor a mí que a ChatGPT.
