Publicidad

¿Debilita la IA nuestras habilidades cognitivas? (Sobrepensadores)

En esta nueva entrega de la serie de Roberto Palacio, el autor analiza la manera en la que podríamos evaluar la forma en la que usamos la inteligencia artificial.

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Roberto Palacio
13 de diciembre de 2025 - 10:02 p. m.
La inteligencia artificial ha continuado en desarrollo.
La inteligencia artificial ha continuado en desarrollo.
Foto: Cortesía
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Todas las grandes revoluciones del conocimiento nos han expuesto a la preocupación por la pérdida de las capacidades que se perfeccionaron antes de los nuevos desarrollos. El paso de la palabra hablada a la escrita hizo obsoletos los modelos nemotécnicos, como los que permitieron que las obras de Homero se declamaran por siglos; la popularización del libro con la imprenta de Gutenberg hizo temer que delegáramos la tarea de pensar a los volúmenes en las bibliotecas. Y ahora, la llegada de los “modelos grandes de lenguaje” (LLM) y la IA han abierto la sospecha no solo de que estos sistemas terminarán pensando por nosotros, sino que empobrecerán (empobrecen ya) nuestras capacidades. ¿Debilita la IA nuestras habilidades cognitivas?

Si nos atenemos a los resultados de las indagaciones neurológicas, no hay duda de que el uso no mediado de los LLM limita nuestras destrezas. En el 2024, un equipo de investigadores de la Universidad de Cambridge y Boston hicieron la investigación1. Pusieron a un grupo de 54 personas divididas en tres subcategorías a elaborar breves ensayos sobre temas abiertos como ¿Deben nuestros logros beneficiar a otros para declararnos felices? ¿Tiene el arte el poder real de transformar la vida de las personas? El primer grupo debía usar sólo su cerebro, el segundo debía hacer uso de motores de búsqueda como Google y el tercero debía usar IA (LLM). Midieron la actividad neuronal de los participantes y evaluaron sus escritos. Lo que descubrieron, si bien no asombra, sí le pone una base a la idea de que el uso indiscriminado de IA para elaborar ideas limita las capacidades de pensamiento que llamamos críticas. Cuando digo “uso indiscriminado” no me refiero sólo a su uso extensivo, sino a uno que no involucra las capacidades que acá señalaremos.

Para parafrasear ideas concretas del artículo -se trata de un extenso estudio de 206 páginas lleno de detalles neurológicos-, el grupo que usó IA mostró modos cognitivos más automatizados, basados en estructuras cognitivas provisionales con un compromiso reducido del componente semántico, mientras que el grupo que sólo usó su cerebro mostró más integración semántica, ideación creativa y auto-monitoreo. La expresión “integración semántica” parece complicada, pero se refiere simplemente a cuánto nos involucramos con el problema real, no sólo como un ejercicio que se resuelve de manera abstracta. A nivel de lo que mostraron los textos, quienes usaron LLM en la tarea hicieron uso de un conjunto más reducido de ideas, tuvieron más dificultad para explicar las opiniones dadas, estuvieron menos dispuestos a cuestionar la veracidad de sus escritos y sintieron en general no ser los autores de su contenido.

¿Qué pasó con el grupo que usó motores de búsqueda de manera tradicional -introducir un término en Google y seleccionar entre los resultados-? Sus evaluaciones se asemejaron a los del grupo que no usó IA. Sus búsquedas eran al fin y al cabo sus búsquedas, posibilitadas por sus criterios, su selectividad, su capacidad de sortear y su priorización crítica de la información. El saber buscar implica al menos haber proyectado una hipótesis sobre lo que queremos resolver. Quien sabe plantear bien las preguntas tiene la mitad de un problema resuelto. Dice otro estudio sobre la materia 2 que la búsqueda con motores tradicionales no consiste sólo en saber encontrar la información correcta, implica discernir de manera relevante, evaluar las fuentes y sintetizar todo ello en una comprensión coherente. Durante este proceso, se debe tener un alto grado de auto-regulación para sortear distracciones; se trata de una compleja interacción personal, comportamental con los factores del medio en el que se busca y que se intenta explicar*. En pocas palabras, este tipo de búsqueda demandaba un involucramiento nuestro con el problema, uno que es fácil que se diluya en las búsquedas con IA.

Pero claro que siempre estamos involucrados con las preguntas que hacemos, se podrá decir. No siempre. Se descubrirá con asombro que pensar implica estar consciente de que soy yo el que está pensando. A este rasgo se le llama “capacidad reflexiva”; no se puede pensar hasta que no se toma conciencia de que se está pensando. Pensar no es un proceso ciego, que producimos de manera algorítmica. A esto es a lo que se refiere “semántico”, el ámbito propio de los significados y de nuestra relación con el mundo. El gran riesgo de la nueva tecnología es que requiere de un involucramiento mínimo del usuario para dar “resultados”.

Ninguno de los dos estudios que he citado aboga por dejar de usar IA. Simplemente no es realista. Lo que defienden es un uso crítico de la nueva tecnología. Según la frase que aman usar los impulsadores de la IA -y que he escuchado hasta el cansancio en las universidades- se trata de una herramienta que debe ser bien usada. De acuerdo. Pero lo que ponen en evidencia los estudios es que, por un lado, la interacción no mediada con el sistema sí pasará una factura a nuestras capacidades cognitivas, y en ese mismo orden de ideas, que no se está usando como una herramienta para mis indagaciones sino que más bien estamos presentando los resultados de la IA como si fueran propios, como se evidencia en el sentimiento disminuido de pertenencia y la dificultad para responder preguntas acerca de sus escritos por parte de los que usaron IA.

Hacer un uso crítico de la IA implica saber lo que los modelos de lenguaje me están diciendo, entender que pueden tener información errónea y sobre todo que hay un así llamado “efecto de resonancia”: el sistema me da información basada en mis preferencias. Con base en ella selecciono con mayor persistencia dentro de estas mismas opciones y así simplemente me retroalimenta con más de lo que “supone” quiero escuchar. Se trata de una versión sofisticada del sesgo de confirmación. La gran pregunta entonces es: ¿cómo lograr generar modelos educativos que estamos dispuestos a usar y que acompañen nuestra interacción con la IA? Es una pregunta que nos urge hacernos. Y que claro, no se la podemos botar a un sistema de IA.

*Transcripción realizada por el autor.

1“Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”; el artículo se puede consultar de manera gratuita en https://arxiv.org/abs/2506.08872

2 “Cognitive ease at a cost: LLMs reduce mental effort but compromise depth in student scientific inquirí”; el artículo se puede consultar de manera gratuita en https://www.sciencedirect.com/science/article/pii/S0747563224002541

Si le interesa seguir leyendo sobre El Magazín Cultural, puede ingresar aquí 🎭🎨🎻📚📖

Por Roberto Palacio

Conoce más

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.