
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En este espacio hemos señalado anteriormente el riesgo que representa ese uso no mediado de cara al deterioro de nuestra capacidad de pensamiento crítico. Ahora me gustaría centrarme en el cerebro y en el carácter del involucramiento con los problemas que intentamos resolver. Mencionábamos entonces la investigación que hizo MIT en junio de 2025 cuando midió la actividad cerebral de 54 personas que debían escribir un ensayo, a quienes dividieron en tres sub-grupos: unos debían usar sólo su cerebro para la tarea, otros hacer una búsqueda tradicional en Google y los últimos usar sólo Chat GPT.
Si bien los resultados no fueron sorprendentes, los detalles son del mayor interés para pensar modelos de interacción con las IA. El estudio, entre otros, concluye esto: los mejores resultados neurológicos los obtuvo el primer grupo. Al usar sólo su cerebro, mostró más actividad de distintos sectores, integradora y creativa. Los que usaron IA no salieron tan bien librados: su actividad cerebral fue menos variada y cuando se les preguntaba por sus ensayos, en general sintieron menos pertenencia de las ideas, no pudieron responder preguntas adecuadamente, y cuando se repetía el experimento, tendieron simplemente a hacer “copy-paste” con los resultados. Los que hicieron una búsqueda en Google, paradójicamente, estuvieron mucho más cercanos a los que sólo usaron su cerebro, y más adelante señalaré por qué. El estudio concluye: El grupo que usó IA mostró modos cognitivos más automatizados, basados en estructuras cognitivas provisionales con un compromiso reducido del componente semántico, mientras que el grupo que sólo usó su cerebro mostró más integración semántica, ideación creativa y auto-monitoreo.
Decía que no nos asombran los resultados, ¿pero por qué el Chat cobra una factura cognitiva? Nuestra cognición funciona integrándose con el mundo; esto es lo que llamamos su carácter semántico, una palabra sofisticada para nombrar el involucramiento de nuestras palabras, ideas y los símbolos que usamos con el entorno. Aunque se puede hacer una analogía entre nuestro cerebro y un ordenador digital, no son lo mismo. No procesamos la información con bytes, sino con unidades cargadas de significado, semantizadas; no entendemos los problemas sólo por medio de una lenta desintegración en sus partes, sino por medio de estrategias de análisis que involucran una mirada de pájaro, una visión amplia, un rasgo del pensamiento que llamamos “holísmo”. En poco, funcionamos a un nivel en el que examinamos las partes siempre en referencia al contexto general. Hacer esto -proyectar nuestra comprensión para entender un problema y poder actuar-, es una proeza y un logro de la selección natural. El pensamiento, poco lo consideramos, es un recurso natural: está producido por un órgano físico de carne y hueso. Así como el Chat GPT le debe su asombrosa magia al procesamiento en paralelo -literalmente varios procesos trabajando al unísono-, nuestro cerebro logra sus proezas haciendo algo en esencia similar, disparando varios “procesos” que ocurren al tiempo en distintos lugares entre nuestras dos orejas. Esto es lo que llamamos pensar. El lenguaje denota la carencia de un término similar para lo que hace el Chat GPT cuando se demora unos instantes en producir un resultado; decimos que está “pensando” pero siempre con un aire de metáfora. Ante el circulito que da vueltas decimos con frustración “se quedó pensando”.
Cuando hacemos un uso no mediado de los LLMs, en esencia lo que reducimos es ese multiprocesamiento que solía ocurrir en nuestro cerebro. Si bien para una máquina evitar el multiprocesameinto tiene consecuencias positivas -evitar el calor, el desgaste, el consumo de energía- en el cerebro los efectos se asemejan a los de inmovilizar o utilizar sólo parcialmente un músculo. Cualquiera que haya estado inmovilizado sabe lo rápido que se deteriora lo que no se ejercita: perdemos la capacidad de movernos, de caminar, con una rapidez asombrosa. Igual ocurre con el cerebro; sus habilidades se van con el desuso, incluso con tareas que creímos que nunca olvidaríamos porque las aprendimos con sangre. Intente en este momento sacar una raíz cuadrada sin la ayuda de una calculadora.
El uso no mediado el Chat GPT se refiere al involucramiento con el sistema en el cual ni siquiera refinamos las preguntas antes de hacerlas. Pedimos de una vez un ensayo sobre la asignación que nos pusieron en el colegio, la gráfica para mi exposición del trimestre se la delego al Chat sin haberla mirado siquiera. Acá se ha roto el lazo entre nuestro sistema cognitivo y el problema a resolver. No estamos nosotros presentes en la tarea. Con ello hemos des-semantizado lo examinado, la solución al problema ha dejado de ser mía.
Si hay algo que nos urge ante el Chat GPT es establecer modos de uso mediado del sistema, hacer que sea una herramienta en la cual aprovechamos una fuerza increíble de procesamiento de símbolos como no habíamos visto en la historia de la humanidad, pero siendo nosotros los gestores del proceso.
Se me ocurren dos ideas para abrir la reflexión. La primera tiene que ver con lo que le sucedió al grupo que usó Google. Sus evaluaciones fueron satisfactorias. Sus búsquedas eran al fin y al cabo sus búsquedas. El plantear la pregunta de manera adecuada implicaba haber proyectado una hipótesis sobre el problema. Si en nuestras búsquedas con IA logramos refinar las preguntas de manera similar, empezamos a hacer un uso más mediado del sistema. Lo segundo: decidir sobre los resultados. Veíamos la enorme tentación del tercer grupo a simplemente hacer “copy-paste”. Por el contrario, si cuando tomo lo que me arroja la IA, me adjudico el derecho de admitir o no sus resultados, estoy siendo realmente protagónico; la IA pasa a ser una herramienta y no un actor.
El enorme riesgo con la IA es pensar que dicho poder puede reemplazar el pensamiento. No se trata de una demonización de la herramienta: es la tecnología más sofisticada y potente que muchos veremos surgir en nuestras vidas. Pero hay organizaciones e individuos que han delegado en la IA la toma de decisiones significativas. Como lo hemos señalado, decidir-pensar y procesamiento algorítmico son “artes” distintas: los LLMs no son contextuales o analíticas, son predictivas. En esencia predicen por medio de una multitud de algoritmos complejos la siguiente palabra en una cadena de símbolos. Como tal no piensan, pero actúan como si pensaran. Es hora de que nosotros volvamos a hacer lo mismo
Si le interesa seguir leyendo sobre El Magazín Cultural, puede ingresar aquí 🎭🎨🎻📚📖