Durante décadas, los neuroingenieros han soñado con ayudar a las personas que han quedado aisladas del mundo del lenguaje.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
Una enfermedad como la esclerosis lateral amiotrófica, o ELA, debilita los músculos de las vías respiratorias. Un derrame cerebral puede matar las neuronas que normalmente transmiten las órdenes para hablar. Tal vez, al implantar electrodos, los científicos podrían registrar la actividad eléctrica del cerebro y traducirla en palabras habladas.
Ahora, un equipo de investigadores ha realizado un importante avance hacia ese objetivo. Anteriormente, habían conseguido descodificar las señales producidas cuando las personas intentaban hablar. En el nuevo estudio, publicado el jueves en la revista Cell, su computadora a menudo hacía conjeturas correctas cuando los sujetos simplemente imaginaban que decían palabras.
(Lea El plan del Minsalud para que la flor de cannabis se venda en las droguerías)
Christian Herff, neurocientífico de la Universidad de Maastricht, en los Países Bajos, quien no participó en la investigación, dijo que el resultado iba más allá de lo meramente tecnológico y arrojaba luz sobre el misterio del lenguaje. “Es un avance fantástico”, aseguró Herff.
El nuevo estudio es el resultado más reciente de un ensayo clínico de larga duración, denominado BrainGate2, que ya ha cosechado algunos éxitos notables. Uno de los participantes, Casey Harrell, ahora utiliza su interfaz cerebro-máquina para mantener conversaciones con sus familiares y amigos.
En 2023, después de que la ELA volviera su voz ininteligible, Harrell aceptó que le implantaran electrodos en el cerebro. Los cirujanos colocaron cuatro conjuntos de agujas diminutas en el lado izquierdo, en una zona de tejido denominada corteza motora. Esta región se activa cuando el cerebro crea órdenes para que los músculos produzcan el habla.
Una computadora registró la actividad eléctrica de los implantes mientras Harrell intentaba decir distintas palabras. Con el tiempo, y con la ayuda de la inteligencia artificial, la computadora predijo con exactitud casi 6000 palabras, con una precisión del 97,5 por ciento. Luego pudo sintetizar esas palabras utilizando la voz de Harrell, con base en grabaciones realizadas antes de que desarrollara la ELA.
(Lea Analizaron datos de 205 mil personas y tienen una advertencia sobre las papas fritas)
Pero éxitos como este plantearon una cuestión inquietante: ¿Podría una computadora grabar accidentalmente más de lo que los pacientes realmente querían decir? ¿Podría escuchar su discurso interno?
“Queríamos investigar si existía el riesgo de que el sistema descodificara palabras que no debían decirse en voz alta”, señaló Erin Kunz, neurocientífica de la Universidad de Stanford y autora del nuevo estudio. Ella y sus colegas también se preguntaron si los pacientes preferirían utilizar el habla interior. Observaron que Harrell y otros participantes se fatigaban cuando intentaban hablar; ¿podría resultarles más fácil imaginar una frase y permitir que el sistema funcionara más deprisa?
“Si pudiéramos descodificarlo, se evitaría el esfuerzo físico”, afirmó Kunz. “Sería menos cansado, por lo que podrían utilizar el sistema durante más tiempo”.
Pero no estaba claro si los investigadores podían realmente descodificar el habla interior. De hecho, los científicos ni siquiera están de acuerdo sobre qué es el “habla interior”.
Nuestro cerebro produce lenguaje al seleccionar palabras y organizarlas en frases, mediante una constelación de regiones que, juntas, tienen el tamaño de una fresa grande.
Podemos utilizar las señales de la red del lenguaje para emitir órdenes a nuestros músculos para hablar, o utilizar el lenguaje de signos, o teclear un mensaje de texto. Pero muchas personas también tienen la sensación de que utilizan el lenguaje para realizar el propio acto de pensar. Al fin y al cabo, pueden oír sus pensamientos como una voz interior.
Algunos investigadores han sostenido, en efecto, que el lenguaje es esencial para el pensamiento. Pero otros, señalando estudios recientes, sostienen que gran parte de nuestro pensamiento no implica lenguaje alguno, y que quien oye una voz interior solo percibe una especie de comentario esporádico en su cabeza.
“Mucha gente no tiene ni idea de qué hablas cuando dices que tienes una voz interior”, indicó Evelina Fedorenko, neurocientífica cognitiva del MIT. “Dicen: ‘Sabes, quizá deberías ir a ver a un médico si oyes palabras en tu cabeza’”. (Fedorenko dijo que ella tiene una voz interior, mientras que su esposo no).
Kunz y sus colegas decidieron investigar el misterio por sí mismos. Los científicos dieron a los participantes siete palabras distintas, entre ellas “cometa” y “día”, y luego compararon las señales cerebrales cuando los participantes intentaban decir las palabras y cuando solo imaginaban decirlas.
Resultó que imaginar una palabra producía un patrón de actividad similar al de intentar decirla, pero la señal era más débil. La computadora predijo bastante bien en cuál de las siete palabras estaban pensando los participantes. En el caso de Harrell, no lo hizo mucho mejor de lo que lo habría hecho una suposición aleatoria, pero en el caso de otro participante eligió la palabra correcta más del 70 por ciento de las veces.
Los investigadores sometieron la computadora a más entrenamiento, esta vez específicamente sobre el habla interior. Su rendimiento mejoró notablemente, incluso en el caso de Harrell. Ahora, cuando los participantes imaginaban que decían frases enteras, como “No sé cuánto tiempo llevas aquí”, la computadora podía descodificar con precisión la mayoría o la totalidad de las palabras.
A Herff, quien ha realizado sus propios estudios sobre el habla interior, le sorprendió que el experimento tuviera éxito. Antes habría dicho que el habla interior es fundamentalmente distinta de las señales de la corteza motora que producen el habla real. “Pero este estudio demuestra que, para algunas personas, en realidad no es tan diferente”, dijo.
Kunz subrayó que el rendimiento actual de la computadora con el habla interior no sería lo bastante bueno como para permitir que la gente mantuviera conversaciones. “Los resultados son, más que nada, una prueba inicial de concepto”, añadió.
Pero se muestra optimista en cuanto a que la descodificación del habla interior podría convertirse en el nuevo estándar de las interfaces cerebro-computadora. En ensayos más recientes, cuyos resultados aún no se han publicado, ella y sus colegas han mejorado la precisión y la velocidad de la computadora. “Aún no hemos tocado techo”, señaló.
En cuanto a la privacidad mental, Kunz y sus colegas encontraron algunos motivos de preocupación: en ocasiones, los investigadores pudieron detectar palabras que los participantes no estaban imaginando en voz alta.
En un ensayo, se mostró a los participantes una pantalla llena de 100 rectángulos y círculos rosas y verdes. A continuación, tuvieron que determinar el número de formas de un color concreto: círculos verdes, por ejemplo. Mientras los participantes resolvían el problema, la computadora descodificaba a veces la palabra correspondiente a un número. En efecto, los participantes estaban contando las formas en silencio y la computadora las oía.
“Estos experimentos son los más emocionantes para mí”, dijo Herff, porque sugieren que el lenguaje puede desempeñar un papel en muchas formas distintas de pensamiento, más allá de la mera comunicación. “Parece que algunas personas realmente piensan así”.
Kunz y sus colegas estudiaron formas de evitar que la computadora espiara los pensamientos privados. Se les ocurrieron dos posibles soluciones.
Una sería descodificar solo los intentos de habla, y bloquear el habla interior. El nuevo estudio sugiere que esta estrategia podría funcionar. Aunque los dos tipos de pensamiento son similares, son lo bastante diferentes como para que una computadora pueda aprender a distinguirlos. En una prueba, los participantes mezclaron en sus mentes frases tanto de intento de habla como imaginarias. La computadora fue capaz de ignorar el discurso imaginado.
Para quien prefiriera comunicarse con el habla interior, Kunz y sus colegas idearon una segunda estrategia: una contraseña interna para activar y desactivar la descodificación. Decidieron que la contraseña tendría que ser una frase larga e inusual, así que eligieron “Chitty Chitty Bang Bang”, el título de una novela de Ian Fleming de 1964 y de una película de 1968 protagonizada por Dick van Dyke.
Una de las participantes, una mujer de 68 años con ELA, imaginó que decía “Chitty Chitty Bang Bang” junto con otras palabras. Al final, La computadora aprendió a reconocer la contraseña con una precisión del 98,75 por ciento, y descodificó su habla interior solo después de detectar la contraseña.
“Este estudio representa un paso en la dirección correcta desde el punto de vista ético”, manifestó Cohen Marcus Lionel Brown, bioético de la Universidad de Wollongong, Australia. “Si se aplica fielmente, daría a los pacientes un poder aún mayor para decidir qué información comparten y cuándo”.
Fedorenko, quien no participó en el nuevo estudio, lo calificó de “proeza metodológica”. Pero puso en duda que un implante pudiera espiar muchos de nuestros pensamientos. A diferencia de Herff, no cree que el lenguaje tenga un papel en gran parte de nuestro pensamiento.
Aunque la computadora BrainGate2 descodificó con éxito palabras que los pacientes imaginaban decir conscientemente, Fedorenko observó que funcionaba mucho peor cuando las personas respondían a órdenes abiertas. Por ejemplo, en algunas pruebas, se les pidió a los participantes que pensaran en su afición favorita cuando eran niños.
“Lo que registran es sobre todo basura”, dijo. “Creo que gran parte del pensamiento espontáneo no son frases lingüísticas bien formadas”.
👩⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺