Como hacía con Stephen Hawking, una máquina logró traducir la actividad cerebral en palabras

Una publicación en la prestigiosa revista Nature detalla el trabajo de un grupo de científicos que lograron generar palabras completas a partir de la actividad cerebral de los pacientes. Su investigación abre una puerta de esperanza a quienes perdieron la voz por diferentes enfermedades.

Adrián Díaz - Agencia N+1*
26 de abril de 2019 - 06:06 p. m.
Stephen Hawking. / Wikimedia - Creative Commons - Nasa
Stephen Hawking. / Wikimedia - Creative Commons - Nasa

“Por primera vez podemos generar oraciones habladas completas basadas en la actividad cerebral de un individuo". Con esas palabras, Edward Chang, presentó el trabajo que acaba de publicar la prestigiosa revista Nature. Profesor de cirugía neurológica en la Universidad de California en San Francisco (UCSF), él es el autor principal de la investigación que abre un camino para devolverles el habla a los pacientes que la perdieron. (Lea Si tiene hijos, prepárese: Colombia realizará una gran jornada de vacunación el 27 de abril)

Como sucedía con Stephen Hawking, que solía usar una suerte de sintetizadores que le ayudaban a deletrear palabras usando los movimientos de los músculos de la cara y los ojos, este tipo de decodificadores permite que las personas comuniquen lo que quieren decir. La cantidad de palabras, sin embargo, aún es muy limitada: ocho por minuto. (Lea Una universidad japonesa no contratará profesores que fumen cigarrillos. ¿Es justo?)

Anteriormente, los estudios sobre el habla se habían enfocado en entender cómo se representan los sonidos en el cerebro. Sin embargo, el doctor Chang y sus colegas se centraron en estudiar aquellas áreas del cerebro que envían instrucciones para coordinar movimientos de las partes del cuerpo (lengua, los labios, la mandíbula y la garganta) involucradas en el habla.

“Pensamos que si estos centros de habla en el cerebro codifican movimientos en lugar de sonidos, deberíamos intentar hacer lo mismo en la decodificación de esas señales", afirmó Gopala Anumanchipalli, neurocientífico de la Universidad de California San Francisco (UCSF) y coautor del artículo.

Para realizar el estudio, se reclutó a cinco voluntarios que iban a someterse a una neurocirugía para la epilepsia. Los médicos implantaron electrodos en el cerebro para identificar cuáles eran las fuentes de las convulsiones. Cuando los pacientes leyeron varias oraciones, los científicos registraron la actividad de un área del cerebro involucrada en la producción del habla.

Con ello se decodificó el habla traduciendo las señales eléctricas a movimientos vocales, los cuales se convertían a sonidos. Luego se entrenó un algoritmo de aprendizaje automático que debían hacer coincidir los patrones de actividad eléctrica del cerebro con los movimientos vocales que estos generaban: presionar los labios, apretar las cuerdas vocales y mover la punta de la lengua.

Las muestras obtenidas suenan a una voz humana normal, pero con un acento extranjero. Para probar la inteligibilidad, a través de Mechanical Turk, una plataforma de Amazon, se hizo que cientos de personas escucharan los audios. Durante la prueba, los oyentes tenían que escribir lo que oían: 100 oraciones y grupos de 25 palabras.

Sus transcripciones fueron correctas el 43% del tiempo. Sin embargo, existían algunos problemas para decodificar los sonidos como “p” y “b”. Otros sonidos como “sh” y “z” sí fueron entendidos con precisión.

El siguiente reto será determinar si alguien mudo puede aprender a usar el sistema sin entrenarlo con su propia voz. “Esto podría ser realmente importante para brindarles a las personas que no tienen medios para producir lenguaje un dispositivo que pueda ofrecérselo", afirmó la profesora de neurociencia cognitiva Kate Watkins, quien no participó del estudio. Ella considera que este trabajo en un gran avance en el campo de la neurociencia.

Las limitaciones de los sintetizadores de voz como el que usaba Hawking radican en que, a pesar de reconocer los movimientos de los usuarios y utilizar una tecnología predictiva, el proceso es frustrantemente lento. Por ello, este último estudio podría, por primera vez, permitir que levanten la voz quienes han sido privados del habla y se les escuche claramente.

*Este artículo fue publicado originalmente en N+1, ciencia que suma

Por Adrián Díaz - Agencia N+1*

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar