Escuche una canción de Pink Floyd reconstruida a partir de actividad cerebral

Por medio de inteligencia artificial, un grupo de investigadores logró reconstruir la parte uno de “Another Brick in The Wall”, a partir de las grabaciones de ondas cerebrales de 29 pacientes con epilepsia. ¿Cómo lo hicieron?

16 de agosto de 2023 - 01:06 p. m.
Se analizaron los datos de 29 pacientes con epilepsia.
Se analizaron los datos de 29 pacientes con epilepsia.
Foto: iStock

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Es probable que, si sabe de la banda Pink Floyd, también ubique una de sus canciones clásicas: “Another Brick in The Wall”. La canción tiene tres partes, siendo la parte dos la más reconocida, pero todas tienen una melodía similar. Entonces, es probable que sepa cómo suena la canción cuando cantan: “All in all, it was just a brick in the wall”.

Ahora, un grupo de investigadores ha reconstruido la canción a partir de las ondas cerebrales de un grupo de personas que escuchaba la canción. Se trata de la primera vez en que se reconstruye una canción reconocible a partir de grabaciones de la actividad eléctrica del cerebro.

Por medio del uso de inteligencia artificial, los investigadores lograron recrear un audio de la canción, confuso pero reconocible, de la canción. Los resultados fueron publicados en la revista PLOS Biology. (También puede leer: Descubren el fósil de una de las ballenas más pequeñas y antiguas de África)

Específicamente, los investigadores utilizaron y analizaron los datos de 29 pacientes, que estaban siendo monitoreados para detectar ataques epilépticos. Después de todo, el objetivo de los científicos es que, eventualmente, este tipo de avances puedan ayudar a personas que no pueden hablar después de presentar alguna condición médica.

Los pacientes estaban siendo monitoreados por medio de pequeños conjuntos de electrodos, que se ubicaron directamente sobre la superficie del cerebro. El equipo luego analizó las grabaciones cerebrales de estas personas mientras escuchaba un segmento de aproximadamente tres minutos de la canción de Pink Floyd, extraída de su álbum de 1979 The Wall.

¿Por qué eligieron esta canción? Como explicó Ludovic Bellier, neurocientífico cognitivo y autor principal del estudio, a Scientific American “la razón científica, que mencionamos en el artículo, es que la canción tiene muchas capas. Incorpora acordes complejos, instrumentos diferentes y ritmos diversos que la hacen interesante de analizar. La razón menos científica podría ser que simplemente nos gusta mucho Pink Floyd”.

Después de tener las grabaciones, los investigadores las pasaron por un modelo de inteligencia artificial. Este analizó los patrones de respuesta del cerebro a los distintos componentes del perfil acústico de la canción, como los cambios de tono, ritmo y timbre. (Le puede interesar: Descubren una nueva especie de escarabajo en el país con unos genitales únicos)

Otro modelo de inteligencia artificial, después, volvió a ensamblar esta composición, para estimar los sonidos que oían los pacientes. Una vez que los datos cerebrales pasaron por el modelo, la música volvió a sonar. La melodía estaba casi igual y, aunque la letra es confusa, porque suena como si se hubiera cantado debajo del agua, la canción se distingue.

En este enlace del portal especializado Science podrá escuchar a las dos versiones de la canción: la original y la que fue reconstruida a partir de inteligencia artificial. Además de esta reconstrucción, el modelo también determinó qué partes del cerebro respondían a las distintas características musicales de la canción.

Así, los investigadores encontraron que, mientras que algunas zonas responden al inicio de una voz o un sintetizador, como ciertas partes del centro de procesamiento de audio del cerebro, otras responden con el sonido de zumbidos sostenidos.

Este mismo grupo de investigadores había logrado anteriormente descifrar el habla a partir de grabaciones cerebrales, per “en general, todos estos intentos de reconstrucción han tenido una cualidad robótica”, afirmó a The Guardian el profesor Robert Knight, neurólogo de la Universidad de California en Berkeley (EE. UU.), que dirigió el estudio con Bellier.

“La música, por su propia naturaleza, es emocional y prosódica: tiene ritmo, acento y entonación. Contiene un espectro de cosas mucho mayor que los fonemas limitados de cualquier lengua, lo que podría añadir otra dimensión a un descodificador implantable del habla”, agregó.

👩‍🔬📄 ¿Quieres conocer las últimas noticias sobre ciencia? Te invitamos a verlas en El Espectador. 🧪🧬

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar