Neurocientíficos recrean una canción de Pink Floyd a partir de ondas cerebrales grabadas

Neurocientíficos recrean una canción de Pink Floyd a partir de ondas cerebrales grabadas

Un grupo de científicos han reconstruido una canción clásica de Pink Floyd, a partir de las ondas cerebrales grabadas de pacientes sometidos a una operación de epilepsia mientras escuchaban el tema.

Investigadores de la Universidad de California en Berkeley (EE. UU.) utilizaron técnicas de inteligencia artificial para descodificar las señales cerebrales y recrear el éxito de 1979 "Another Brick In The Wall, Part 1".

Según el equipo, es la primera vez que los científicos reconstruyen una canción a partir de grabaciones de la actividad cerebral.

Este tipo de traducción algorítmica se había utilizado para recrear el habla a partir de escáneres cerebrales, pero no la música.

¿Cómo se desarrolló este proyecto científico?

Para el estudio, los investigadores analizaron las grabaciones de la actividad cerebral de 29 pacientes del Centro Médico de Albany, en el estado de Nueva York, entre 2009 y 2015.

Como parte del tratamiento de la epilepsia, a los pacientes se les implantó una red de electrodos en el cerebro. Esto brindó a los neurocientíficos la rara oportunidad de grabar su actividad cerebral mientras escuchaban música. Se utilizaron un total de 2 668 electrodos para registrar toda la actividad cerebral y 347 de ellos estaban específicamente relacionados con la música.

Según los científicos, la famosa frase "All in all it's just another brick in the wall" es reconocible en la canción reconstruida y los ritmos permanecen intactos.

"Suena un poco como si estuvieran hablando bajo el agua, pero es la primera vez que lo conseguimos", afirma Robert Knight, neurólogo y profesor de psicología del Instituto de Neurociencia Helen Wills de la Universidad de Berkeley, que dirigió el estudio junto con el becario postdoctoral Ludovic Bellier.

Según el equipo, los hallazgos, publicados en la revista PLOS Biology, demuestran que las señales cerebrales pueden traducirse para captar los elementos musicales del habla (prosodia) —patrones de ritmo, sonido, acento y entonación— que transmiten un significado que las palabras por sí solas no pueden expresar.

Los científicos creen que su trabajo puede ayudar a comprender mejor cómo responde el cerebro a la música, y podría allanar el camino a nuevos dispositivos protésicos útiles para mejorar la percepción del ritmo y la melodía del habla.

Este proyecto podría ayudar a personas con daños neurológicos

Este estudio también representa un gran avance para neurocientíficos y neurotecnólogos que quieren ayudar a personas con daños neurológicos graves, como la esclerosis lateral amiotrófica, la enfermedad neurodegenerativa que se le diagnosticó a Stephen Hawking. El estudio podría ayudar también a personas que han sufrido un ictus o una parálisis, o que tienen otros problemas de comunicación verbal, a comunicarse a través de interfaces cerebro-ordenador de una forma que suene más natural.

"Es un resultado maravilloso", dijo Knight.

"Para mí, la música tiene prosodia y contenido emocional. A medida que avanza el campo de las interfaces cerebro-máquina, esto permite añadir musicalidad a futuros implantes cerebrales para quienes lo necesiten, por ejemplo, personas con esclerosis lateral amiotrófica (ELA) u otro trastorno neurológico o del desarrollo que afecte al habla. Permite descodificar no sólo el contenido lingüístico, sino también parte del contenido prosódico del habla, parte del afecto. Creo que hemos empezado a descifrar el código".