Unos científicos reconstruyen una canción de Pink Floyd usando solo ‘grabaciones cerebrales’ de pacientes
MARTES, 15 de agosto de 2023 (HealthDay News) -- La famosa letra de Pink Floyd emerge de un sonido que es turbio, pero musical:
"All in all, it was just a brick in the wall".
Pero esta grabación particular no provino del álbum "The Wall" de 1979, ni de un concierto de Pink Floyd.
En lugar de esto, los investigadores la crearon de las ondas cerebrales reconstituidas de personas que escucharon la canción "Another Brick in the Wall, Part 1".
Esta es la primera vez que unos investigadores han reconstruido una canción reconocible exclusivamente a partir de grabaciones cerebrales, según un nuevo informe, que se publicó en la edición del 15 de agosto de la revista PLOS Biology.
En última instancia, el equipo de la investigación espera que sus hallazgos lleven a un habla más natural mediante interfaces entre cerebro y máquina, que ayuden en la comunicación de las personas que están "enclaustradas" debido a la parálisis, y no pueden hablar.
"Ahora mismo, cuando solo producimos palabras, es robótico", comentó el investigador sénior, el Dr. Robert Knight, profesor de psicología y neurociencia de la Universidad de California, en Berkeley.
Piense en el habla computarizada asociada con uno de los pacientes enclaustrados más famosos del mundo, Stephen Hawking.
El habla humana está conformada por palabras, pero también tiene musicalidad, aclaró Knight, y las personas añaden distintos significados y emociones basándose en conceptos musicales como la entonación y el ritmo.
"La música es universal. Es probable que existiera en las culturas antes que el lenguaje", planteó Knight. "Nos gustaría fusionar esta señal de extracción musical con la señal de extracción de palabras, para crear una interfaz más humana".
Unos electrodos implantados en los cerebros de los pacientes capturaron la actividad eléctrica en regiones del cerebro que se sabe que procesan los atributos de la música (el tono, el ritmo, la armonía y las palabras), mientras los investigadores reproducían un clip de tres minutos de la canción.
Se recogieron estas grabaciones de 29 pacientes en 2012 y 2013. Todos los pacientes sufrían de epilepsia, y los cirujanos implantaron los electrodos para ayudar a determinar la región cerebral exacta que provocaba sus convulsiones, apuntó Knight.
"Mientras están en el hospital para esperar a sufrir tres convulsiones [para determinar la ubicación de las convulsiones], podemos realizar experimentos como estos si los pacientes lo aceptan", explicó Knight.
A partir de 2017, los investigadores comenzaron a alimentar estas ondas cerebrales grabadas a una computadora programada para analizar los datos.
Al final, el algoritmo desarrolló la inteligencia suficiente para decodificar la actividad cerebral en una reproducción de la canción de Pink Floyd que los pacientes escucharon años antes.
"Este estudio representa un paso hacia delante en la comprensión de la neuroanatomía de la percepción musical", señaló el Dr. Alexander Pantelyat, neurólogo de los trastornos del movimiento, violinista y director del Centro de Música y Medicina Johns Hopkins. Pantelyat no participó en la investigación.
"La precisión de la detección del sonido debe mejorarse en el futuro, y no está claro si estos hallazgos se podrán aplicar de forma directa a la decodificación de los elementos prosódicos del habla, es decir, el tono, la inflexión y la emoción", aclaró Pantelyat.
"Pero estos hallazgos tempranos sí tienen potencial para mejorar la calidad de la detección de las señales para las interfaces entre cerebro y computadora, al dirigirse al giro temporal superior", añadió Pantelyat. "Esto ofrece esperanzas a los pacientes que tienen dificultades de comunicación debido a varias enfermedades neurológicas, como la ELA [esclerosis lateral amiotrófica] o una lesión cerebral traumática".
De hecho, los resultados mostraron que las regiones auditivas del cerebro podrían ser un mejor objetivo en términos de la reproducción del habla, planteó el investigador principal, Ludovic Bellier, miembro postdoctoral del Instituto de Neurociencia Helen Wills de la UC Berkeley.
Muchos esfuerzos anteriores por reproducir el habla a partir de ondas cerebrales se han enfocado en la corteza motora, la parte del cerebro que genera los movimientos de la boca y las cuerdas vocales que se utilizan para crear la acústica del habla, dijo Bellier.
"Ahora mismo, la tecnología es más bien como un teclado de la mente", aclaró Bellier en un comunicado de prensa. "No es posible leer los pensamientos en un teclado. Hay que presionar las teclas. Y esto produce una voz más bien robótica, y sin duda hay menos de lo que yo llamo libertad expresiva".
El mismo Bellier ha sido músico desde la niñez, y en un momento incluso actuó en una banda de heavy metal.
Al usar las grabaciones cerebrales, Bellier y sus colegas también pudieron determinar nuevas áreas del cerebro implicadas en la detección del ritmo. Además, distintas áreas de la región auditiva respondían a distintos sonidos, por ejemplo a las notas de un sintetizador frente a unas vocalizaciones sostenidas.
Los investigadores confirmaron que el lado derecho del cerebro está más sintonizado con la música que el lado izquierdo, apuntó Knight.
En este momento, la tecnología no ha avanzado lo suficiente para que las personas pueden reproducir esta habla de calidad usando solo las lecturas de un EEG extraídas del cuero cabelludo, afirmó Knight. Se requieren implantes de electrodos, lo que implica una cirugía invasiva.
"La señal que estamos grabando se conoce como actividad de alta frecuencia, y es muy robusta en la corteza, de unos 10 microvoltios", explicó Knight. "Pero cuando llega al cuero cabelludo se ha reducido 10 veces, lo que significa que es de un microvoltio, que se encuentra en el nivel de ruido de solo la actividad muscular del cuero cabelludo".
También se necesitan mejores electrodos para de verdad permitir una reproducción del habla de calidad, añadió Knight. Anotó que los electrodos que utilizaron estaban separados por 5 milímetros, y que se pueden obtener unas señales mucho mejores si están separados por 1.5 milímetros.
"Lo que de verdad necesitamos son unas redes con una densidad más alta, porque para cualquier método de aprendizaje automático, se trata de qué cantidad de datos se ingresan a lo largo de cuánto tiempo", enfatizó Knight. "Estuvimos restringidos a 64 puntos de datos durante 3 minutos. Pienso que si tuviéramos 6,000 durante 6 minutos, la calidad de la canción sería increíble".
Knight comentó que su equipo acaba de recibir una subvención para investigar a pacientes con afasia de Broca, un tipo de trastorno del cerebro que interfiere con la capacidad de hablar.
"Estos pacientes no pueden hablar, pero sí pueden cantar", dijo Knight. Lo que se aprenda en este estudio podría ayudar al equipo a comprender mejor por qué las personas con estas lesiones pueden cantar lo que no pueden decir.
Más información
La Clínica Cleveland ofrece más información sobre el síndrome de enclaustramiento.
Artículo por HealthDay, traducido por HolaDoctor.com
FUENTES: Robert Knight, MD, professor, psychiatry and neuroscience, University of California, Berkeley; Alexander Pantelyat, MD, movement disorders neurologist, violinist and director, Johns Hopkins Center for Music and Medicine, Baltimore; Ludovic Bellier, PhD, postdoctoral fellow, Helen Wills Neuroscience Institute, University of California, Berkeley; PLOS Biology, Aug. 15, 2023
Related Posts
Increase in Emotional Distress Observed Worldwide in 2020
MONDAY, March 27, 2023 (HealthDay News) -- The pandemic period was characterized...
Racial Disparities Seen for Pulmonary Fibrosis Outcomes
WEDNESDAY, March 29, 2023 (HealthDay News) -- Racial and ethnic-minority...
HTN, T2DM Contribute to Brain Changes in Puerto Rican Seniors
FRIDAY, April 1, 2022 (HealthDay News) -- Hypertension (HTN) and type 2 diabetes...
COVID-19 Infects Through Touched Surfaces in Homes, Study Confirms
FRIDAY, April 7, 2023 (HealthDay News) -- For what they say is the first time,...