Reconoce las palabras que una persona está escuchando al leer su actividad cerebral
Investigadores de la Universidad de Columbia (Estados Unidos) han creado un sistema capaz de leer el pensamiento y de transformarlo en lenguaje . En concreto, esta tecnología es capaz de reconstruir las palabras que una persona está oyendo y transmitirlas con una voz robótica, sencillamente monitorizando la actividad cerebral.
Este logro, que ha sido publicado en la revista Scientific Reports , abre la puerta a nuevos sistemas de comunicación para personas que no pueden hablar, como las que tienen esclerosis lateral amiotrófica (ELA), y a futuros dispositivos que permitirían comunicarse directamente con ordenadores a través del pensamiento.
«Nuestra voz nos permite conectar con los amigos, la familia y el resto del mundo. Por eso, perderla a causa de una enfermedad o una lesión es tan devastador», ha explicado Nima Mesgarani , director de la investigación. «Con este estudio, presentamos una potencial forma de restaurar ese poder. Hemos mostrado que, con la tecnología adecuada, los pensamientos de estas personas pueden ser descodificados y comprendidos por cualquier persona que escuche».
Por el momento, la tecnología está dando sus primeros pasos. Los trabajos anteriores han mostrado que, cuando la gente habla o imagina que habla, aparecen unos patrones de actividad cerebral característicos. Además, cuando escuchamos a alguien, o bien cuando imaginamos que lo estamos haciendo, aparecen otros patrones.
Por eso, muchos sueñan con poder leer dichos patrones para descifrar los pensamientos y transformarlos en instrucciones o en un mensaje de voz robótica. ¿Cómo habría sido la comunicación con Stephen Hawking si en vez de haberse comunicado a través del movimiento de sus ojos, lo hubiera hecho por medio de un sistema así?
Con el objetivo de crear un dispositivo capaz de hacerlo, el equipo de Mesgarani creó un algoritmo, llamado «vocoder», capaz de producir discursos hablados después de entrenar escuchando conversaciones . «Esta es la misma tecnología usada por Echo, de Amazon, o por Siri, de Appel, para darnos respuestas verbales a nuestras preguntas», ha dicho Mesgarani.
Electrodos en el cerebro
En este caso, en vez de entrenar al algoritmo con conversaciones, le enseñaron a interpretar patrones de actividad cerebral . Para ello, aprovecharon que algunos pacientes de epilepsia se someten regularmente a operaciones cerebrales, para implantar unos electrodos capaces de leer esta actividad durante las intervenciones. Así lograron captar los patrones cerebrales mientras estos pacientes escuchaban frases pronunciadas por distintas personas.
En concreto, le pidieron a los pacientes escuchar a personas recitando 40 números del 0 al 9. En cada ocasión, el algoritmo produjo unos sonidos en respuesta a esas señales. Después, una inteligencia artificial basada en redes neurales, que imitan las conexiones cerebrales, limpió dicho sonido y emitió una voz robótica capaz de recitar los números. ¿Funcionó?
«Descubrimos que las personas pudieron comprender y repetir los sonidos en el 75% de las ocasiones , lo que está muy por encima de los intentos previos», ha dicho Mesgarani.
¿Qué será lo siguiente? Según ha adelantado el investigador, los próximos objetivos son usar frases y oraciones más complejas que los números y hacer las mismas pruebas no solo cuando una persona escucha, sino también cuando una persona habla o imagina que habla. En último término, pretenden crear un sistema que forme parte de un implante y que traduzca los pensamientos en palabras.
«La idea es que si el que lleva este implante piensa “necesito un vaso de agua”, nuestro sistema pueda identificar las señales cerebrales generadas con ese pensamiento, y convertirlas en una frase», ha dicho Mesgarani. «Esto lo cambiaría todo. Le daría a cualquiera que haya perdido su capacidad de hablar, una nueva oportunidad de conectar con el mundo a su alrededor».