Un implante traduce las señales cerebrales en palabras

El dispositivo transforma los patrones neuronales que controlan el aparato fonador en sonidos, incluso en personas que han perdido el uso de esos músculos

El objetivo final es devolver la capacidad de hablar a aquellos que la han perdido, permitir a pacientes aquejados de parálisis graves reconectar con el mundo que los rodea. Un equipo de investigadores de la Universidad de California San Francisco (UCSF) ha conseguido acercar un poco más esta meta gracias a un dispositivo capaz de reproducir el habla a partir de las señales cerebrales provocadas por los movimientos de la mandíbula, la laringe, los labios y la lengua. Utilizando sensores conectados directamente a la corteza cerebral y técnicas de inteligencia artificial, los científicos han podido codificar y traducir esos impulsos en palabras.

Para convertir la voluntad de hablar en acción, los investigadores trabajaron con cinco pacientes a los que se había colocado electrodos intracraneales como parte de una intervención para acabar con sus ataques de epilepsia.

El equipo de la universidad norteamericana concibió un sistema en dos fases. Primero una etapa de aprendizaje, en la que los pacientes pronunciaban una serie de frases en voz alta, para registrar e identificar las señales neuronales asociadas a cada sonido. Después, una red neuronal artificial y un sintetizador permitieron recorrer el camino inverso: los participantes transmitieron sus impulsos a la máquina y ésta les puso voz gracias a un sintetizador.

“Los patrones de la actividad cerebral que ocurren en los centros que controlan el habla son los encargados de coordinar los movimientos del tracto vocal” explica Edward Chang, profesor de neurocirugía y coautor de la investigación. “Por eso queríamos crear una tecnología que pudiera reproducir las palabras directamente a partir de esos mismos patrones”.

RECUPERAR EL HABLA

Hablar es, en realidad, una de las acciones más complejas que realiza el Homo sapiens; requiere una coordinación precisa de todos los músculos que articulan el aparato fonador. Actualmente, las personas que han perdido esa capacidad después de un accidente cerebrovascular o una enfermedad degenerativa pueden usar sus ojos o pequeños movimientos faciales para controlar un cursor o seleccionar letras en pantalla. El astrofísico Stephen Hawking utilizaba esta tecnología de síntesis de voz para comunicarse con otros, a causa de la esclerosis lateral amiotrófica (ELA) que padecía: un interruptor conectado a sus gafas le permitía elegir las palabras pronunciadas después por un sintetizador de voz.

Sin embargo los sistemas existentes limitan la velocidad de la comunicación. En el caso del estudio, el proceso implica un cierto lapso de tiempo entre el impulso y la reproducción de la frase en voz alta, pero a cambio ofrece la capacidad de expresarse con una cadencia similar al habla normal. El experimento se completó, además, con una etapa de verificación, en la que un centenar de oyentes fueron capaces de identificar y transcribir más de un 70% del discurso articulado por la máquina a través de impulsos previos.

Más allá de las posibilidades de aplicación práctica que este sistema vocal ofrece en el futuro, el estudio aporta algunas claves sobre cómo se origina el habla a nivel neurológico. “Hemos demostrado también que un decodificador creado con información de una persona puede ser utilizado, al menos parcialmente, para traducir los impulsos de la actividad cerebral de otra”, señala Chang. Eso implica unas bases comunes, que podrían permitir crear un dispositivo genérico, entrenado con información de una o varias personas.

En un caso en concreto se pidió a un participante que vocalizase las frases sin producir sonidos, articulando sólo los movimientos vocales. Aunque el resultado en el sintetizador fue inferior a la media de inteligibilidad del resto de la prueba, los autores consideran que demuestra la viabilidad de decodificar características del habla, independientemente de que sean inaudibles. “El único requisito, es que los centros del habla en el cerebro estén intactos”, afirma Chang.

LEER EL PENSAMIENTO

Aunque no sea necesario pronunciar en voz alta las palabras para identificar los impulsos asociados, los científicos descartan que la máquina pueda leer y pronunciar de forma involuntaria los pensamientos. “Investigaciones previas han abordado la cuestión de si es posible o no descodificar pensamientos y han demostrado que se trata de un problema muy complejo”, matiza Chang. “En cualquier caso la tecnología en la que hemos trabajado no puede hacer eso: nos hemos centrado sólo en la parte que controla movimiento vocal”.

El estudio se sitúa aún en la etapa de prueba de concepto, es decir que su objetivo fundamental es demostrar que la tecnología es factible, más que asegurar su funcionamiento. Una de las dificultades inherentes a este campo es que los investigadores sólo pueden realizar las pruebas necesarias coincidiendo con ciertos procedimientos quirúrgicos ya que, de momento, sólo electrodos aplicados directamente en el córtex cerebral ofrecen la resolución necesaria. “El reto ahora es hacer que esta tecnología sea más natural, más inteligible”, concluye Chang. “Y nos estamos acercando, no puedo decir aún cuántos pasos nos faltan, pero se está desarrollando rápidamente”.