Un implante cerebral convierte los pensamientos en voz en tiempo real

El sistema utilizó microelectrodos implantados en la corteza motora para registrar la actividad neuronal, que fue interpretada por una inteligencia artificial y transformada en una voz sintética similar a la original del paciente

Guardar
El sistema, aún en fase
El sistema, aún en fase experimental, fue probado con un paciente de 46 años identificado como T15, diagnosticado con ELA. (Composición Infobae: UC Davis)

La posibilidad de recuperar la voz perdida debido a enfermedades neuromotoras ya no es solo una hipótesis experimental. Investigadores de la Universidad de California en Davis han logrado un avance significativo en neurotecnología al desarrollar un sistema capaz de traducir señales cerebrales en voz sintética en tiempo real, permitiendo que personas con parálisis severa puedan comunicarse de forma oral nuevamente.

Este desarrollo plantea un cambio de paradigma en los sistemas de asistencia al habla. A diferencia de las soluciones previas que se limitaban a convertir pensamientos en texto, esta nueva interfaz busca replicar los elementos naturales del habla humana, incluyendo la entonación, el ritmo y el timbre, con un grado de expresividad nunca antes alcanzado en este tipo de dispositivos.

Una neuroprótesis que imita el habla humana

El sistema, aún en fase experimental, fue probado con un paciente de 46 años identificado como T15, diagnosticado con esclerosis lateral amiotrófica (ELA). Esta enfermedad neurodegenerativa compromete funciones musculares como la respiración o el habla. Antes de la intervención, el paciente apenas podía ser comprendido al comunicarse. Gracias a este implante cerebral, logró emitir sonidos inteligibles, entonar frases y hasta cantar breves melodías.

Representación de un cerebro humano
Representación de un cerebro humano con una matriz de microelectrodos insertada en su superficie cortical. (UC Davis)
La tecnología utiliza 256 microelectrodos implantados en la corteza motora del cerebro, zona asociada a la producción del habla.

Estas señales neuronales son captadas y enviadas a un sistema externo que emplea inteligencia artificial para decodificarlas y convertirlas en sonido artificial, con una latencia de apenas 10 milisegundos, lo que permite que el intercambio sea prácticamente en tiempo real.

Resultados preliminares y próximos pasos

Durante las pruebas, el sistema permitió generar una voz artificial similar a la original del paciente. En ejercicios de opción múltiple, los oyentes identificaron correctamente el 100% de las frases emitidas. No obstante, en transcripciones abiertas —sin sugerencias previas— la tasa de error fue del 43,75%, aunque esto representa un avance notable frente al 96% de error en la comprensión de su habla sin asistencia.

Una de las principales innovaciones es la capacidad de expresar intenciones comunicativas, como realizar preguntas o enfatizar palabras, lo que refleja matices emocionales y lingüísticos ausentes en tecnologías anteriores. Los investigadores también observaron que el sistema puede captar la intención de cantar, replicando estructuras melódicas.

En ejercicios de opción múltiple,
En ejercicios de opción múltiple, los oyentes identificaron correctamente el 100% de las frases emitidas. (UC Davis)

El equipo de la Universidad de California planea avanzar hacia ensayos clínicos con una versión mejorada del dispositivo, que incorporará hasta 1.600 electrodos para incrementar la precisión y la estabilidad del sistema en contextos cotidianos.

Este proyecto se suma a una creciente línea de investigación que busca restaurar capacidades de comunicación en personas con discapacidades severas del habla, mediante una integración más fluida entre el pensamiento y el lenguaje hablado.

Cómo la esclerosis lateral amiotrófica afecta la capacidad del habla

La esclerosis lateral amiotrófica (ELA) es una enfermedad neurodegenerativa progresiva que afecta las neuronas motoras responsables del control voluntario de los músculos. A medida que estas neuronas se deterioran, las señales que normalmente viajan desde el cerebro hacia los músculos se debilitan o se interrumpen por completo. Esta pérdida de conexión muscular no solo compromete funciones como la movilidad o la respiración, sino que también impacta de forma directa en la capacidad de hablar.

El habla es una función motora compleja que requiere la coordinación precisa de músculos en la lengua, labios, mandíbula, cuerdas vocales y diafragma. En personas con ELA, la degeneración de las motoneuronas afecta progresivamente esta musculatura, lo que deriva en un trastorno llamado disartria, caracterizado por una pronunciación imprecisa, dificultad para modular el tono y pérdida de ritmo en el habla. En etapas más avanzadas, los pacientes pueden perder por completo la capacidad de comunicarse oralmente.

Los primeros signos de alteración en el habla pueden incluir una voz nasal, pausas inusuales entre palabras o una articulación más lenta. Con el tiempo, la voz puede volverse apenas audible, y el esfuerzo requerido para hablar se incrementa, lo que lleva a la fatiga y a una reducción voluntaria de la comunicación oral. Esta pérdida tiene consecuencias emocionales y sociales significativas, ya que limita la capacidad de expresar ideas, emociones o necesidades básicas.