
La posibilidad de recuperar la voz perdida debido a enfermedades neuromotoras ya no es solo una hipótesis experimental. Investigadores de la Universidad de California en Davis han logrado un avance significativo en neurotecnología al desarrollar un sistema capaz de traducir señales cerebrales en voz sintética en tiempo real, permitiendo que personas con parálisis severa puedan comunicarse de forma oral nuevamente.
Este desarrollo plantea un cambio de paradigma en los sistemas de asistencia al habla. A diferencia de las soluciones previas que se limitaban a convertir pensamientos en texto, esta nueva interfaz busca replicar los elementos naturales del habla humana, incluyendo la entonación, el ritmo y el timbre, con un grado de expresividad nunca antes alcanzado en este tipo de dispositivos.
Una neuroprótesis que imita el habla humana
El sistema, aún en fase experimental, fue probado con un paciente de 46 años identificado como T15, diagnosticado con esclerosis lateral amiotrófica (ELA). Esta enfermedad neurodegenerativa compromete funciones musculares como la respiración o el habla. Antes de la intervención, el paciente apenas podía ser comprendido al comunicarse. Gracias a este implante cerebral, logró emitir sonidos inteligibles, entonar frases y hasta cantar breves melodías.

La tecnología utiliza 256 microelectrodos implantados en la corteza motora del cerebro, zona asociada a la producción del habla.
Estas señales neuronales son captadas y enviadas a un sistema externo que emplea inteligencia artificial para decodificarlas y convertirlas en sonido artificial, con una latencia de apenas 10 milisegundos, lo que permite que el intercambio sea prácticamente en tiempo real.
Resultados preliminares y próximos pasos
Durante las pruebas, el sistema permitió generar una voz artificial similar a la original del paciente. En ejercicios de opción múltiple, los oyentes identificaron correctamente el 100% de las frases emitidas. No obstante, en transcripciones abiertas —sin sugerencias previas— la tasa de error fue del 43,75%, aunque esto representa un avance notable frente al 96% de error en la comprensión de su habla sin asistencia.
Una de las principales innovaciones es la capacidad de expresar intenciones comunicativas, como realizar preguntas o enfatizar palabras, lo que refleja matices emocionales y lingüísticos ausentes en tecnologías anteriores. Los investigadores también observaron que el sistema puede captar la intención de cantar, replicando estructuras melódicas.

El equipo de la Universidad de California planea avanzar hacia ensayos clínicos con una versión mejorada del dispositivo, que incorporará hasta 1.600 electrodos para incrementar la precisión y la estabilidad del sistema en contextos cotidianos.
Este proyecto se suma a una creciente línea de investigación que busca restaurar capacidades de comunicación en personas con discapacidades severas del habla, mediante una integración más fluida entre el pensamiento y el lenguaje hablado.
Cómo la esclerosis lateral amiotrófica afecta la capacidad del habla
La esclerosis lateral amiotrófica (ELA) es una enfermedad neurodegenerativa progresiva que afecta las neuronas motoras responsables del control voluntario de los músculos. A medida que estas neuronas se deterioran, las señales que normalmente viajan desde el cerebro hacia los músculos se debilitan o se interrumpen por completo. Esta pérdida de conexión muscular no solo compromete funciones como la movilidad o la respiración, sino que también impacta de forma directa en la capacidad de hablar.
El habla es una función motora compleja que requiere la coordinación precisa de músculos en la lengua, labios, mandíbula, cuerdas vocales y diafragma. En personas con ELA, la degeneración de las motoneuronas afecta progresivamente esta musculatura, lo que deriva en un trastorno llamado disartria, caracterizado por una pronunciación imprecisa, dificultad para modular el tono y pérdida de ritmo en el habla. En etapas más avanzadas, los pacientes pueden perder por completo la capacidad de comunicarse oralmente.
Los primeros signos de alteración en el habla pueden incluir una voz nasal, pausas inusuales entre palabras o una articulación más lenta. Con el tiempo, la voz puede volverse apenas audible, y el esfuerzo requerido para hablar se incrementa, lo que lleva a la fatiga y a una reducción voluntaria de la comunicación oral. Esta pérdida tiene consecuencias emocionales y sociales significativas, ya que limita la capacidad de expresar ideas, emociones o necesidades básicas.
Últimas Noticias
Epic Games Store te regala estos juegos por tiempo limitado: cómo obtenerlos
Los títulos gratuitos son Return to Ash y STALCRAFT: X Edición Starter

WhatsApp: así puedes leer los mensajes antiguos si eres nuevo en un grupo
Al agregar a una persona a un grupo, se habilita la posibilidad de compartir entre 25 y 100 mensajes recientes, de modo que los nuevos integrantes acceden únicamente al contexto más relevante

Meta redibuja los roles tradicionales: gerentes de producto se convierten en “desarrolladores de IA”
Reality Labs, la división responsable de las gafas inteligentes y la realidad virtual, es un claro ejemplo de la creación de equipos nativos de IA

Ni pública ni privada: por qué la nube híbrida es el “punto medio” para no frenar el crecimiento de las empresas
El éxito de la infraestructura mixta en la nube depende de minimizar la latencia y simplificar la operación

Meta anuncia el cierre del sitio web de Messenger: esto va a pasar con tus chats
Los chats de Messenger no se perderán tras el cierre de la página; solo cambiará la forma de acceder a ellos, que será desde la app móvil o en el sitio de Facebook




