Un nuevo dispositivo puede decodificar los pensamientos de pacientes con parálisis

Gracias a esta interfaz de electrodos, la computadora puede identificar las palabras que una persona simplemente imagina decir

Guardar
Se implantan cuatro de estos
Se implantan cuatro de estos dispositivos con microagujas sobre el córtex motor, área cerebral clave en los comandos del habla. (Jim Gensheimer/Universidad de Standford)

En las últimas décadas, los neuroingenieros han trabajado sin descanso con el objetivo de ayudar a personas que han perdido la capacidad de comunicarse mediante el habla. Enfermedades como la esclerosis lateral amiotrófica (ELA) o accidentes cerebrovasculares pueden inutilizar los músculos responsables de la voz y desconectar a quienes las sufren del mundo del lenguaje. Frente a este desafío, la idea de captar la actividad eléctrica cerebral con electrodos e interpretarla como palabras habladas ha impulsado innovaciones que transforman la frontera entre mente y tecnología.

Un equipo internacional de investigadores acaba de lograr un avance significativo en esta área, según un estudio publicado en la revista Cell. Hasta hace poco, solo era posible descifrar señales cerebrales cuando los pacientes trataban activamente de pronunciar palabras. Ahora, la novedad radica en que una computadora ha conseguido identificar, con una precisión notable, las palabras que una persona simplemente imagina decir. Este logro abre una puerta al diálogo para personas con parálisis severa, que podrían recuperar la posibilidad de comunicarse sin realizar esfuerzo físico.

Decodificar palabras solo con pensarlas

El reciente experimento se inscribe en el marco del ensayo clínico BrainGate2, que lleva años explorando formas de conectar el cerebro humano con las máquinas. Uno de los participantes, Casey Harrell, perdió su voz debido a la ELA y accedió a que se le implantaran cuatro matrices de microagujas sobre el córtex motor, área cerebral clave en los comandos del habla. Durante las pruebas, la computadora registraba las señales eléctricas emitidas cuando Harrell intentaba pronunciar palabras. Gracias a técnicas de inteligencia artificial, el sistema llegó a predecir cerca de 6.000 palabras con una exactitud del 97,5%, recreando luego el habla con la voz del propio Harrell, conservada en grabaciones previas a su diagnóstico.

Casey Harrell, uno de los
Casey Harrell, uno de los voluntarios del estudio. (The New York Times)

La duda ética emergió de inmediato: ¿sería posible que estas máquinas llegaran a descifrar pensamientos que el paciente no deseara expresar en voz alta? Para investigarlo, el equipo liderado por la neurocientífica Erin Kunz, de la Universidad de Stanford, comparó las señales cerebrales durante el intento de hablar con las generadas únicamente al imaginar las palabras. El resultado fue impactante: aunque las señales de la “voz interior” eran más tenues, la computadora logró identificar correctamente palabras pensadas por algunos participantes en hasta el 70% de los casos, acercándose mucho más al azar en otros. Luego de mayor entrenamiento del sistema con ejemplos de habla imaginada, el nivel de precisión aumentó, incluso con oraciones completas.

Riesgos de privacidad mental y estrategias de control

El éxito en la decodificación de la voz interna potencia el futuro de las interfaces cerebro-máquina, pero despierta inquietudes sobre la privacidad de los pensamientos. Los investigadores experimentaron escenarios en los que la máquina detectó palabras ajenas a la intención comunicativa, como números pensados al contar objetos en una pantalla. Esto sugiere que, en ciertas tareas, el lenguaje interior puede filtrarse sin que el paciente lo desee.

Para afrontar este desafío ético, el equipo propuso y probó dos mecanismos de control. El primero consiste en entrenar la inteligencia artificial para distinguir entre habla intentada y habla imaginada, lo que permite bloquear la decodificación de pensamientos que el usuario no quiera comunicar. El segundo método introduce una “contraseña mental”: los pacientes imaginan una frase inusual (por ejemplo, “Chitty Chitty Bang Bang”) para activar voluntariamente la decodificación. En el caso de una participante, esta clave fue reconocida con un 98,75% de precisión, por lo cual el sistema solo interpretó el resto de los pensamientos si primero detectaba la “llave” mental.

Tres autores del estudio inspeccionan
Tres autores del estudio inspeccionan una matriz de microelectrodos. (Jim Gensheimer/Universidad de Standford)

Expertos como el bioeticista Marcus Lionel Brown consideran que estos avances representan un paso correcto para proteger la autonomía de los pacientes, quienes podrían decidir qué información compartir y cuándo hacerlo. Sin embargo, otros neurólogos, como Evelina Fedorenko del MIT, advierten que la tecnología todavía no puede descifrar el contenido espontáneo de los pensamientos humanos, ya que mucho del “ruido” cerebral grabado no corresponde a frases estructuradas.

Aunque estas interfaces aún están lejos de traducir el flujo libre y espontáneo de la mente, el progreso de estudios como BrainGate2 marca un precedente alentador. Pronto, quienes han perdido la voz podrían volver a comunicarse a través de un simple pensamiento, siempre y cuando su privacidad permanezca garantizada.