
En las últimas décadas, los neuroingenieros han trabajado sin descanso con el objetivo de ayudar a personas que han perdido la capacidad de comunicarse mediante el habla. Enfermedades como la esclerosis lateral amiotrófica (ELA) o accidentes cerebrovasculares pueden inutilizar los músculos responsables de la voz y desconectar a quienes las sufren del mundo del lenguaje. Frente a este desafío, la idea de captar la actividad eléctrica cerebral con electrodos e interpretarla como palabras habladas ha impulsado innovaciones que transforman la frontera entre mente y tecnología.
Un equipo internacional de investigadores acaba de lograr un avance significativo en esta área, según un estudio publicado en la revista Cell. Hasta hace poco, solo era posible descifrar señales cerebrales cuando los pacientes trataban activamente de pronunciar palabras. Ahora, la novedad radica en que una computadora ha conseguido identificar, con una precisión notable, las palabras que una persona simplemente imagina decir. Este logro abre una puerta al diálogo para personas con parálisis severa, que podrían recuperar la posibilidad de comunicarse sin realizar esfuerzo físico.
Decodificar palabras solo con pensarlas
El reciente experimento se inscribe en el marco del ensayo clínico BrainGate2, que lleva años explorando formas de conectar el cerebro humano con las máquinas. Uno de los participantes, Casey Harrell, perdió su voz debido a la ELA y accedió a que se le implantaran cuatro matrices de microagujas sobre el córtex motor, área cerebral clave en los comandos del habla. Durante las pruebas, la computadora registraba las señales eléctricas emitidas cuando Harrell intentaba pronunciar palabras. Gracias a técnicas de inteligencia artificial, el sistema llegó a predecir cerca de 6.000 palabras con una exactitud del 97,5%, recreando luego el habla con la voz del propio Harrell, conservada en grabaciones previas a su diagnóstico.

La duda ética emergió de inmediato: ¿sería posible que estas máquinas llegaran a descifrar pensamientos que el paciente no deseara expresar en voz alta? Para investigarlo, el equipo liderado por la neurocientífica Erin Kunz, de la Universidad de Stanford, comparó las señales cerebrales durante el intento de hablar con las generadas únicamente al imaginar las palabras. El resultado fue impactante: aunque las señales de la “voz interior” eran más tenues, la computadora logró identificar correctamente palabras pensadas por algunos participantes en hasta el 70% de los casos, acercándose mucho más al azar en otros. Luego de mayor entrenamiento del sistema con ejemplos de habla imaginada, el nivel de precisión aumentó, incluso con oraciones completas.
Riesgos de privacidad mental y estrategias de control
El éxito en la decodificación de la voz interna potencia el futuro de las interfaces cerebro-máquina, pero despierta inquietudes sobre la privacidad de los pensamientos. Los investigadores experimentaron escenarios en los que la máquina detectó palabras ajenas a la intención comunicativa, como números pensados al contar objetos en una pantalla. Esto sugiere que, en ciertas tareas, el lenguaje interior puede filtrarse sin que el paciente lo desee.
Para afrontar este desafío ético, el equipo propuso y probó dos mecanismos de control. El primero consiste en entrenar la inteligencia artificial para distinguir entre habla intentada y habla imaginada, lo que permite bloquear la decodificación de pensamientos que el usuario no quiera comunicar. El segundo método introduce una “contraseña mental”: los pacientes imaginan una frase inusual (por ejemplo, “Chitty Chitty Bang Bang”) para activar voluntariamente la decodificación. En el caso de una participante, esta clave fue reconocida con un 98,75% de precisión, por lo cual el sistema solo interpretó el resto de los pensamientos si primero detectaba la “llave” mental.

Expertos como el bioeticista Marcus Lionel Brown consideran que estos avances representan un paso correcto para proteger la autonomía de los pacientes, quienes podrían decidir qué información compartir y cuándo hacerlo. Sin embargo, otros neurólogos, como Evelina Fedorenko del MIT, advierten que la tecnología todavía no puede descifrar el contenido espontáneo de los pensamientos humanos, ya que mucho del “ruido” cerebral grabado no corresponde a frases estructuradas.
Aunque estas interfaces aún están lejos de traducir el flujo libre y espontáneo de la mente, el progreso de estudios como BrainGate2 marca un precedente alentador. Pronto, quienes han perdido la voz podrían volver a comunicarse a través de un simple pensamiento, siempre y cuando su privacidad permanezca garantizada.
Últimas Noticias
¿GTA 6 se retrasa? Sus desarrolladores responden sobre la fecha lanzamiento del juego
Los directivos aseguran que su prioridad es dar la mejor experiencia al usuario, por encima de cumplir el cronograma

Las 10 industrias tecnológicas que transformarán el mundo en 2035
El informe de Forbes destacó sectores como la computación cuántica, la robótica colaborativa y la medicina personalizada como motores clave de la próxima revolución industrial global

El error que nadie notó de la icónica frase de Apple y Steve Jobs: Think Different
La campaña de 1997 homenajeaba a figuras históricas que cambiaron el mundo por pensar diferente, como Einstein y Gandhi

Cómo identificar archivos PDF peligrosos y protegerse de ciberataques
Enlaces sospechosos y solicitudes de permisos inusuales son algunas de las señales de un potencial peligro

Cuál es el precio de las principales criptomonedas este día
Estos han sido los movimientos de las criptomonedas en las últimas horas
