Estudian la manera de leer la mente a través de unos AirPods usando IA

Apple quiere interpretar señales cerebrales en tiempo real para detectar casos de epilepsia, trastornos del sueño y enfermedades neurodegenerativas

Guardar
Apple explora la integración de
Apple explora la integración de inteligencia artificial en AirPods para interpretar señales cerebrales en tiempo real. (REUTERS/Manuel Orbegozo)
Apple quiere potenciar sus AirPods con la posibilidad de leer la mente usando inteligencia artificial. El objetivo es interpretar ciertas señales cerebrales en tiempo real, integrando inteligencia artificial y sensores avanzados.

Según investigaciones recientes y documentos accesibles públicamente, la empresa explora nuevas formas de captar señales electroencefalográficas —las conocidas EEG, utilizadas en hospitales para estudiar la actividad cerebral— a través de dispositivos del día a día, como los AirPods.

El gigante tecnológico basa estos avances en la incorporación de sensores diminutos y electrodos dentro de los propios auriculares, permitiendo así la monitorización de la actividad cerebral desde el oído.

La propuesta se apoya en un estudio titulado “Aprendizaje de la composición relativa de las señales de EEG utilizando preentrenamiento de desplazamiento relativo por pares”, y resume la idea central en un método que usa inteligencia artificial para analizar la actividad cerebral sin intervención humana directa.

La tecnología EEG aplicada a
La tecnología EEG aplicada a los AirPods permitiría monitorizar la actividad cerebral desde el oído con sensores avanzados. (Europa Press)

Cómo funcionaría la lectura de la menta a través de AirPods

La técnica, conocida como PARS (PAirwise Relative Shift), utiliza autoaprendizaje: en lugar de depender de neurología especializada y registros manuales, el sistema entrena un modelo predictivo que identifica patrones y diferencias temporales en las señales eléctricas recogidas por los sensores.

La realidad de tener un dispositivo cotidiano que no solo reproduzca música, sino que además pueda leer la mente —o al menos reconocer ciertos estados cerebrales— está mucho más cerca de lo que parece.

Los sensores diseñados por Apple prometen captar la actividad cerebral desde el canal auditivo, apoyándose en la innovación biométrica y avances recientes en inteligencia artificial.

Mientras que el análisis EEG tradicional requiere contactos sobre el cuero cabelludo, el nuevo enfoque recoge la información directamente desde el oído, donde pueden ubicarse múltiples electrodos en la carcasa de los AirPods. Estos elementos bioeléctricos rastrean las señales eléctricas originadas por la actividad neuronal, cargando esos datos hacia modelos informáticos avanzados.

Los AirPods podrían detectar niveles
Los AirPods podrían detectar niveles de atención, episodios de estrés y posibles anomalías neurológicas en usuarios. (Apple)

El algoritmo PARS, clave en esta innovación, toma segmentos aleatorios de la señal cerebral registrada y predice la distancia temporal entre ellos. Con ello, aprende a diferenciar y clasificar distintos patrones, como las etapas del sueño, variaciones en la atención o incluso potenciales anomalías neurológicas, sin depender de amplias bases de datos pre-etiquetadas, que tradicionalmente requieren intervención humana.

Los resultados observados en pruebas experimentales muestran que los modelos entrenados bajo este enfoque igualan o superan los métodos previos. Esto sugiere que los AirPods —o dispositivos auditivos similares— podrían realizar funciones que hasta ahora estaban reservadas a complejos sistemas hospitalarios, todo en un formato cómodo y casi invisible para el usuario.

Cómo se podría usar esta tecnología en el día a día

Los datos recabados a partir de la actividad cerebral podrían abrir múltiples posibilidades en el monitoreo de la salud y el bienestar. Por ejemplo, los AirPods equipados con esta tecnología podrían detectar cuándo una persona está dormida, identificar niveles de atención, registrar episodios de estrés o incluso advertir sobre la aparición de ciertos problemas neurológicos.

Otros sensores integrados en los auriculares podrían captar pulsos de volumen sanguíneo, actividad muscular facial o movimientos oculares. El dispositivo transferiría los datos procesados al iPhone, donde la inteligencia artificial depuraría el ruido externo y analizaría los resultados para entregar información útil al usuario o incluso a profesionales médicos, si así lo autorizara.

Los datos cerebrales recogidos por
Los datos cerebrales recogidos por los AirPods se procesarían en el iPhone mediante inteligencia artificial para ofrecer información útil. (APPLE)

En el largo plazo, este tipo de tecnología podría facilitar la detección temprana de trastornos como la epilepsia, problemas de sueño o enfermedades neurodegenerativas, y convertirse en herramientas de biofeedback para entrenar la concentración y el bienestar mental.

A todo esto se suma la posibilidad de incorporar estos mecanismos en rutinas de entrenamiento, seguimiento del estado de alerta al volante y optimización del descanso.