Una interfaz cerebral permite decodificar el habla y controlar un ordenador a un paciente con ELA
Controlar el ordenador con la mente ya no es ciencia ficción. Un nuevo implante cerebral permite a un hombre con esclerosis lateral amiotrófica mover el cursor y comunicarse usando solo la actividad del área cerebral del habla.
Por Enrique Coperías
Para el experimento, los científicos trabajaron con un voluntario identificado como T15, un hombre de 45 años con ELA avanzada que había perdido casi toda movilidad y tenía dificultades para hablar. Mediante un solo implante cerebral, recuperó tanto la capacidad de comunicarse como la posibilidad de interactuar con la tecnología digital de forma independiente. Imagen conceptual generada con DALL-E
Un equipo de investigadores de la Universidad de California en Davis (Estados Unidos) ha dado un paso trascendental hacia el futuro de las interfaces cerebro-computadora (ICC). En un innovador estudio, el ingeniero biomédico Tyler Singer-Clark y sus colegas lograron que una persona con esclerosis lateral amiotrófica (ELA) —una enfermedad que paraliza el cuerpo pero no afecta a la mente— pudiera controlar un cursor y hacer clic en una computadora usando únicamente su actividad cerebral registrada desde la zona encargada del habla.
Hasta ahora, esa región se consideraba útil solo para decodificar el lenguaje, no para navegar por una interfaz digital.
Este avance, publicado en el Journal of Neural Engineering, demuestra por primera vez que el área motora del habla, conocida como giro precentral ventral, puede utilizarse no solo para generar palabras mediante una interface cerebro-computadora, sino también para controlar con precisión un cursor de una computadora. En otras palabras: un solo implante cerebral puede devolver al usuario tanto la capacidad de comunicarse como la posibilidad de interactuar con la tecnología digital de forma independiente.
Un nuevo horizonte para quienes pierden la movilidad y el habla
En enfermedades neurológicas como el ictus y la ELA, se rompe la conexión entre el cerebro y los músculos, lo que impide moverse, hablar o escribir, aunque la persona mantenga intactas sus capacidades cognitivas. Este aislamiento físico puede ser devastador, pero las interfaces cerebro-máquina implantables ofrecen una vía de escape.
Al registrar señales directamente del encéfalo e interpretarlas en tiempo real, estos sistemas permiten que las personas con parálisis recuperen funciones perdidas, como escribir, navegar por internet e incluso conversar.
Hasta ahora, la mayoría de las ICC usaban señales de la corteza motora dorsal, una zona del cerebro asociada al movimiento de brazos y manos. Estas señales se interpretaban para mover cursores o escribir mediante el pensamiento.
Por otro lado, las interfaces cerebro-computadora centradas en la decodificación del habla utilizaban regiones ventrales del cerebro, asociadas a los movimientos faciales y orales. Sin embargo, se creía que estas dos funciones —control del cursor y habla— requerían implantaciones en zonas distintas. Este estudio desafía esa noción.
Los protagonistas: un paciente con ELA y un sistema pionero
El ensayo se realizó con un solo participante, identificado como T15, un hombre de 45 años con ELA avanzada, completamente paralizado y con graves dificultades para hablar, pero con plena capacidad cognitiva.
Los neurocirujanos le implantaron quirúrgicamente cuatro matrices con 64 electrodos en cada uno de ellas en su corteza motora del habla. Para hacerlo con precisión, se valieron de resonancias magnéticas preoperatorias y de detallados mapas cerebrales facilitados por el Human Connectome Project. Cada uno de los 256 electrodos implantados en el cerebro de T15 captaba señales eléctricas generadas por la actividad neuronal.
Estas señales eran procesadas en tiempo real por un sistema informático que las convertía en movimientos del cursor o acciones de clic. Para simular el clic, T15 imaginaba acciones específicas, como cerrar la mano o mover la lengua, lo que generaba patrones neuronales distintos que el sistema aprendía a identificar.
Desde su casa, y con el apoyo del equipo técnico, T15 participó en una serie de sesiones donde se evaluó la capacidad del sistema para interpretar sus señales neuronales. Las señales se registraban a 30.000 muestras por segundo y se procesaban para extraer patrones que indicaran intención de movimiento o de clic. Cada segundo de actividad cerebral generaba cientos de parámetros, que luego alimentaban modelos de decodificación entrenados en tiempo real.
A: Esquema del cursor de la interfaz cerebro-computadora. B: Reconstrucción tridimensional del cerebro del paciente T15, con la ubicación de los implantes. Crédito: Tyler Singer-Clark et al
Resultados impresionantes: rapidez, precisión y usabilidad real
Uno de los momentos más impactantes del estudio fue el inicio del ensayo: T15 logró mover el cursor hacia un objetivo usando solo su mente en menos de 40 segundos desde que se activó el sistema por primera vez. Esta fase inicial de calibración, que suele ser larga en otros dispositivos similares, fue aquí notablemente rápida.
Tras varias sesiones de entrenamiento, el sistema logró un rendimiento sobresaliente. En las mejores condiciones, T15 alcanzó una velocidad de comunicación de 2,9 bits por segundo, una métrica estándar que evalúa cuánta información puede transmitir el usuario a través del BCI. Esta cifra es comparable —e incluso superior— a muchos ICC basados en la corteza motora tradicional.
Durante el total de 1.263 pruebas realizadas, se seleccionaron correctamente 1.175 objetivos, lo que representa un 93 % de aciertos. Hubo solo 88 errores y ninguna prueba terminó por tiempo agotado. Los clics erróneos fueron escasos y, en la mayoría de los casos, estuvieron muy cerca del objetivo, lo que apunta a un alto grado de control fino del cursor.
Además, en tareas que requerían tanto mover el cursor como hacer clic, el sistema mostró clasificaciones de clic significativamente mejores que el azar en las cuatro matrices de electrodos, lo que indica que esa información está distribuida en distintas áreas de la corteza motora del habla.
¿Y si se intenta hablar y mover el cursor a la vez?
Una de las pruebas más interesantes del estudio fue el test de control simultáneo de cursor y habla. En esta tarea, el participante debía mover el cursor y, al mismo tiempo, responder a estímulos de habla.
El resultado fue que el tiempo medio de respuesta aumentó de unos 3,4 segundos a 4,5 segundos cuando se incluía la producción de habla. Es decir, hablar e interactuar con el cursor desde la misma zona cerebral interfiere, pero no imposibilita su uso. En escenarios de la vida diaria, donde las acciones suelen ser secuenciales, como hablar y luego hacer clic, este efecto no representa una gran barrera.
Lo más destacable es que T15 no solo participó en pruebas clínicas, sino que también usó el sistema para controlar su propio Mac desde casa. Accedió a Netflix, jugó a juegos de palabras del New York Times y navegó por menús del sistema operativo sin ayuda externa. Antes del estudio, solo podía hacer estas tareas con un ratón giroscópico o con la ayuda de familiares. Ahora, gracias a esta ICC multimodal, recuperó parte de su autonomía.
El participante T15 controló su ordenador personal mediante el cursor de la ICC. En la imagen, se observa cómo maneja el cursor con la mente (a), mientras que las capturas de pantalla (b y c) muestran el recorrido del cursor (líneas rosas), su posición cada 250 ms (círculos) y los clics realizados (estrellas). En (b), T15 abre la aplicación de configuración y activa el modo claro; en (c), accede a Netflix desde Chrome y selecciona su perfil de usuario. Crédito: Tyler Singer-Clark et al
Un solo implante, múltiples funciones
Tradicionalmente, para ofrecer tanto control del cursor como decodificación del habla se requerían dos zonas de implantación distintas, lo cual complica la cirugía y el diseño del sistema. Este estudio demuestra que es posible obtener ambas funcionalidades desde un solo punto: la corteza motora del habla.
Aunque el control del cursor dependió principalmente de una de las matrices implantadas, los resultados sugieren que, con una planificación precisa, podría diseñarse una ICC de propósito general, que combine comunicación y control digital sin comprometer el rendimiento.
Para las personas con ELA, lesiones medulares o síndromes de enclaustramiento —una condición neurológica en la que la persona está consciente y cognitivamente intacta, pero no puede moverse ni comunicarse verbalmente debido a una parálisis casi total, excepto a veces por el movimiento de los ojos—, este tipo de tecnología puede marcar la diferencia entre el aislamiento y la participación activa en la vida familiar, social y laboral.
Poder hablar y manejar una computadora con el pensamiento, sin depender de movimientos físicos, representa no solo un avance científico, sino un cambio de paradigma en términos de dignidad y derechos humanos.
Próximos pasos y desafíos
Aunque los resultados son muy prometedores, hay que tener en cuenta que este estudio se basa en la experiencia de un solo participante. Serán necesarias investigaciones adicionales para confirmar que estos resultados pueden replicarse en otras personas con distintas condiciones neurológicas.
También queda margen para mejorar el rendimiento del sistema usando modelos más sofisticados, como redes neuronales recurrentes, que podrían captar mejor las variaciones dinámicas en las señales cerebrales.
Aun así, este trabajo representa una prueba de concepto poderosa: es posible lograr un interfaz cerebro-computadora implantado, rápido, preciso, multifunción y funcional en entornos reales, todo a partir de un solo sitio de implantación cerebral. ▪️
Fuente: Tyler Singer-Clark, Xianda Hou, Nicholas S Card, Maitreyee Wairagkar, Carrina Iacobacci, Hamza Peracha, Leigh R Hochberg, Sergey Stavisky and David Brandman. Speech motor cortex enables BCI cursor control and click. Journal of Neural Engineering (2025). DOI: 10.1088/1741-2552/add0e5