Decodificación de habla interna: el avance de la Universidad de Stanford que revoluciona las interfaces cerebro-computadora

En un hito científico sin precedentes, investigadores de Stanford han logrado escuchar la voz interior humana decodificando en tiempo real pensamientos convertidos en palabras. Un avance que promete dar voz a quienes no pueden hablar… y abre un acalorado debate sobre la privacidad de la mente.

Por Enrique Coperías

En un estudio de Stanford, se ha demostrado que es posible decodificar el habla interna de una persona a través de interfaces cerebro-computadora.

En un estudio de Stanford, se ha demostrado que es posible decodificar el habla interna de una persona a través de interfaces cerebro-computadora. Este avance podría permitir la comunicación a personas con parálisis grave, y abre en paralelo un debate sobre la privacidad mental. Imagen generada con Gemini

Un trabajo publicado en la revista Cell nos adentra en un campo de la neurociencia que hasta hace pocos años parecía circunstrito a la ciencia ficción: decodificar el monólogo interno de una persona, o sea, esa voz que todos escuchamos en nuestra mente, directamente desde la actividad cerebral. Y no solo eso, sino hacerlo en tiempo real.

El nuevo estudio, liderado por Erin Kunz y Francis (Frank) Willett desde la Universidad de Stanford, combina descubrimientos neurocientíficos de alto nivel con desarrollos de ingeniería aplicada a interfaces cerebro-computadora (BCI) y plantea, de forma inevitable, un debate sobre la privacidad mental.

Qué es el habla interna y por qué es clave para las BCI

El habla interna es la capacidad de oír nuestras propias palabras en silencio, y viene orquestado por áreas cerebrales similares a las del habla oral.

Hasta ahora, la mayoría de neuroprótesis del habla dependían de la habla intentada: el usuario activaba músculos del habla aunque no produjera sonido, permitiendo a un BCI interpretar la intención de pronunciar palabras.

El problema: para personas con ELA, ictus o lesiones graves, este esfuerzo puede ser lento y agotador. Un sistema capaz de decodificar palabras imaginadas podría aumentar la velocidad y comodidad de la comunicación asistida.

De dar voz a quien no la tiene

En la última década, las BCI han pasado de ser un experimento de laboratorio a convertirse en herramientas clínicas y prototipos de asistencia funcional. En palabras de Kunz, estas tecnologías se han apoyado de forma tradicional en sensores cerebrales que detectan señales neuronales relacionadas con el movimiento para, por ejemplo, mover un cursor, controlar un brazo robótico o incluso escribir letras a mano alzada de manera mental.

Más recientemente, los avances en este campo han demostrado que es factible decodificar habla intentada —cuando una persona con parálisis activa las áreas cerebrales y musculares de la voz, aunque no pueda producir sonido inteligible— para transcribir, en pantalla, lo que intenta decir.

Esto ha permitido velocidades de comunicación notablemente superiores a métodos previos, como los sistemas de seguimiento ocular. Sin embargo, el habla intentada no es perfecta: exige, como se ha avanzado, esfuerzo muscular, puede fatigar y, en personas con problemas respiratorios o control limitado de la musculatura facial, se convierte en una tarea lenta y agotadora.

Aquí es donde el equipo de Stanford planteó la gran pregunta: ¿y si pudiéramos decodificar de manera directa el habla interna, sin que el usuario mueva un solo músculo?

De la hipótesis a la prueba experimental

«Esta es la primera vez que hemos logrado entender cómo es la actividad cerebral cuando solo piensas en hablar—, explica Kunz, autora principal del estudio. Para personas con discapacidades motoras y del habla graves, un interfaz cerebro-computadora capaz de interpretar el habla interna podría permitirles comunicarse de forma más fácil y natural.

En este estudio participaron cuatro personas con parálisis grave causada por la esclerosis lateral amiotrófica (ELA) —una enfermedad neurodegenerativa que destruye de modo progresivo las neuronas motoras, provocando debilidad muscular, parálisis y, finalmente, la pérdida de la capacidad de hablar, moverse y respirar— o un ictus en el tronco cerebral.

Todos los voluntarios contaban con matrices de microelectrodos implantadas en la corteza motora, la región cerebral que coordina la producción del habla. Durante las sesiones, los investigadores pidieron a los participantes que pronunciaran en voz intentada (moviéndose como si hablaran) o que imaginaran decir una serie de palabras y frases. También se incluyeron condiciones de escucha y lectura silenciosa.

Los resultados fueron sorprendentes: el habla intentada y la interna activan regiones cerebrales superpuestas y generan patrones neuronales similares, aunque en el habla interna la intensidad de la activación es menor. Esto confirma que los mismos circuitos cerebrales que controlan los músculos para articular palabras también se ponen en marcha cuando solo las imaginamos.

Un código neuronal compartido… y aprovechable

Al analizar a fondo las señales neuronales, el equipo de investigadores comprobó que las representaciones neuronales de las palabras se mantienen organizadas de forma similar entre las diferentes tareas experimentales, como intentar pronunciar palabras físicamente, hablar para sí mismo o leer en silencio. En otras palabras, la geometría de las distancias entre palabras es parecida en habla intentada, interna, lectura y escucha, aunque la escala de la respuesta sea más baja en estas últimas.

Este particular sugiere que no se trata de señales independientes, sino de un mismo código neuronal a medio gas que no alcanza el umbral de activación necesario para mover músculos.

Incluso en un participante anartrico —incapaz de articular palabras— y dependiente de ventilador se mantuvo la diferencia clara entre habla interna e intentada. El hallazgo sugiere que la intención motora de articular se conserva, y podría aprovecharse en personas en estado de bloqueo casi total.

Una participante utiliza la neuroprótesis de habla interna. El texto de arriba es la frase indicada, y el texto de abajo es lo que se decodifica en tiempo real mientras ella imagina que pronuncia la frase.

Una participante utiliza la neuroprótesis de habla interna. El texto de arriba es la frase indicada, y el texto de abajo es lo que se decodifica en tiempo real mientras ella imagina que pronuncia la frase. Cortesía: Equipo Emory BrainGate

Decodificación en tiempo real

Con estos datos, el equipo entrenó modelos de inteligencia artificial (IA) para interpretar palabras imaginadas. En una demostración de concepto, lograron decodificar frases completas de un vocabulario de hasta 125.000 palabras con tasas de acierto de hasta el 74%. En vocabularios más pequeños (cincuenta palabras), los errores por palabra cayeron al 14% en el mejor de los casos.

Los participantes prefirieron la modalidad de habla interna: era más cómoda, menos visible y no requería esfuerzo muscular. Como explica Benyamin Meschede-Krasa, coautor principal del estudio, «si solo tienes que pensar en el habla en lugar de intentar físicamente hablar, en potencia resulta más fácil y rápido».

Pero la prueba también reveló algo inquietante: en ciertas tareas, el sistema registró aspectos del habla interna que no formaban parte del experimento. Por ejemplo, en un ejercicio en el que los voluntarios debían contar mentalmente círculos rosas en una pantalla, el BCI empezó a escuchar números que los participantes estaban pensando como parte de su conteo. Esto confirma que, en algunos contextos, un BCI podría captar contenido verbal interno no solicitado.

El dilema de la privacidad mental

La posibilidad de leer pensamientos verbales internos genera un debate ético de primer orden. Si un BCI para habla intentada también es capaz de reconocer habla interna, aunque no se haya pedido, ¿cómo se protege la privacidad del usuario?

Aquí entra en juego otro hallazgo clave: aunque los patrones neuronales de habla interna e intentada son parecidos, existe una diferencia suficientemente consistente —a la que llaman dimensión de intención motora— que permite distinguirlas de forma fiable. Esta señal basal, que separa las dos condiciones en el espacio de la actividad neuronal, puede servir para entrenar decodificadores que ignoren el habla interna no deseada.

Según Frank Willett, autor sénior del estudio, «podemos usar esta distinción para entrenar BCI que ignoren por completo el habla interna». Y cuando el usuario quiera aprovecharla, se puede activar un mecanismo de control.

Soluciones propuestas: silencio entrenado y «contraseña mental»

El equipo probó dos métodos para prevenir decodificaciones accidentales:

✅ Entrenamiento silenciado: se incluyen ejemplos de habla interna etiquetados como silencio durante el entrenamiento del modelo, de modo que el sistema aprenda a no producir salida alguna en esas condiciones.

✅ Palabra clave de desbloqueo: el BCI permanece bloqueado hasta que detecta una frase interna específica elegida por el usuario. En el estudio, la contraseña mental fue “chitty chitty bang bang”, reconocida con más del 98% de precisión.

Este segundo enfoque es especialmente atractivo para un interfaz cerebro-ordenador de habla interna voluntaria: el sistema solo empieza a decodificar cuando el usuario lo decide, protegiendo así su monólogo privado.

Lo que todavía no es posible

Aunque el logro es notable, la decodificación de habla interna libre y espontánea sigue siendo un reto. Los sistemas actuales cometen demasiados errores cuando intentan interpretar pensamientos verbales no estructurados, y solo alcanzan niveles útiles de precisión en tareas guiadas o vocabularios limitados.

Kunz y Willett creen que con más electrodos cerebrales, algoritmos mejorados y procesadores más rápidos, será posible ampliar estas capacidades.

Mientras tanto, se abre una línea clara de aplicación: usar el habla interna como método de comunicación alternativa o complementaria en personas para las que el habla intentada es demasiado lenta o fatigosa.

Implicaciones científicas y éticas

Este trabajo refuerza una idea emergente en neurociencia: la corteza motora no es solo un área de ejecución de movimientos, sino un espacio donde se planifica y simula el habla, y donde se integra producción, percepción e imaginación verbal.

Desde el punto de vista clínico, podría permitir a pacientes con ELA avanzada, ictus o lesiones graves recuperar un canal de comunicación rápido, natural y menos intrusivo.

No obstante, la dimensión ética es ineludible. La mera posibilidad de captar palabras pensadas sin consentimiento subraya la necesidad de diseñar estas tecnologías con mecanismos de control y transparencia integrados desde el principio. El propio Willett lo resume así:

«El futuro de las BCI es prometedor. Este trabajo da una esperanza real de que algún día las neuroprótesis del habla puedan restaurar una comunicación tan fluida, natural y cómoda como la conversación».

Limitaciones y futuro

El estudio se realizó con solo cuatro participantes, todos con implantes de microelectrodos en posiciones similares. Esto plantea la pregunta de si los resultados se generalizarán a más personas o a configuraciones menos invasivas.

También está pendiente entender cuánto varía el uso de habla interna entre individuos, y si hay diferencias culturales o lingüísticas relevantes.

A día de hoy, no se ha demostrado la capacidad de decodificar con precisión oraciones completas durante pensamiento libre, y es posible que el monólogo interior espontáneo —a menudo fragmentario y no lineal— sea intrínsecamente difícil de traducir a texto sin la cooperación activa del usuario.

Un equilibrio entre potencial y precaución

El avance descrito en Cell muestran, sin duda alguna, que estamos ante una tecnología que, en manos correctas y con salvaguardas robustas, podría cambiar radicalmente la vida de personas sin voz física. Pero también recuerda que, cuando se trata de la mente, el respeto por los límites y el consentimiento informado no es negociable.

La visión de Kunz y su equipo no es solo dar a los pacientes un nuevo medio para expresarse, sino hacerlo de forma que siempre conserven el control sobre lo que comparten.

«Para las personas con discapacidades motoras y del habla graves —resume Kunz—, las BCI capaces de decodificar el habla interna podrían ayudarles a comunicarse de forma mucho más fácil y natural». ▪️

  • Información facilitada por Cell Press

  • Fuente: Kunz, Erin M. et al. Inner speech in motor cortex and implications for speech neuroprostheses. Cell (2025). DOI: 10.1016/j.cell.2025.06.015

Anterior
Anterior

UMa3/U1: ¿cúmulo estelar oscuro o galaxia enana con materia oscura? El misterio cósmico que reabre el debate astronómico

Siguiente
Siguiente

Nautilos y genética: el hallazgo que reescribe la historia de los cromosomas sexuales en los cefalópodos