Crean un implante cerebral que decodifica la voz interior y usa una contraseña mental para proteger la privacidad de los pensamientos
Un avance pionero en neurotecnología demuestra que es posible traducir la voz interior en palabras sin mover los labios. El sistema incorpora una contraseña mental que actúa como candado, garantizando así la privacidad frente a la lectura de pensamientos no deseados.
Por Enrique Coperías
Ilustración conceptual de un implante cerebral que decodifica la voz interior. El sistema utiliza una contraseña mental, simbolizada con un candado, para proteger la privacidad de los pensamientos. Imagen generada con DALL-E
Imagina que tu voz interior, esto es, ese murmullo silencioso con el que repasas la lista de la compra, ensayas lo que vas a decir en una reunión o simplemente te cuentas un chiste a ti mismo, pudiera convertirse en sonido real sin que tus labios se moviesen.
Lo que hasta hace poco era materia de ciencia ficción está empezando a ser realidad gracias a los implantes cerebrales capaces de leer y decodificar el habla interna. La promesa es inmensa: devolver la comunicación fluida a personas con parálisis severa o con enfermedades como la ELA. Pero la amenaza también lo es: ¿y si la máquina captara pensamientos privados que nadie quería compartir?
Un equipo de investigadores de las universidades de Stanford, Harvard, Emory y otras instituciones estadounidenses acaba de publicar en Cell un estudio pionero que aborda estas dos caras de la moneda:
✅ Por un lado, demuestra que la corteza motora, la región del cerebro que normalmente coordina los movimientos del habla, contiene representaciones claras de frases que solo se piensan en silencio.
✅ Por otro, describe una manera de proteger la intimidad mental: un candado cerebral que se abre solo cuando el usuario imagina una palabra clave, una suerte de contraseña mental que actúa como guardián de la privacidad.
Implantes cerebrales para devolver la comunicación: del intento al pensamiento
Hasta ahora, las prótesis del habla que funcionan con implantes intracorticales requerían que los pacientes intentaran articular palabras, aunque su cuerpo no respondiera. Ese gesto, casi imperceptible, generaba señales neuronales suficientes para que los algoritmos las tradujeran en texto o voz sintética. Era un avance enorme respecto a los sistemas tradicionales de comunicación asistida basados en movimientos oculares o teclados virtuales, pero resultaba agotador.
El nuevo trabajo explora la alternativa: usar directamente el habla interna, sin necesidad de mover músculos ni siquiera de simular un esfuerzo físico. Cuatro personas participaron en los experimentos: tres con disartria (habla deteriorada) por la esclerosis lateral amiotrófica ( ELA) o ictus, y una totalmente anártrica (incapaz de articular los sonidos) y dependiente de respiración asistida. A todos ellos se les implantaron microelectrodos en la corteza motora.
Los resultados fueron sorprendentes. El sistema logró decodificar frases completas en tiempo real a partir de un vocabulario de hasta 125.000 palabras. Los niveles de error variaban entre el 26% y el 54%, cifras que todavía requieren ser mejoradas, pero que demuestran que la tecnología es viable.
👉 Lo más llamativo del ensayo es que los propios voluntarios preferían comunicarse con el habla interna, porque no genera fatiga, no produce sonidos involuntarios y resulta más natural que fingir movimientos de labios o lengua.
¿Cómo funciona la decodificación de la voz interior?
La investigación confirma algo que los neurocientíficos sospechaban: la voz interna deja huellas claras en la actividad neuronal, muy similares a las que genera el habla en voz alta. En algunos casos, incluso se registró mejor decodificación del habla imaginada que de la pronunciada con esfuerzo.
«Es la primera vez que logramos comprender cómo es la actividad cerebral cuando uno solo piensa en hablar — afirma Erin M. Kunz, del Departamento de Ingeniería Eléctrica, en la Universidad de Stanford, y autor principal del estudio. Y añade—: Para las personas con graves discapacidades motoras y del habla, los interfaces ordenador-cerebro capaces de descodificar el lenguaje interno podrían ayudarles a comunicarse con mucha más facilidad y naturalidad».
Los electrodos detectaron patrones distinguibles no solo cuando los participantes recitaban mentalmente palabras o frases, sino también cuando realizaban tareas cotidianas que suelen implicar lenguaje interior. Por ejemplo, al contar objetos en silencio o al memorizar secuencias de movimientos. En esas pruebas, el sistema llegó a descifrar que los voluntarios estaban contando números en orden creciente.
Esto abre una puerta fascinante: las prótesis podrían aprovechar estrategias mentales naturales, como repetir mentalmente direcciones o cifras, para convertirlas en comunicación explícita. Pero también enciende las alarmas: si la máquina puede leer lo que pensamos sin ordenarlo, ¿dónde queda la frontera entre ayuda y espionaje de la mente?
El riesgo de la privacidad mental
Kunz reconoce el dilema. En palabras de esta ingeniera, «uno de los miedos más repetidos entre pacientes y expertos es que estas tecnologías puedan acabar leyendo pensamientos de manera no intencionada». El estudio muestra que, en determinadas condiciones, aspectos de la voz interior no dirigida a comunicar —como contar mentalmente o recordar frases— pueden ser decodificados.
Aunque la decodificación libre aún está lejos de reconstruir frases completas con fidelidad, la mera posibilidad de que un dispositivo registre fragmentos de pensamientos privados es suficiente para plantear debates éticos de enorme calado. El concepto de privacidad mental, hasta ahora propio de la filosofía o la literatura, se convierte en un desafío técnico y legal.
¿Debe garantizarse por ley que un implante cerebral no pueda decodificar información salvo cuando el usuario lo autorice? ¿Quién controla esa autorización? ¿Qué papel tendrán las empresas de neurotecnología que desarrollan estas interfaces cerebro-ordenador, algunas de ellas vinculadas a gigantes tecnológicos con intereses comerciales?
Ann, participante en un estudio sobre neuroprótesis del habla dirigido por Edward Chang, de la UCSF, aparece en esta imagen conectada a ordenadores que traducen sus señales cerebrales en voz y movimientos faciales de un avatar. A la izquierda, el coordinador de investigación clínica de la UCSF, Max Dougherty. Foto: Noah Berger.
La contraseña mental: un candado contra filtraciones
Para afrontar ese problema, Kunz y su equipo diseñaron una solución inspirada en la ciberseguridad: el sistema de desbloqueo mediante palabra clave. Funciona así: el implante solo empieza a decodificar frases cuando detecta que el usuario ha imaginado previamente una palabra de activación, por ejemplo, un término inusual como ChittyChittyBangBang.
En las pruebas, este método logró una fiabilidad del 98,7%, lo que significa que casi nunca se produjeron falsos positivos ni se abrió el sistema por error. A efectos prácticos, es como tener un candado mental que protege la mente y que solo se abre con una contraseña que nadie más puede pronunciar.
Además, los investigadores entrenaron algoritmos para reconocer el silencio intencional: cuando el usuario piensa pero no quiere que nada se traduzca en palabras. Con esta técnica, llamada imagery-silenced training, se consigue que el sistema ignore automáticamente el habla interna no destinada a ser comunicada.
Ciencia básica y aplicaciones inmediatas
Más allá de las implicaciones éticas, el hallazgo aporta información valiosa sobre cómo funciona nuestro encéfalo. El estudio demuestra que la corteza motora no distingue radicalmente entre hablar, intentar hablar o imaginar que se habla: todos esos estados comparten un mismo código neural, aunque con intensidades diferentes.
Ese descubrimiento ayuda a entender por qué leer en silencio suele ir acompañado de la sensación de escuchar las palabras o por qué muchas personas necesitan repetirse mentalmente instrucciones para recordarlas. También explica que, incluso en pacientes incapaces de mover los músculos del habla, la intención de articular palabras sigue representada en la corteza, lista para ser descifrada por los electrodos.
En el terreno clínico, las aplicaciones son inmediatas. Las prótesis basadas en habla interna podrían acelerar la comunicación de personas con parálisis, acercándola a la velocidad del lenguaje natural. Podrían, además, liberar a los pacientes del esfuerzo físico de intentar articular, algo especialmente útil en quienes dependen de respiradores o presentan fatiga muscular.
Entre la esperanza y la vigilancia
Como todo avance disruptivo, este trabajo sitúa a la sociedad ante un doble horizonte. En el lado luminoso, ofrece la posibilidad de que miles de personas recuperen la capacidad de conversar con fluidez, trabajar, estudiar o simplemente charlar con sus seres queridos. En el lado oscuro, plantea escenarios de vigilancia mental, discriminación o abuso de datos neuronales si no se establecen reglas claras de protección.
El equipo reconoce las limitaciones actuales: el número de participantes es pequeño, la tasa de error aún es alta y todavía no es posible reconstruir pensamientos libres de manera fiable. Pero la dirección está marcada, y los próximos años traerán mejoras técnicas que reducirán los errores y harán los dispositivos más accesibles.
Mientras tanto, el debate ético debe adelantarse al desarrollo comercial. Si el teléfono móvil transformó la intimidad al llevar una cámara y un micrófono en cada bolsillo, los implantes cerebrales capaces de leer la voz interior obligarán a redefinir qué entendemos por privacidad.
Un futuro con voz propia
«Lo más importante es que la decisión final de comunicar siga en manos del usuario», insisten los investigadores. Por eso el candado mental y las estrategias de silenciamiento son mucho más que trucos técnicos: son el núcleo de un nuevo derecho a la soberanía mental.
El estudio demuestra que es posible construir interfaces neuronales que respeten ese principio. Ahora la cuestión es si las sociedades y los marcos legales estarán a la altura. Como ocurre con toda tecnología poderosa, el riesgo no está en lo que permite, sino en cómo se usa.
En el mejor de los escenarios, dentro de unos años las personas que hoy apenas pueden mover los ojos podrán hablar con sus familias mediante un implante que traduce sus pensamientos en voz sintética. Lo harán con la seguridad de que sus recuerdos, sus dudas o sus secretos seguirán donde siempre han estado: a salvo en la intimidad de su mente. ▪️
Fuente: Kunz, Erin M. et al. Inner speech in motor cortex and implications for speech neuroprostheses. Cell (2025). DOI: 10.1016/j.cell.2025.06.015