Cómo la inteligencia artificial está transformando y mejorando el diagnóstico psiquiátrico

La IA empieza a descifrar los patrones ocultos del sufrimiento mental, revelando conexiones entre síntomas que pasan desapercibidas incluso para los clínicos. Sus avances prometen cuestionarios más precisos, diagnósticos más fiables y una nueva forma de entender los trastornos psiquiátricos.

Por Enrique Coperías

La inteligencia artificial puede mejorar los cuestionarios psquiátricos y los diagnósticos en salud mental: un estudio revela cómo los modelos de lenguaje entienden la psicopatología.

La inteligencia artificial puede mejorar los cuestionarios psquiátricos y los diagnósticos en salud mental: un estudio revela cómo los modelos de lenguaje entienden la psicopatología. Pero, ¿es seguro usar IA en psiquiatría? Siempre que se utilice como apoyo y no como sustituto del juicio clínico, sí. Imagen generada con Copilot

Desde hace décadas, los psiquiatras se apoyan en una herramienta tan sencilla como ubicua: los cuestionarios. Esos listados de frases —“Me sentí triste y deprimido”, “Me costó relajarme”, “¿Tiene la sensación de que las cosas a su alrededor resultan extrañas?”— constituyen la base del diagnóstico, la investigación y muchas decisiones terapéuticas.

Aunque parezcan modestos, son el andamiaje sobre el que se levantan las clasificaciones diagnósticas, la búsqueda de patrones en síntomas y buena parte del conocimiento científico en salud mental.

Pero los cuestionarios tienen un punto débil: dependen de las palabras. Y las palabras, como saben los lingüistas, los filósofos y los clínicos, arrastran significados, matices culturales, tradiciones profesionales e incluso prejuicios. Dos ítems pueden parecer diferentes pero describir experiencias prácticamente idénticas; otros pueden coincidir en la forma, pero remitir a fenómenos distintos.

Y no es raro que dos escalas supuestamente destinadas a medir la misma condición apenas compartan vocabulario ni contenido. Esto afecta a la consistencia de los estudios científicos y complica la interpretación clínica.

Por qué la IA está revolucionando la psiquiatría

En los últimos años ha surgido una tecnología que por paradójico que nos pueda parecer podría ejercer de espejo para que la propia psiquiatría reflexione sobre su lenguaje: los grandes modelos de lenguaje (LLM), como los que impulsan los asistentes conversacionales actuales.

Un estudio publicado recientemente en la revista Nature Mental Health revela que estos sistemas de inteligencia artificial que se entrenan con enormes cantidades de datos de texto para comprender y generar lenguaje humano, son capaces de captar, solo a partir de los textos de los cuestionarios, buena parte de la estructura empírica de la psicopatología que los psiquiatras observan en miles de pacientes.

Un resultado que abre sorprendentes posibilidades para mejorar los instrumentos diagnósticos y comprender mejor cómo describimos los trastornos mentales.

«Sabemos sorprendentemente poco sobre si —y cómo— la redacción de los cuestionarios clínicos provoca ciertas asociaciones en los médicos», dice Joseph Kambeitz, psiquiatra del Departamento de Psiquiatría y Psicoterapia en la Facultad de Medicina y Hospital Universitario de Colonia (Alemania).

Qué investigó este estudio y por qué es relevante

Un equipo internacional liderado por Kambeitz se planteó una pregunta tan simple como radical: si alimentamos a un modelo de lenguaje con los ítems de los cuestionarios clínicos, ¿será capaz de inferir cómo se relacionan entre sí los síntomas en la realidad?

Para comprobarlo, analizaron cuatro escalas ampliamente utilizadas:

1️⃣ La DASS: mide síntomas de depresión, ansiedad y estrés.

2️⃣ La AQ: evalúa rasgos asociados al espectro autista.

3️⃣ LaO-LIFE: explora fenómenos vinculados a la esquizotipia.

4️⃣ La PQB: detecta experiencias que pueden indicar riesgo de psicosis.

Los autores contaban, además, con grandes bases de datos: desde más de 39.000 participantes en el caso de la DASS hasta más de 11.000 en el de O-LIFE. A partir de estos datos, podían calcular algo muy valioso: cómo se correlaciona cada ítem con los demás en la vida real. Qué síntomas tienden a aparecer juntos y cuáles no. Ese patrón de correlaciones constituye, en la práctica, el esqueleto de la psicopatología empírica.

La otra parte del experimento consistió en obtener embeddings, representaciones numéricas que captan el significado de un texto en un espacio multidimensional. Usaron dos tipos:

Embeddings semánticos, basados en el sentido general de cada frase.

Embeddings sentimentales, que reflejan el parecido del ítem con palabras asociadas a emociones básicas, como miedo, tristeza y sorpresa.

Después compararon las correlaciones reales entre ítems con las correlaciones que el modelo sugería a partir de estas representaciones. Y los resultados fueron llamativamente sólidos.

La IA ve relaciones entre síntomas parecidas a las que ven los clínicos

En todas las escalas analizadas, los embeddings mostraron correlaciones significativas con los datos reales. Es decir, el modelo parecía anticipar qué síntomas se asocian entre sí sin necesidad de ver ni una sola respuesta humana.

Para los investigadores, esto sugiere una idea potente. En concreto, que parte de la estructura interna de los trastornos mentales está codificada en las propias palabras con las que describimos los síntomas. Los clínicos, como cualquier persona, usan el lenguaje para condensar su experiencia y sus observaciones. Y los LLM, entrenados con miles de millones de palabras, captan esos patrones, los generalizan y los reproducen.

Los resultados fueron especialmente notables en las escalas de:

Depresión, ansiedad y estrés (DASS).

Esquizotipia (O-LIFE).

Autismo (AQ), donde apareció la mayor diferencia entre semántica y emoción.

Cuando usaron técnicas de aprendizaje automático más sofisticadas, como bosques aleatorios, la capacidad predictiva subió aún más.

Es más, no solo predijeron correlaciones. Los investigadores comprobaron además si la IA podía reconstruir los clústeres de síntomas. Y la sorpresa fue que las agrupaciones semánticas coincidían con las reales, así como con las subescalas oficiales de cada cuestionario.

En otras palabras, el modelo reconstruía de forma razonable las dimensiones clínicas reconocidas por los expertos.

Ilustración conceptual de cómo la inteligencia artificial identifica patrones ocultos en los cuestionarios clínicos y ayuda a reconstruir la estructura de la psicopatología, según un estudio internacional.

Ilustración conceptual de cómo la inteligencia artificial identifica patrones ocultos en los cuestionarios clínicos y ayuda a reconstruir la estructura de la psicopatología, según un estudio internacional. Imagen generada con DALL-E

Para qué puede usarse esta tecnología de IA en psiquiatría

Hay que aclarara que los resultados del estudio no significan que la IA entienda los trastornos como un profesional. Pero sí sugieren que el lenguaje clínico contiene más estructura de la que asumíamos. Las implicaciones son profundas, como detallan Kambeitz y sus colegas:

1️⃣ Mejorar cuestionarios clínicos existentes.

Los LLM permiten:

✅ Detectar redundancia entre ítems.

✅ Unificar criterios lingüísticos.

✅ Optimizar escalas para que sean más cortas pero igual de precisas.

✅ Eliminar preguntas que no aportan información diagnóstica.

2️⃣ Crear nuevos instrumentos diagnósticos.

La IA puede generar:

✅ Nuevas preguntas.

✅ Variantes culturalmente adaptadas.

✅ Sistemas de cribado más inclusivos.

3️⃣ Comprender mejor los trastornos psicológicos.

Los patrones semánticos pueden revelar:

✅ Nuevas agrupaciones de síntomas.

✅ Relaciones ocultas.

✅ Vías para redefinir categorías diagnósticas.

4️⃣ Mejorar la práctica clínica diaria

✅ Desde redactar informes hasta resumir síntomas complejos o detectar incoherencias en narrativas clínicas, la IA puede apoyar tareas rutinarias de psiquiatras y psicólogos.

Ahora bien, los investigadores advierten de que los modelos de lenguaje pueden heredar sesgos culturales, diferencias de registro y limitaciones del lenguaje cotidiano para expresar experiencias clínicas.

La IA no sustituye a la psiquiatría, sino que la potencia

El estudio no pretende sustituir a psiquiatras ni psicólogos por algoritmos, sino usar la IA para analizar el lenguaje clínico y mejorar la descripción de los trastornos.

«La IA puede mapear tanto el conocimiento médico como las estructuras de las enfermedades mentales. Este es un paso importante para acercar los métodos digitales y la neurociencia, y para impulsar el desarrollo del diagnóstico y la investigación en psiquiatría», afirma el codirector del estudio, Kai Vogeley.

Kambeitz apunta hacia el futuro inmediato: «En psiquiatría, la palabra hablada desempeña un papel importante en el diagnóstico y la terapia. Actualmente existen muchos proyectos prometedores que investigan cómo podemos utilizar los modelos de lenguaje en psiquiatría, desde el diagnóstico hasta la redacción y revisión de informes, o la simulación de sesiones terapéuticas. Podemos esperar muchos más resultados de investigación interesantes en este campo».

La IA no solo interpreta textos: está aprendiendo a interpretar cómo interpretamos.▪️

Preguntas & Respuestas: IA y psiquiatría

🤖 ¿Puede la IA diagnosticar enfermedades mentales?

No. Puede apoyar el proceso, mejorar cuestionarios y sugerir relaciones entre síntomas, pero el diagnóstico siempre corresponde a profesionales de salud.

🤖 ¿Por qué los modelos de lenguaje son útiles en salud mental?

Porque la psicopatología depende en gran medida de cómo describimos nuestras experiencias internas. La IA puede analizar esas descripciones a gran escala.

🤖 ¿Los cuestionarios clínicos actuales son fiables?

Sí, pero presentan redundancias, variaciones de formulación y diferencias culturales. La IA puede ayudar a afinarlos.

🤖 ¿Es seguro usar IA en psiquiatría?

Siempre que se utilice como apoyo y no como sustituto del juicio clínico, sí.

TAMBIÉN TE PUEDE INTERESAR:

🧠 La IA es capaz de detectar signos ocultos de depresión en nuestras expresiones faciales

🧠 ¿Pueden los chatbots sustituir a los terapeutas humanos? Un estudio advierte de los peligros de confiar tu salud mental a una IA

🧠 ¿Pueden los chatbots provocar delirios? La inquietante relación entre la IA generativa y la salud mental

Anterior
Anterior

Un lobo, una boya y una trampa de cangrejos: ¿estamos ante el primer caso documentado de uso de herramientas en lobos salvajes?

Siguiente
Siguiente

¿Cuál es el origen del beso? Un estudio sugiere que evolucionó en el ancestro común de humanos y simios hace 21 millones de años