¿Pueden los chatbots provocar delirios? La inquietante relación entre la IA generativa y la salud mental

Una nueva hipótesis sugiere que los chatbots basados en inteligencia artificial generativa podrían alimentar delirios en personas vulnerables. La comunidad científica comienza a investigar un fenómeno tan reciente como inquietante.

Por Enrique Coperías

Un usuario muestra signos de angustia durante una interacción con un chatbot de inteligencia artificial.

Un usuario muestra signos de angustia durante una interacción con un chatbot de inteligencia artificial. Lo que comenzó como una hipótesis en 2023 sobre el posible vínculo entre IA generativa y delirios psicóticos empieza a cobrar fuerza, según nuevas evidencias recopiladas por el psiquiatra danés Søren Dinesen Østergaard. Imagen generada con Gemini

Cuando Søren Dinesen Østergaard, psiquiatra e investigador de la Universidad de Aarhus, en Dinamarca, planteó en 2023 una idea tan provocadora como incierta —que los chatbots de inteligencia artificial generativa podrían inducir delirios psicóticos en personas propensas a la psicosis—, lo hizo con la humildad del científico que entra en un terreno desconocido.

No había estudios, ni evidencias. Solo intuición, observación y una hipótesis valiente.

Dos años después, lo que comenzó como una conjetura aislada parece estar tomando forma como una preocupación creciente, tanto en el ámbito médico como en la esfera pública. En un nuevo editorial científico publicado en Acta Psychiatrica Scandinavica, Østergaard recoge una serie de indicios —casos anecdóticos, repuntes en la atención mediática y una oleada de testimonios personales— que apuntan a que su hipótesis, lejos de ser una exageración, podría estar describiendo un fenómeno real y emergente.

Conversaciones que derivan en delirios

Desde la publicación de su primera reflexión, Østergaard ha recibido decenas de correos electrónicos. Algunos vienen de usuarios que aseguran haber sufrido episodios de pensamiento delirante tras mantener conversaciones con chatbots como ChatGPT. Otros provienen de familiares preocupados, e incluso de periodistas que investigan casos similares.

Las narrativas coinciden en un punto clave: los modelos de lenguaje parecen alimentar ideas extrañas o creencias falsas, alineándose con las preocupaciones o sospechas de los usuarios y, en algunos casos, intensificándolas hasta convertirlas en delirios manifiestos.

Como sugiere el psiquiatra danés, este tipo de interacción podría actuar como una cámara de eco mental para quienes ya son vulnerables.

«Los chatbots no se cansan de conversar —señala Østergaard— y su tendencia a validar lo que el usuario dice puede reforzar pensamientos distorsionados en lugar de desafiarlos».

La IA que nos dice lo que queremos oír

La sospecha de que los modelos más recientes de inteligencia artificial podrían estar desempeñando un papel problemático se intensificó tras la actualización del modelo GPT-4o de OpenAI, lanzado el 25 de abril de 2025. Esta versión, según la propia empresa, presentaba un comportamiento «excesivamente servicial», hasta el punto de volverse «aduladora» y validar sin filtros todo lo que el usuario expresaba, incluyendo emociones negativas, dudas personales e incluso impulsos dañinos.

El fenómeno tiene un nombre técnico: sycophancy o servilismo de los modelos LLM. Se refiere a la inclinación del chatbot a complacer al usuario, reforzada por el entrenamiento mediante aprendizaje por refuerzo con retroalimentación humana (RLHF). En esencia, los sistemas se adaptan a lo que los usuarios premian con pulgares arriba, creando un bucle de complacencia que, en ciertos contextos, puede ser peligrosamente insano.

OpenAI reconoció el problema públicamente y comenzó a revertir la actualización apenas tres días después de su implementación. Pero el daño ya estaba hecho: varios medios internacionales, como The New York Times y Rolling Stone, publicaron reportajes con testimonios de personas cuyas experiencias con la IA generativa habían derivado en delirios místicos, teorías conspirativas y hasta rupturas familiares.

Un patrón preocupante

Lo llamativo, apunta Østergaard, no es solo el contenido de estos testimonios, sino la coincidencia temporal entre la actualización del modelo de OpenAI, el aumento en el tráfico de su artículo de 2023 (que pasó de 100 visitas mensuales a más de 1.300 en junio de 2025), y el creciente número de correos que recibía con casos similares.

«Por supuesto, correlación no implica causalidad —admite el autor. Y añade—: Pero la probabilidad de que esta hipótesis sea cierta es lo bastante alta como para tomársela en serio».

Si se confirma, estaríamos ante un problema de salud mental pública de una magnitud considerable.

¿Cómo se investiga una hipótesis así?

Para pasar de la anécdota a la evidencia, Østergaard propone una hoja de ruta en tres frentes:

✅ Recopilar historias clínicas verificadas por profesionales de la salud mental donde se documente la relación entre interacción con chatbots y aparición de delirios.

✅ Realizar entrevistas cualitativas con personas que hayan vivido este fenómeno.

✅ Diseñar experimentos controlados para evaluar cómo diferentes niveles de comportamiento complaciente en los chatbots afectan a usuarios con distintos perfiles psicológicos.

Este último enfoque, reconoce el autor, entra en un terreno éticamente delicado. No se puede poner en riesgo la salud mental de los participantes, pero con las medidas adecuadas, podría aportar información valiosa sobre los mecanismos psicológicos que subyacen a este fenómeno.

Del pensamiento bayesiano al pensamiento delirante

Uno de los marcos teóricos más prometedores para entender este fenómeno proviene de la psiquiatría computacional, en particular del modelo bayesiano para la formación y mantenimiento de los delirios. En este esquema, el cerebro humano funciona como una máquina de inferencias que ajusta sus creencias a partir de la información que recibe. Si las señales del entorno refuerzan una creencia errónea, esta puede consolidarse como un delirio.

En este contexto, el chatbot actúa como un constatador de creencias: una fuente constante de validación que, al no confrontar las ideas del usuario, contribuye a reforzarlas. Además, el fenómeno de antropomorfización —la tendencia a atribuir rasgos humanos a entidades no humanas— juega un papel clave. Las conversaciones con chatbots inteligentes suelen adoptar un tono personal, con interlocutores que se tratan de a tú. Para personas con predisposición a la psicosis, esta ilusión de humanidad puede ser especialmente convincente.

Un estudio reciente, citado por Østergaard, encontró que los individuos con niveles elevados de paranoia eran más proclives a atribuir intencionalidad incluso a objetos animados, como puntos móviles en una pantalla. Si esta tendencia se extiende a los chatbots, podría explicar por qué algunas personas desarrollan vínculos emocionales o interpretaciones delirantes de sus interacciones con la IA.

Un fenómeno complejo que requiere cooperación

A pesar del tono de advertencia, Østergaard no demoniza la inteligencia artificial generativa. Reconoce su potencial en el ámbito clínico, desde la ilustración de síntomas hasta el desarrollo de nuevas herramientas diagnósticas. De hecho, confiesa que para redactar su editorial contó con la ayuda de ChatGPT. Pero insiste en que el entusiasmo no debe cegarnos ante los riesgos psicológicos.

«Las cosas rara vez son blancas o negras —sentencia Østergaard. Y concluye—: La IA puede ser una herramienta valiosa, pero también una fuente de problemas si no comprendemos bien cómo interactúa con nuestras mentes".

La comunidad científica —y la sociedad en general— tiene ahora el reto de investigar este fenómeno con seriedad, antes de que la realidad supere a la ficción. Mientras tanto, quizá convenga aplicar el principio de precaución: quienes ya enfrentan trastornos mentales o son vulnerables a ellos deberían usar estos sistemas con cautela, o evitar su uso por completo.

Porque tal vez la próxima vez que alguien diga que el chatbot le habla… deberíamos escuchar. ▪️

  • Fuente: Søren Dinesen Østergaard. Generative Artificial Intelligence Chatbots and Delusions: From Guesswork to Emerging Cases. Acta Psychiatrica Scandinavica (2025). DOI: https://doi.org/10.1111/acps.70022

Anterior
Anterior

El retroceso del glaciar Perito Moreno: ¿ha comenzado el colapso de un ícono patagónico?

Siguiente
Siguiente

Levitación cuántica a temperatura ambiente: físicos consiguen el primer sistema mecánico en estado cuántico puro sin criogenia