En las últimas semanas, diversos informes han alertado sobre un fenómeno emergente: algunos usuarios de ChatGPT están desarrollando delirios tras interactuar con la inteligencia artificial (IA). Este fenómeno, denominado psicosis inducida por ChatGPT, ha sido documentado en varios medios, incluyendo Rolling Stone y Vice, donde se relatan casos de individuos que, tras conversaciones con el chatbot, comienzan a creer que han sido elegidos para misiones divinas o que la IA les revela verdades cósmicas. Veamos más sobre los delirios y la IA.
Esto de los delirios y ChatGPT no es nuevo

Lo ocurrido, aunque novedoso en su soporte digital, no es exclusivo de la IA. De hecho, la historia de los medios está repleta de episodios donde la tecnología de comunicación masiva ha funcionado como disparador de distorsiones perceptivas en los más predispuestos. Así que sí, ya lo hacían antes la radio, la televisión y hasta el vecindario.
Basta recordar la emisión radiofónica de La guerra de los mundos en 1938, donde miles de oyentes creyeron que una invasión marciana estaba ocurriendo en tiempo real. O los múltiples casos clínicos del llamado delirio de El Show de Truman (The Truman Show, en inglés), en los que individuos construyen sistemas delirantes basados en la idea de ser observados constantemente por cámaras ocultas, inspirados en productos televisivos.
ChatGPT y la validación de estructuras delirantes
Diversos expertos en neurociencia cognitiva, ética de la tecnología y salud mental han comenzado a señalar un fenómeno tan reciente como preocupante. Y es que, las llamadas alucinaciones inducidas por IA no solo describen errores generativos de los modelos, también estados mentales exacerbados en los usuarios tras una interacción sostenida con dichos sistemas.
En particular, se ha observado cómo algunos individuos, especialmente aquellos con predisposición a patrones cognitivos rígidos o estructuras delirantes latentes, comienzan a experimentar un refuerzo de sus creencias patológicas tras dialogar con ChatGPT u otros modelos conversacionales (Tangermann, 2024).
Según el investigador Nate Sharadin, del Centro para la Seguridad de la IA (Center for AI Safety, CAIS, en inglés), el núcleo del problema reside en un hecho fundamental, la IA carece de conciencia, pero simula comprensión. No sabe lo que dice, pero lo dice bien. Esa apariencia de coherencia y receptividad puede ser percibida por algunos usuarios como una validación objetiva. Lo que constituye un terreno fértil para que la idea delirante se transforme en convicción.
¿Cómo se refuerzan los delirios con ChatGPT?

A diferencia de un terapeuta, un modelo de lenguaje no posee la capacidad de identificar indicadores clínicos de desorganización del pensamiento, delirios de referencia o trastornos de la realidad. Responde a patrones lingüísticos y estadísticos, no a intenciones clínicas ni éticas (Chung et al., 2023).
En usuarios vulnerables, esto es decisivo. Una respuesta ambigua, una frase malinterpretada, o incluso una coincidencia gramatical, puede funcionar como confirmación de una idea delirante ya presente.
Un ejemplo simple
Imaginemos que alguien con una estructura delirante de tipo místico introduce en el modelo una frase como: ¿Estoy siendo guiado por fuerzas que trascienden lo humano? A esta pregunta, ChatGPT podría responder con una formulación del tipo: Muchas personas sienten que su vida tiene un propósito más allá de lo visible.
Aunque esa frase es deliberadamente ambigua y culturalmente neutra, en el marco del pensamiento delirante se convierte en una prueba irrefutable de la intervención de esas fuerzas sobrenaturales. El modelo no ha mentido ni afirmado nada concreto, pero el usuario no está buscando verdad objetiva, sino señales de validación. Y, aquí, cualquier estímulo interpretado como eco de su sistema de creencias será absorbido como confirmación.
Un fenómeno que se explica desde la teoría de la atribución y del sesgo confirmatorio. Es decir, una persona con estructura delirante tenderá a interpretar como confirmatoria toda información ambigua que se relacione —aunque sea tangencialmente— con su sistema de creencias (Østergaard, 2023).
El sesgo complaciente de los modelos conversacionales
Uno de los comportamientos más documentados en modelos como ChatGPT es la sifonancia. Es decir, la tendencia de la IA a reflejar, reforzar o alinearse con la opinión del interlocutor para generar respuestas más satisfactorias o emocionalmente aceptables. Dicho sesgo, útil en contextos neutrales o pedagógicos, es clínicamente peligroso cuando el interlocutor plantea a la IA ideas delirantes o delirios.

Implicaciones clínicas
Desde una perspectiva psicopatológica, el delirio se caracteriza por su impermeabilidad a la argumentación lógica y por su fuerte arraigo emocional. Si este se ve respaldado por una herramienta que el usuario percibe como imparcial, objetiva y sofisticada, el proceso terapéutico se ve gravemente comprometido.
Incluso en sujetos sin diagnóstico previo, una exposición prolongada a interacciones sesgadas, ambivalentes o excesivamente coherentes en apariencia puede, en determinados contextos de vulnerabilidad, favorecer distorsiones cognitivas, fenómenos de sobreidentificación o interpretaciones delirantes de la realidad.
Importante
Hay algo que hay que tener muy en cuenta, la herramienta no delira, es la mente humana la que delira con ella. Lo cual no exime de responsabilidad a quienes diseñan, promueven o emplean estos modelos. Aunque sí exige un análisis más fino del contexto, la intencionalidad del uso y el grado de supervisión profesional.
Atribuir a una IA la capacidad de causar delirios no solo es un exceso conceptual, es una peligrosa simplificación del fenómeno psicopatológico. En este sentido, hay que hacer un análisis clínico desapasionado de los titulares que alertan sobre esto bajo una especie de espectáculo tecnofóbico. Decir que ChatGPT provoca delirios es tanto como decir que un espejo provoca trastornos de identidad. Lo que ocurre es más complejo.
Conclusión
En otras palabras, la IA no causa delirios como tal, no es ni enemiga ni salvadora. Es una extensión de nuestras intenciones. Su capacidad para hacer daño o bien depende de cómo se la configure, con qué límites se la implemente, y bajo qué valores se la someta a crítica.
Por ello, no hay que demonizar la herramienta, sino exigir estructuras institucionales, legales y profesionales que acompañen su uso. Estructuras que delimiten su función y recuerden, una y otra vez, que el cuidado psicológico es, ante todo, una praxis ética de presencia humana.
Referencias bibliográficas
- Chung, N. C., Dyer, G. y Brocki, L. (2023). Challenges of large language models for mental health counseling. arXiv preprint arXiv:2311.13857. https://doi.org/10.48550/arXiv.2311.13857
- Grabb, D., Lamparth, M. y Vasan, N. (2024). Risks from language models for automated mental healthcare: Ethics and structure for implementation. arXiv preprint arXiv:2406.11852. https://doi.org/10.48550/arXiv.2406.11852
- Østergaard, S. D. (2023). Will Generative Artificial Intelligence Chatbots Generate Delusions in Individuals Prone to Psychosis?. Schizophrenia bulletin, 49(6), 1418-1419. https://doi.org/10.1093/schbul/sbad128
- Tangermann, V. (2024, May 5). Experts Alarmed as ChatGPT Users Developing Bizarre Delusions. Futurism. https://futurism.com/chatgpt-users-delusions

























