.
La nueva etiqueta de diagnóstico "psicosis por IA" aparece en relatos hospitalarios
SANTO DOMINGO, RD/ NOTIPRESS.- Una nueva preocupación surge en hospitales psiquiátricos: pacientes con antecedentes de vulnerabilidad mental llegan en crisis tras largas interacciones con chatbots de inteligencia artificial (IA).
En San Francisco, el psiquiatra Keith Sakata, de la Universidad de California (UCSF), informó sobre "una docena de casos lo suficientemente graves como para justificar hospitalización este año, casos en los que la inteligencia artificial jugó un papel importante en sus episodios psicóticos". El término "psicosis por IA", aunque no figura en manuales médicos, circula en medios y redes para describir este tipo de episodios.
James MacCabe, profesor del King’s College de Londres, explicó que los casos se concentran en delirios, sin evidencia de que otros síntomas tradicionales de la psicosis estén influidos por las herramientas digitales. "Psicosis por IA es un nombre inapropiado. Trastorno delirante de IA sería un término más adecuado", sostuvo.
Según el psiquiatra y neurocientífico Matthew Nour, de la Universidad de Oxford, los chatbots "pueden reforzar creencias dañinas al validar a los usuarios en lugar de contraatacar cuando corresponde". Explicó que el diseño de esos sistemas se aprovecha de la tendencia humana a atribuir intenciones y rasgos personales, lo que puede resultar riesgoso para usuarios con antecedentes de trastornos psiquiátricos.
La filósofa Lucy Osler, investigadora en la Universidad de Exeter, analizó la intencionalidad en el diseño de esos programas. Afirmó que "se diseñan explícitamente para provocar intimidad y compromiso emocional con el fin de aumentar nuestra confianza y dependencia de ellos". El análisis plantea un problema estructural: herramientas creadas para fidelizar usuarios terminan amplificando distorsiones cognitivas en personas con mayor fragilidad clínica.
Además, los riesgos no se limitan a reforzar delirios. El psiquiatra Søren Østergaard, de la Universidad de Aarhus en Dinamarca, señaló que la comunicación exaltada de muchos asistentes digitales puede intensificar episodios de manía. Indicó que el tono enérgico y afectuoso podría "mantener el subidón característico del trastorno bipolar", un cuadro clínico asociado a síntomas como euforia, aceleración del pensamiento y, en algunos casos, psicosis.
El tema también involucra directamente la manera en que esos sistemas producen información. Los especialistas recuerdan la existencia de "alucinaciones de IA", falsedades presentadas con seguridad, capaces de alimentar espirales de ideas delirantes en pacientes ya predispuestos. Esa combinación —validación constante, afecto artificial y errores en los contenidos— conforma un terreno fértil para episodios graves de salud mental.
John Torous, psiquiatra del Centro Médico Beth Israel Deaconess en Boston, destacó que existen pocos datos clínicos y advirtió sobre la necesidad urgente de estudios. "Los psiquiatras están profundamente preocupados y desean ayudar", declaró, aunque reconoció que todavía resulta difícil determinar con precisión la magnitud del problema.
Mientras tanto, los expertos consultados coinciden en la importancia de que médicos pregunten a sus pacientes sobre interacciones con chatbots durante las consultas. Esa práctica, similar a la evaluación de consumo de alcohol o patrones de sueño, permitiría comprender mejor el alcance del fenómeno y ajustar protocolos clínicos de forma adecuada.
Finalmente, el debate sobre la llamada "psicosis por IA" continúa abierto. Aunque la etiqueta aún no tiene reconocimiento formal, las consecuencias en pacientes y el papel estructural del diseño de los chatbots de inteligencia artificial mantienen la discusión en el centro