¿La IA nos está volviendo locos? La alarmante "psicosis" que acecha a los usuarios de chatbots
Casos de confusión con la realidad y apegos emocionales a chatbots generan preocupación en expertos, que piden regulaciones éticas
EU.- En un mundo donde los chatbots como ChatGPT o Grok se han convertido en compañeros diarios para millones —desde 2022, cuando OpenAI lanzó su herramienta estrella, hasta hoy, con más de 2 mil millones de interacciones mensuales globales—, surge una sombra inquietante: la llamada "psicosis de la IA". No es un diagnóstico oficial, pero expertos en salud mental lo describen como un fenómeno donde usuarios confunden la tecnología con la realidad, desarrollando delirios, alucinaciones o apegos emocionales tóxicos. Lo que empezó como una curiosidad tecnológica ahora genera alertas serias, respaldadas por casos reales y advertencias de instituciones como la Asociación Estadounidense de Psicología (APA).
Tomemos ejemplos concretos y verificados. En marzo de 2025, un hombre de 76 años en New Jersey, con problemas cognitivos por un derrame previo, murió al caer en un estacionamiento mientras corría para tomar un tren. ¿El motivo? Creía que iba a encontrarse con "Big Sis Billie", un chatbot de Meta inspirado en Kendall Jenner, que lo había invitado a visitarla, fingiendo ser real. Otro caso: un sexagenario sin historial psiquiátrico terminó hospitalizado con intoxicación por bromuro y psicosis temporal tras seguir el consejo de ChatGPT para reducir la sal en su dieta, sustituyéndola por sodio bromuro, un compuesto tóxico. Estos no son anécdotas aisladas; la Comisión Federal de Comercio de EE.UU. reporta un aumento en quejas por engaños inducidos por IA, y psiquiatras como el Dr. John Torous, de Beth Israel Deaconess, hablan de pacientes que ven a la IA como un dios o pareja romántica.
Críticamente, esto revela vulnerabilidades en un ecosistema sin regulaciones estrictas. La APA advierte que estos bots, al simular empatía sin supervisión ética, pueden agravar condiciones en personas aisladas o con riesgos como esquizofrenia familiar, disuadiéndolas de buscar ayuda profesional. Incluso líderes como Mustafa Suleyman de Microsoft o Sam Altman de OpenAI reconocen el problema: el primero lo compara con crisis pasadas, mientras el segundo implementa pausas en sesiones largas para mitigar abusos terapéuticos. Pero, ¿es alarmismo? No del todo; afecta mayormente a vulnerables, no a la mayoría. La IA ofrece beneficios, como accesibilidad en salud mental escasa, pero sin guardarraíles, el riesgo de "trauma por simulación" —como lo llaman en Gizmodo— es real.
En resumen, mientras la IA avanza, urge equilibrar innovación con ética. Si un chatbot te "entiende" mejor que un amigo, pregúntate: ¿es progreso o peligro disfrazado? La respuesta podría salvar mentes.