¡Alerta roja! OpenAI confiesa que más de un millón de usuarios de ChatGPT desahogan pensamientos suicidas o crisis emocionales cada semana
El 0.15% de los 800 millones de usuarios muestra señales de ideación suicida, y OpenAI promete ajustar su chatbot ante la presión
EU.- Esta semana, OpenAI soltó una bomba que debería hacernos reflexionar: más de un millón de personas en el mundo mantienen conversaciones semanales con ChatGPT sobre pensamientos suicidas o crisis emocionales. La cifra, basada en el análisis de 800 millones de usuarios activos, indica que un 0.15% muestra señales claras de ideación suicida, mientras que otro 0.07% —unos 560,000 individuos— exhibe indicios de emergencias psiquiátricas como psicosis o manía. Esto, revelado el 27 de octubre, pone en el radar un fenómeno que mezcla tecnología y salud mental en una época donde la soledad y el acceso limitado a psicólogos —solo uno de cada tres afectados lo logra en Inglaterra, según datos de 2016— empujan a muchos a buscar consuelo en la IA.
El dato impresiona, pero también inquieta. Por un lado, ChatGPT se convierte en un salvavidas improvisado para quienes no encuentran ayuda humana; por otro, sugiere que OpenAI, al monitorear estas interacciones con 170 expertos en salud mental, podría estar cruzando líneas éticas sobre privacidad. ¿Es este un avance en prevención o un vistazo incómodo a cómo la IA husmea en nuestras vulnerabilidades? La empresa promete mejorar las respuestas del chatbot, pero la pregunta queda: ¿hasta dónde llega su responsabilidad, y quién regula estos datos sensibles? Mientras tanto, la sociedad sigue debatiendo si la IA cura o expone.



