¿ChatGPT, tu confidente o tu delator?: CEO de OpenAI, advierte que las conversaciones con ChatGPT podrían usarse como evidencia judicial
La declaración se produce en un contexto de creciente uso de IA, mientras OpenAI trabaja en mejorar sus políticas de retención de datos
EU.- Sam Altman, CEO de OpenAI, lanzó una advertencia inquietante: las conversaciones que los usuarios mantienen con ChatGPT podrían convertirse en evidencia judicial. Según el directivo, la falta de un marco legal que proteja la confidencialidad de estos intercambios deja a los usuarios expuestos. En un contexto donde la inteligencia artificial se ha convertido en una herramienta cotidiana para millones, esta revelación expone un vacío ético y jurídico que OpenAI aún no ha resuelto.
La advertencia es clara, ChatGPT es una tecnología prometedora que, sin embargo, guarda secretos que podrían volverse en contra de sus usuarios. Altman ha reconocido que, a diferencia de la relación entre paciente y terapeuta, protegida por leyes de confidencialidad, los chats con IA no cuentan con esa salvaguarda. Esto significa que, en un litigio, OpenAI podría estar obligada a entregar esos datos, un riesgo que muchos ignoran al compartir detalles personales.
La reacción en redes no se hizo esperar. Usuarios bromean sobre consultas comprometedoras —como disolver 75 kilos de pollo sin olor—, pero el trasfondo es serio. Expertos en ciberseguridad ya advertían desde 2024 que evitar compartir información sensible con IA era crucial, y casos como el de un abogado que usó ChatGPT para citar casos falsos en un tribunal refuerzan la necesidad de regulación. ¿Es ChatGPT un aliado o una trampa legal disfrazada de asistente? Mientras OpenAI promete mejorar sus políticas de retención de datos —con opciones como el modo temporal de 30 días—, la pregunta queda en el aire: ¿estamos dispuestos a sacrificar nuestra privacidad por la comodidad de la IA?