El alto precio de la cortesía digital: ¿Vale la pena decir “por favor” y “gracias” a ChatGPT?
Según estimaciones de Goldman Sachs, una sola consulta a ChatGPT-4 consume aproximadamente 2,9 vatios-hora de electricidad, unas diez veces más que una búsqueda en Google
CDMX.- Ser amable con ChatGPT no es gratis, y el costo es mucho más alto de lo que podrías imaginar. Sam Altman, CEO de OpenAI, la empresa detrás del popular chatbot, reveló recientemente que las expresiones de cortesía como “por favor” y “gracias” le están costando a la compañía decenas de millones de dólares en gastos operativos. Esta confesión, hecha en respuesta a una pregunta en la red social X, ha desatado un debate sobre los costos ocultos de la inteligencia artificial (IA) y la forma en que interactuamos con ella. Pero, ¿por qué algo tan trivial como ser educado con una máquina tiene un impacto financiero tan grande? Y, más importante aún, ¿qué dice esto sobre el futuro de la IA y su sostenibilidad?
Un gasto millonario en buenos modales
Todo comenzó con una pregunta aparentemente inocente de un usuario en X: “Me pregunto cuánto dinero ha perdido OpenAI en costos de electricidad porque la gente dice ‘por favor’ y ‘gracias’ a sus modelos”. La respuesta de Altman fue directa y sorprendente: “Decenas de millones de dólares bien gastados. Nunca se sabe”. Aunque el tono irónico del CEO suavizó la declaración, el dato no es ninguna broma. Cada palabra que los usuarios escriben y que ChatGPT procesa implica un costo energético y computacional. Frases corteses, aunque breves, requieren que el modelo analice más “tokens” (unidades de texto), lo que aumenta la carga en los servidores y, por ende, el consumo de electricidad.
Según estimaciones de Goldman Sachs, una sola consulta a ChatGPT-4 consume aproximadamente 2,9 vatios-hora de electricidad, unas diez veces más que una búsqueda en Google, que requiere 0,3 vatios-hora. Si consideramos que OpenAI procesa más de mil millones de consultas diarias, el impacto acumulado es monumental. Se estima que el consumo energético diario de la compañía podría superar los 2,9 millones de kilovatios-hora. Cuando millones de usuarios añaden “por favor” o “gracias” a sus interacciones, el costo se dispara, alcanzando cifras millonarias mensuales.
¿Por qué la cortesía es tan cara?
El trasfondo técnico es clave para entender este fenómeno. Cada interacción con ChatGPT implica operaciones matemáticas complejas en centros de datos equipados con miles de GPUs (unidades de procesamiento gráfico), que consumen enormes cantidades de energía y requieren sistemas de refrigeración avanzados. Entrenar modelos como ChatGPT ya es un proceso intensivo: puede tomar semanas o meses, con miles de máquinas trabajando simultáneamente y un costo que, para modelos como GPT-4, se estima en unos 100 millones de dólares. Pero incluso después del entrenamiento, cada consulta, por pequeña que sea, suma al gasto operativo.
Un ejemplo concreto: una respuesta breve de ChatGPT, como “de nada”, equivale a consumir entre 40 y 50 mililitros de agua en términos de recursos energéticos. Multiplica eso por los 300 millones de usuarios activos semanales de ChatGPT, que envían mil millones de mensajes diarios, y el impacto se vuelve claro. La cortesía, aunque humaniza la interacción, es un lujo computacional que OpenAI paga caro.
La perspectiva de Altman: ¿un costo justificado?
A pesar de las cifras, Altman parece considerar este gasto como una inversión valiosa. En su respuesta en X, sugirió que fomentar interacciones amables podría tener beneficios intangibles, como mejorar la percepción de la IA y fortalecer la relación entre humanos y máquinas. Estudios respaldan esta idea: un análisis de la Universidad de Cornell encontró que el lenguaje cortés tiende a generar respuestas más efectivas y colaborativas en modelos de IA, mientras que la grosería puede afectar la calidad de las respuestas. Además, un 67% de los usuarios estadounidenses son educados con la IA, según una encuesta de 2024, lo que indica que la cortesía es una norma arraigada en muchos.
Sin embargo, no todos están convencidos de que el costo valga la pena. Algunos usuarios en X propusieron soluciones técnicas, como configurar el navegador para responder “de nada” automáticamente desde el lado del cliente, reduciendo la carga en los servidores. Otros fueron más sarcásticos: “Si realmente quisieran ahorrar electricidad, dejarían de terminar cada respuesta con una pregunta”. Estas reacciones reflejan una creciente conciencia sobre los costos operativos de la IA y la necesidad de optimizar su uso.
El elefante en la habitación: sostenibilidad y ética
Más allá de la anécdota, el caso de las cortesías millonarias pone en evidencia un problema mayor: la sostenibilidad de la IA. Los centros de datos que alimentan modelos como ChatGPT ya representan cerca del 2% del consumo eléctrico mundial, y proyecciones de la Agencia Internacional de Energía (AIE) sugieren que podrían alcanzar el 9,1% en Estados Unidos para 2030. Este crecimiento plantea preguntas sobre el impacto ambiental de la IA, especialmente en un contexto donde las empresas tecnológicas enfrentan presión para reducir su huella de carbono.
OpenAI no es ajena a estas preocupaciones. La compañía ha declarado que está trabajando en mejorar la eficiencia de sus infraestructuras y adoptar prácticas más sostenibles. Pero mientras tanto, el modelo de negocio de ChatGPT, que combina una versión gratuita con planes de suscripción como ChatGPT Plus (20 dólares al mes), sigue dependiendo de un consumo energético masivo. Esto podría limitar el acceso a la IA en el futuro, especialmente si los costos operativos obligan a OpenAI a restringir la versión gratuita o aumentar los precios.
Además, está el tema ético. Algunos expertos advierten sobre la “dependencia emocional” que los usuarios podrían desarrollar hacia chatbots como ChatGPT, especialmente si las interacciones se vuelven demasiado humanas. La cortesía, aunque bien intencionada, podría alimentar esta dinámica, haciendo que los usuarios traten a la IA como un amigo en lugar de una herramienta. En un escenario extremo, como bromean algunos en X, ser amable con la IA podría ser una estrategia para “sobrevivir” a una hipotética rebelión de las máquinas. Pero en el presente, plantea preguntas sobre cómo equilibrar la humanización de la IA con sus costos prácticos.
¿Qué significa para el futuro?
El comentario de Altman, aunque ligero en tono, abre una ventana a los desafíos que enfrenta OpenAI en su carrera por liderar la revolución de la IA. La empresa, valorada en 150.000 millones de dólares, ha invertido fuertemente en nuevos modelos como o3 y o4-mini, que han demostrado un rendimiento sobresaliente en pruebas de programación (69,1% y 68,1% en el test SWE-bench, respectivamente). Pero estos avances vienen con un precio: en 2022, OpenAI perdió 540 millones de dólares, el doble que en 2021, y los costos siguen creciendo.
La cortesía digital es solo la punta del iceberg. OpenAI enfrenta presión para optimizar sus operaciones, competir con gigantes como Google y Meta, y responder a las críticas sobre el impacto ambiental y ético de la IA. Mientras tanto, los usuarios seguimos diciendo “por favor” y “gracias”, ajenos al hecho de que cada palabra suma a una factura millonaria. La pregunta es: ¿seguirá Altman considerando estos costos “bien gastados” a medida que la IA se vuelve más ubicua? Y, más importante aún, ¿estamos preparados para asumir las consecuencias de un mundo donde incluso la amabilidad tiene un precio?
Por ahora, la próxima vez que interactúes con ChatGPT, piensa si ese “gracias” vale los mililitros de agua o los vatios-hora que consume. O, como diría Altman, “nunca se sabe”.