
Una frase tan común como “gracias” puede parecer inofensiva en una conversación con un chatbot, pero detrás de esa cortesía se esconde una cadena de procesos que consume recursos a gran escala. Lejos de ser un simple gesto de amabilidad digital, ese agradecimiento representa parte de un sistema que requiere potentes infraestructuras tecnológicas y una cantidad considerable de energía.
La advertencia provino del propio Sam Altman, director ejecutivo de OpenAI, quien reconoció públicamente que los intercambios educados con ChatGPT implican costos millonarios en electricidad.
A través de una publicación en la red social X, Altman señaló que frases como “por favor” o “gracias”, aunque breves, activan respuestas automáticas que demandan energía computacional, acumulando gastos elevados a gran escala.

La razón de Sam Altman para pedir mesura con ChatGPT
Detrás del funcionamiento de ChatGPT operan modelos de lenguaje masivo que se sostienen en centros de datos con altísimo consumo eléctrico. Cada vez que un usuario escribe un mensaje, por más breve que sea, se encienden cientos o miles de unidades de procesamiento gráfico para procesar la respuesta.
Según estimaciones citadas por Futurism, una sola respuesta de un chatbot puede consumir hasta 0.14 kilovatios hora. Esto equivale a mantener encendidas 14 lámparas LED durante una hora. Aplicado a millones de usuarios semanales, el impacto energético deja de ser anecdótico y pasa a convertirse en una preocupación real.
La lógica es simple. Cada mensaje genera una carga de trabajo. Y si el usuario decide añadir una despedida cordial o un agradecimiento, el sistema responde. Esa respuesta, aunque parezca trivial, vuelve a activar la infraestructura y multiplica el consumo.

Qué recursos consume la IA
A esto se suma otro aspecto poco conocido. Los centros de datos no solo requieren electricidad. También consumen grandes volúmenes de agua para enfriar los sistemas que soportan estos modelos de lenguaje. Genbeta señala que entre 10 y 50 interacciones pueden representar el uso de aproximadamente dos litros de agua.
Con más de 300 millones de usuarios activos a la semana, según cifras recientes de OpenAI, el resultado es una huella ambiental acumulativa difícil de ignorar.
El uso de expresiones amables con una máquina no responde a una necesidad funcional. El sistema no mejora su rendimiento ni ajusta su respuesta en función del tono del usuario. Aun así, muchos lo hacen por hábito, por educación o por simple simpatía.
Una encuesta publicada por el New York Post reveló que el 67 por ciento de los usuarios estadounidenses utiliza expresiones como “por favor” y “gracias” cuando interactúa con asistentes virtuales. Un 12 por ciento incluso reconoció que lo hace de forma preventiva, por si algún día la inteligencia artificial se vuelve autónoma.

Aunque pueda parecer un gesto inocente, esa cortesía tiene efectos medibles. La creciente adopción de chatbots basados en modelos generativos está generando presión sobre los sistemas eléctricos globales.
Qué positivo hay en responderle “gracias” a la IA
Actualmente, los centros de datos representan cerca del 2 por ciento del consumo mundial de electricidad. Ese porcentaje podría aumentar de manera significativa en los próximos años si la tendencia continúa.
Kurtis Beavers, responsable del equipo Copilot en Microsoft, señaló en una entrevista que la amabilidad puede generar respuestas más respetuosas. Desde el punto de vista del diseño conversacional, ese tipo de lenguaje puede mejorar la experiencia de uso, aunque no optimiza el funcionamiento del sistema en términos energéticos.
El debate está abierto. Ser educado con una máquina puede resultar en respuestas más agradables, pero también contribuye a una cadena de consumo de energía y recursos difícil de justificar desde una perspectiva ambiental.
Cada palabra digitada en una conversación con inteligencia artificial activa una infraestructura compleja que consume electricidad, agua y potencia de cálculo. Por eso, si bien la cortesía digital no está prohibida, cada vez son más quienes se preguntan si tiene sentido seguir usándola cuando el costo de una simple frase puede medirse en dólares y emisiones.
Últimas Noticias
Sam Altman, creador de ChatGPT, predice que la evolución de la IA generará “la desaparición de clases enteras de empleos”
El directivo advierte que esta tecnología ya es más “poderosa” que cualquier humano

Nueva amenaza de seguridad en Android: así es el malware que va tras las cuentas bancarias
Las víctimas de este virus son engañadas con notificaciones urgentes que les incitan a entregar información sensible

Las películas más mencionadas en X hoy: ¿cuáles son y por qué son tendencia?
La función de menciones y tendencias de esta red social se han convertido en todo un medidor de popularidad en la industria del entretenimiento

Android 16 llega con dos funciones de seguridad para evitar llamadas spam y redes inseguras
La nueva versión también usará inteligencia artificial para identificar y frenar fraudes o estafas en tiempo real

Glosario de tecnología: qué significa Almacenamiento de datos
La tecnología en la vida diaria ha transformado significativamente la forma en que las personas interactúan, trabajan y se entretienen
