
Una frase tan común como “gracias” puede parecer inofensiva en una conversación con un chatbot, pero detrás de esa cortesía se esconde una cadena de procesos que consume recursos a gran escala. Lejos de ser un simple gesto de amabilidad digital, ese agradecimiento representa parte de un sistema que requiere potentes infraestructuras tecnológicas y una cantidad considerable de energía.
La advertencia provino del propio Sam Altman, director ejecutivo de OpenAI, quien reconoció públicamente que los intercambios educados con ChatGPT implican costos millonarios en electricidad.
A través de una publicación en la red social X, Altman señaló que frases como “por favor” o “gracias”, aunque breves, activan respuestas automáticas que demandan energía computacional, acumulando gastos elevados a gran escala.

La razón de Sam Altman para pedir mesura con ChatGPT
Detrás del funcionamiento de ChatGPT operan modelos de lenguaje masivo que se sostienen en centros de datos con altísimo consumo eléctrico. Cada vez que un usuario escribe un mensaje, por más breve que sea, se encienden cientos o miles de unidades de procesamiento gráfico para procesar la respuesta.
Según estimaciones citadas por Futurism, una sola respuesta de un chatbot puede consumir hasta 0.14 kilovatios hora. Esto equivale a mantener encendidas 14 lámparas LED durante una hora. Aplicado a millones de usuarios semanales, el impacto energético deja de ser anecdótico y pasa a convertirse en una preocupación real.
La lógica es simple. Cada mensaje genera una carga de trabajo. Y si el usuario decide añadir una despedida cordial o un agradecimiento, el sistema responde. Esa respuesta, aunque parezca trivial, vuelve a activar la infraestructura y multiplica el consumo.

Qué recursos consume la IA
A esto se suma otro aspecto poco conocido. Los centros de datos no solo requieren electricidad. También consumen grandes volúmenes de agua para enfriar los sistemas que soportan estos modelos de lenguaje. Genbeta señala que entre 10 y 50 interacciones pueden representar el uso de aproximadamente dos litros de agua.
Con más de 300 millones de usuarios activos a la semana, según cifras recientes de OpenAI, el resultado es una huella ambiental acumulativa difícil de ignorar.
El uso de expresiones amables con una máquina no responde a una necesidad funcional. El sistema no mejora su rendimiento ni ajusta su respuesta en función del tono del usuario. Aun así, muchos lo hacen por hábito, por educación o por simple simpatía.
Una encuesta publicada por el New York Post reveló que el 67 por ciento de los usuarios estadounidenses utiliza expresiones como “por favor” y “gracias” cuando interactúa con asistentes virtuales. Un 12 por ciento incluso reconoció que lo hace de forma preventiva, por si algún día la inteligencia artificial se vuelve autónoma.

Aunque pueda parecer un gesto inocente, esa cortesía tiene efectos medibles. La creciente adopción de chatbots basados en modelos generativos está generando presión sobre los sistemas eléctricos globales.
Qué positivo hay en responderle “gracias” a la IA
Actualmente, los centros de datos representan cerca del 2 por ciento del consumo mundial de electricidad. Ese porcentaje podría aumentar de manera significativa en los próximos años si la tendencia continúa.
Kurtis Beavers, responsable del equipo Copilot en Microsoft, señaló en una entrevista que la amabilidad puede generar respuestas más respetuosas. Desde el punto de vista del diseño conversacional, ese tipo de lenguaje puede mejorar la experiencia de uso, aunque no optimiza el funcionamiento del sistema en términos energéticos.
El debate está abierto. Ser educado con una máquina puede resultar en respuestas más agradables, pero también contribuye a una cadena de consumo de energía y recursos difícil de justificar desde una perspectiva ambiental.
Cada palabra digitada en una conversación con inteligencia artificial activa una infraestructura compleja que consume electricidad, agua y potencia de cálculo. Por eso, si bien la cortesía digital no está prohibida, cada vez son más quienes se preguntan si tiene sentido seguir usándola cuando el costo de una simple frase puede medirse en dólares y emisiones.
Últimas Noticias
Este es el robot autónomo más pequeño que un grano de sal: se mueve y procesa datos
Su cuerpo, de aproximadamente 210 por 340 micrómetros y 50 micrómetros de grosor, está diseñado para operar en fluidos

El joven que desarrolló un dispositivo para combatir la soledad de su abuelo hoy trabaja desde Silicon Valley: en marzo sale a la venta
Con base en San Francisco, los creadores desarrollan Ato: una propuesta de inteligencia artificial orientada al acompañamiento cotidiano de personas mayores, probada con familias reales

Estos son los robots humanoides que acaparan la atención en CES 2026
El Onero H1 sorprendió por su capacidad para ejecutar tareas domésticas como poner la ropa en la lavadora o doblarla

Estos son los nuevos relojes inteligentes presentados en el CES 2026 de Las Vegas
La reciente edición del CES mostró una nueva generación de relojes inteligentes, con lanzamientos de marcas reconocidas y el regreso de firmas históricas

El gaming alcanzaría USD 350 mil millones en 2030, pero jugadores evitan pagar precio completo
El 31% podría dejar de adquirir juegos si los precios suben, según un estudio




