Cada vez que le pides a ChatGPT que escriba un correo, a Midjourney que genere una imagen o a cualquier herramienta de IA que resuelva un problema, algo sucede lejos de tu pantalla. En algún lugar del mundo, cientos de procesadores se encienden, realizan billones de cálculos y generan calor. Mucho calor. Tanto que necesitan sistemas de enfriamiento industrial funcionando las 24 horas.
La inteligencia artificial no vive en la nube: vive en edificios del tamaño de bodegas, consumiendo electricidad equivalente a colonias enteras. La pregunta no es si la IA consume energía. La pregunta es cuánta, por qué y si ese consumo se convertirá en un obstáculo que frene su expansión o transforme nuestros sistemas eléctricos.
El entrenamiento consume energía como una ciudad mediana
Entrenar un modelo grande de IA es el equivalente energético a construir infraestructura masiva. No sucede cada vez que usas la herramienta. Sucede una sola vez, pero ese «una vez» puede consumir tanta electricidad como una ciudad mediana durante semanas.
GPT-3, el modelo que precedió a ChatGPT, requirió aproximadamente 1,287 megawatts hora para entrenarse según estimaciones técnicas basadas en análisis de infraestructura. Eso equivale al consumo eléctrico anual de 120 hogares mexicanos promedio. GPT-4 consumió significativamente más, aunque OpenAI no ha publicado cifras exactas.
Los modelos más recientes de Google, Meta y Anthropic siguen patrones similares: miles de procesadores especializados (GPUs, unidades de procesamiento gráfico diseñadas para cálculos paralelos masivos) trabajando simultáneamente, procesando petabytes de texto, imágenes o código.
El proceso funciona así: imagina enseñarle a alguien un idioma mostrándole todos los libros jamás escritos, pero en lugar de leerlos linealmente, esa persona debe encontrar patrones en millones de frases al mismo tiempo. Cada ajuste requiere recalcular conexiones en una red con cientos de miles de millones de parámetros. Cada recálculo consume electricidad. Multiplica eso por semanas y obtienes el costo del entrenamiento.
La buena noticia: esto sucede una vez por modelo. La mala: cada año aparecen docenas de nuevos modelos, cada uno empujando los límites de tamaño y capacidad.
Cada consulta activa servidores en centros de datos
Una búsqueda en Google consume aproximadamente 0.3 watt hora. Una consulta a ChatGPT puede consumir más, aunque análisis recientes de Epoch.ai indican que con hardware moderno (procesadores H100 y Blackwell) el consumo por consulta ha bajado significativamente, acercándose a 0.3 Wh para operaciones optimizadas.
Parece poco hasta que consideras la escala. ChatGPT alcanzó 100 millones de usuarios en dos meses. Si cada uno hace solo tres consultas al día, estamos hablando de casi mil millones de operaciones diarias.
El consumo varía según la complejidad. Pedirle a la IA que resuma un párrafo cuesta menos que pedirle que genere un ensayo de tres páginas con referencias. Más tokens generados (las unidades básicas de texto que procesa la IA) equivalen a más cálculos, más tiempo de procesador activo y más energía.
Aquí entra un factor que pocos consideran: la inferencia (el proceso técnico de generar respuestas a partir de un modelo ya entrenado) no es tan costosa como el entrenamiento por operación individual, pero sucede miles de millones de veces al día. Es como la diferencia entre construir una autopista (costoso pero único) y el tráfico diario que la usa (menor impacto individual pero continuo).
Los análisis de la industria indican que la inferencia ya representa la mayoría del consumo energético total en producción de IA. Con la IA, ambos costos importan, pero el tráfico diario crece exponencialmente.
Para poner esto en perspectiva mexicana: México generó 352.3 TWh (terawatts hora) de electricidad en 2024 según datos oficiales de SENER. Si una familia promedio consume 250 kWh al mes, una sola consulta compleja de IA equivale a mantener un foco LED encendido durante un par de horas. No suena dramático hasta que multiplicas por millones de usuarios haciendo decenas de consultas diarias.
El enfriamiento duplica el consumo energético
Enfriar servidores consume casi tanta energía como operarlos. Este es el costo oculto que rara vez aparece en las discusiones sobre IA.
Los procesadores modernos pueden alcanzar temperaturas superiores a 80 grados Celsius bajo carga continua. En un centro de datos con miles de máquinas generando calor simultáneamente, la temperatura ambiental puede volverse insostenible en minutos sin enfriamiento activo.
El aire acondicionado industrial, los sistemas de agua fría y las torres de enfriamiento operan permanentemente. La métrica PUE (Power Usage Effectiveness, efectividad del uso de energía) mide esta eficiencia: centros de datos modernos y eficientes logran PUE de 1.1 a 1.2, lo que significa que por cada watt usado en cómputo, se gastan entre 0.1 y 0.2 watts adicionales en enfriamiento e infraestructura.
La ubicación geográfica multiplica este problema. Un centro de datos en Querétaro, donde las temperaturas pueden superar los 35 grados en verano, requiere más energía para enfriamiento que uno en Noruega. Esto explica por qué empresas como Google y Microsoft construyen instalaciones cerca del Ártico o invierten en sistemas de enfriamiento por inmersión líquida (literalmente sumergen servidores en aceite dieléctrico para disipar calor más eficientemente).
México cuenta con aproximadamente 250 MW (megawatts) de capacidad instalada de TI en centros de datos según reportes de la industria, con Querétaro como el principal clúster. La infraestructura está creciendo, pero enfrenta restricciones de red eléctrica en algunas zonas. Cada nueva instalación debe equilibrar proximidad a usuarios (para reducir latencia) con costos energéticos de enfriamiento.
Tres presiones sobre la infraestructura global
El debate energético de la IA tiene tres frentes simultáneos: emisiones, infraestructura y competencia por recursos.
Emisiones de carbono
Si la electricidad proviene de combustibles fósiles, cada consulta de IA genera emisiones de CO₂. Un estudio de la Universidad de Massachusetts estimó que entrenar un solo modelo grande puede emitir tanto CO₂ como cinco autos durante toda su vida útil. En México, donde aproximadamente el 75% de la electricidad proviene de fuentes fósiles, este factor es crítico para metas climáticas.
Presión sobre redes eléctricas
Los centros de datos globales consumieron entre 240 y 340 TWh en 2022, representando entre 1% y 1.3% de la demanda eléctrica final mundial según la Agencia Internacional de Energía. La AIE proyecta que esta demanda podría seguir creciendo materialmente. En regiones con redes eléctricas frágiles, esto presiona la capacidad instalada.
Competencia por recursos
En Querétaro, donde ya existen restricciones de red para nuevos centros de datos, esta tensión es tangible. Cada megawatt destinado a IA es un megawatt que no va a hospitales, escuelas o manufactura. Esta tensión ya está sobre la mesa en consejos regulatorios de múltiples países.
Chips más eficientes y energía renovable cambian la ecuación
La industria tecnológica no ignora el problema. Las respuestas están tomando forma en tres direcciones: hardware más eficiente, optimización algorítmica y transición energética.
Hardware especializado
Los nuevos chips especializados consumen menos energía por operación. Los TPUs de Google (Tensor Processing Units, unidades de procesamiento tensorial diseñadas específicamente para operaciones de IA) son significativamente más eficientes que GPUs tradicionales. Apple integró motores neuronales en sus chips M-series, permitiendo ejecutar modelos localmente sin enviar datos a servidores remotos. Esto reduce tanto consumo energético como latencia.
Algoritmos optimizados
Técnicas como la cuantización (reducir precisión numérica sin perder rendimiento significativo), la poda de redes neuronales (eliminar conexiones innecesarias) y la destilación de modelos (entrenar versiones pequeñas que imitan modelos grandes) están logrando hacer más con menos.
Llama 3.2 de Meta, por ejemplo, puede ejecutarse en una laptop moderna, algo impensable hace tres años. Estos modelos más pequeños permiten descentralizar el cómputo, quitando presión de los centros de datos masivos.
Energía renovable
Las grandes tecnológicas están comprando o generando renovables masivamente. Microsoft firmó el acuerdo de compra de energía solar más grande de la historia en 2023. Google afirma que sus centros de datos operan con energía libre de carbono en ciertos horarios del día. Amazon invierte en parques eólicos para compensar el consumo de AWS.
Estas no son soluciones completas (comprar energía renovable no elimina la demanda de la red), pero reducen emisiones netas. El problema: estas mejoras compiten con el crecimiento explosivo de la demanda. Si la eficiencia mejora 20% pero el uso de IA crece 200%, el consumo neto sigue aumentando.
El equilibrio depende de la optimización, no solo del crecimiento
¿Se convertirá esto en un freno real para la IA? La respuesta honesta: depende de factores que aún están en juego.
Regulación y economía
Gobiernos podrían imponer límites al consumo energético de centros de datos, exigir transparencia en emisiones o incentivar solo infraestructura alimentada por renovables. La Unión Europea ya avanza en esta dirección. México aún no tiene marco regulatorio específico, pero la presión crecerá conforme se instalen más centros de datos locales.
Si los costos energéticos suben más rápido que la eficiencia tecnológica, entrenar y operar modelos podría volverse prohibitivamente caro, forzando consolidación o acelerando innovación en modelos ultra eficientes.
Percepción pública
Si el consenso social determina que el consumo energético de IA no justifica sus beneficios, la presión reputacional podría frenar inversión. Con IA, el cálculo es complejo: la tecnología genera valor económico y social medible, no solo especulación financiera.
Lo que parece claro: la IA no desaparecerá por consumo energético, pero ese consumo definirá quién puede desarrollarla, dónde se despliega y a qué velocidad crece. El futuro no es «IA sí o no», sino «qué tipo de IA, con qué eficiencia y alimentada por qué fuentes de energía».
Para usuarios individuales, cada consulta tiene un costo energético real, invisible pero medible. Para empresas y gobiernos, el desafío es construir infraestructura que sostenga la innovación sin comprometer estabilidad eléctrica ni metas climáticas.

-1.png&w=1920&q=75)



















-1.png&w=3840&q=75)