Editorial: ¿Qué vamos a hacer con tantos centros de datos cuando se acabe la fiesta de la IA?

Centro de Datos de Google en Midlothian

La economía digital atraviesa el mayor ciclo de inversión de su historia.

La industria global de centros de datos está viviendo un fenómeno sin precedentes: una expansión impulsada casi exclusivamente por la carrera de la Inteligencia Artificial (IA). Lo que hasta hace pocos años era una infraestructura pensada para almacenar contenido y distribuirlo rápidamente, hoy se convierte en un gigantesco ecosistema de cómputo intensivo que absorbe capital a un ritmo nunca visto.

El resultado: un ciclo de inversión que recuerda a las grandes burbujas tecnológicas —pero con una magnitud de gasto comparable al desarrollo de infraestructura pública a nivel nacional— y con riesgos profundos para quienes están financiando esta nueva fábrica mundial de IA.


I. El nuevo frenesí global del CapEx para IA

Un nivel de gasto que rompe todos los registros

Solo en 2025, el gasto global en centros de datos dedicados a IA alcanzará $600.000 millones. Pero la cifra realmente alarmante viene de Nvidia: para 2030, el CapEx total podría llegar a entre $3 y $4 billones.

Para alcanzar ese nivel desde los $600.000 millones actuales, se requeriría un crecimiento anual compuesto del 46%. Es una tasa que, en cualquier industria tradicional, sería considerada insostenible.

Los principales responsables de este boom son los hyperscalers: Amazon, Google, Microsoft y Meta, que este año gastarán $320.000 millones solo en infraestructura de IA.

Es aquí donde aparece el primer signo de alerta: La rentabilidad real de la IA todavía no está probada.

Los beneficios, según analistas, siguen siendo inciertos. La mayoría de estas inversiones son apuestas estratégicas motivadas por el FOMO corporativo: nadie quiere quedar fuera si la IA redefine la economía global.


II. Un costoso desafío de ingeniería

Los centros de datos tradicionales ya no sirven para la IA. La densidad energética por rack se multiplicó y obligó a rediseñar toda la infraestructura física.

Las nuevas GPU de ultra-alto consumo empujaron a toda la industria hacia sistemas de refrigeración líquida, que hoy son el estándar en cualquier centro de IA.

En 2024, los centros de datos de EE.UU. consumieron 183 TWh, comparable al consumo anual de Pakistán.
Para 2030, la demanda global podría llegar a 1.000 TWh, siendo la IA el principal responsable.

La energía —no el silicio— se convierte en el cuello de botella crítico.


III. Texas: el nuevo epicentro energético y geopolítico de la IA

Texas se transformó en el núcleo global de la infraestructura de hiperescala por tres motivos:

  • incentivos fiscales masivos
  • abundancia relativa de energía
  • un mercado eléctrico desregulado (ERCOT)

Google ya invirtió más de $1.000 millones en Midlothian. Pero la bandera del megaproyecto se la lleva OpenAI.

Stargate: la mayor inversión en infraestructura tecnológica de la historia

OpenAI planea invertir hasta $500.000 millones en un solo proyecto —con un primer tramo de $100.000 millones ya asignado en Texas.

Pero esta hiperconcentración está causando tensiones severas:

  • En 2024, ERCOT rastreaba 56 GW en solicitudes de carga.
  • Hoy, esa cifra se ha cuadruplicado.

La red eléctrica no crece a la velocidad que demanda la IA, y el riesgo político aumenta con nuevas leyes como SB6 permitirán al estado imponer requisitos estrictos a los centros de datos en nombre de la “estabilidad de la red”.

Google ya creó un fondo energético de $30 millones para calmar las presiones políticas, monto que luce modesto frente a los mencionados antes.


IV. Mano de obra: el recurso más escaso

No solo falta energía. Falta gente capaz de construir y mantener estos sistemas. La industria enfrenta una escasez crítica de:

  • electricistas
  • técnicos de datos
  • especialistas en refrigeración avanzada

Google.org financia programas para capacitar a 100.000 trabajadores eléctricos en EE.UU. y 1.700 aprendices en Texas para 2030. Esto no es caridad, es un cultivo de trabajadores que deben atender estos gigantes de empresas que hablan todo el tiempo de autonomía libre de humanos. Sin estos trabajadores, simplemente no se puede construir la infraestructura.


V. La ingeniería financiera: ¿cuánto cuesta realmente cada cliente de IA?

La industria habla de números gigantes, pero el riesgo real aparece cuando se calcula el costo unitario del usuario que realmente consume IA a gran escala.

El mercado enterprise de mayor valor se estima en 5.000 empresas globales (equivalentes a grandes corporaciones Fortune 500).

Si dividimos los $320.000 millones de CapEx actual entre esos clientes:

≈ $64 millones de inversión por cada empresa de alto valor.

Y ese CapEx debe recuperar su valor en apenas 2 a 3 años, que es la vida útil de una generación de GPU.

La infraestructura física dura 20 años. La infraestructura de cómputo dura 36 meses. Es un descalce brutal que convierte a este ciclo en uno de los más arriesgados de la historia reciente.


Riesgo de obsolescencia (I): la inferencia se va al borde

Por inferencia se entiende el proceso mediante el cual un modelo ya entrenado genera respuestas o predicciones. representa la mayor carga diaria de la IA. Hasta ahora se hacía principalmente en grandes centros de datos, pero eso está cambiando rápidamente.

Cada vez más inferencias se ejecutan en:

  • dispositivos locales (on-device AI)
  • microcentros de borde
  • sensores IoT inteligentes

¿Por qué? Porque el borde ofrece tres ventajas clave:

  • latencia casi cero
  • mayor privacidad
  • menor costo operativo

Empresas como Nvidia y Akamai ya están desplegando infraestructura edge para habilitar este cambio.

Si esta migración se acelera —como sugieren las proyecciones a 3–5 años— una gran parte de los racks de GPU construidos para cargas mixtas podría quedar infrautilizada, reduciendo las tasas de uso y generando obsolescencia prematura en infraestructura recién instalada.


VII. Riesgo de obsolescencia (II): la computación cuántica

La amenaza más profunda llega desde la computación cuántica (QC). Quantinuum y Microsoft apuntan a sistemas cuánticos universales tolerantes a fallos para 2030.

Si ocurre, la HPC clásica perdería su dominio en:

  • simulaciones complejas
  • optimizaciones avanzadas
  • descubrimiento molecular
  • ciertos modelos de IA

No desaparecerá la necesidad de centros de datos, pero sí cambiará su función.
Los hyperscalers deberán operar centros híbridos capaces de integrar:

  • refrigeración criogénica
  • aceleradores cuánticos
  • pipelines clásicos-cuánticos

El actual ciclo de inversión es el mayor esfuerzo privado de infraestructura digital de la historia. Pero también es un ciclo con una probabilidad real de crear:

  • cementerios de supercomputadoras,
  • activos varados,
  • centros de datos obsoletos antes de recuperar su inversión.

Los riesgos combinados incluyen:

  • ciclos de vida de GPU extremadamente cortos
  • tensión eléctrica en regiones críticas
  • migración acelerada al cómputo local
  • irrupción potencial de la computación cuántica
  • sobreconstrucción motivada por FOMO corporativo

El éxito o fracaso de este ciclo no dependerá solo de cuánta IA se use, sino de quién logre adaptar su infraestructura más rápido.

Otros artículos que te pueden interesar:

https://bitech.cl/ia/editorial-el-fin-de-los-clics-y-la-deshumanizacion-de-internet/https://bitech.cl/politica/dick-cheney-y-la-guerra-contra-el-terrorismo/
https://bitech.cl/finanzas/en-wall-street-ya-hay-corredores-apostando-en-contra-las-empresas-de-ia/https://bitech.cl/politica/framing-generacional-en-protestas-sociales/