- Los centros de datos de IA están abrumando la red nacional y elevando el consumo de energía
- Las empresas están recurriendo a alternativas nucleares para mantenerse al día con las cargas de trabajo de IA que consumen mucha energía
- OpenAI pide al gobierno ampliar masivamente la capacidad nacional de generación de energía
El director ejecutivo de Microsoft, Satya Nadella, ha llamado la atención sobre un obstáculo menos discutido en la carrera de la IA: no los procesadores, sino la escasez de energía.
Hablando en un podcast con el CEO de OpenAI, Sam Altman, Nadella dijo que Microsoft tiene “un montón de chips en el inventario que no puedo conectar”.
“El mayor problema que tenemos en este momento no es un exceso de computación, sino el poder: es la capacidad de completar construcciones lo suficientemente rápido cerca del poder”, agregó Nadella, “De hecho, ese es mi problema hoy. No es un problema de suministro de chips; en realidad es que no tengo una carcasa caliente para enchufar”.
Las limitaciones energéticas remodelan el panorama de la IA
Nadella explicó que si bien actualmente hay un suministro suficiente de GPU, la falta de instalaciones adecuadas para obtenerlas sigue siendo un problema crítico.
En este contexto, describe “cáscaras calientes” como edificios de centros de datos vacíos, listos para albergar hardware pero que dependen del acceso a una infraestructura eléctrica adecuada.
Muestra que el crecimiento explosivo de las herramientas de inteligencia artificial ha dejado al descubierto vulnerabilidades y que la demanda de potencia informática ha superado las nuevas construcciones y la capacidad energética. Centro de información sitio
La planificación energética es un gran problema en toda la industria tecnológica, e incluso las grandes empresas como Microsoft luchan por mantenerse al día con enormes recursos.
Para abordar este problema, algunas empresas, incluidos los principales proveedores de nube, ahora están investigando soluciones de energía nuclear para mantenerse al día con su rápida expansión.
Los comentarios de Nadella reflejan una preocupación más amplia de que la infraestructura de IA está llevando las redes eléctricas nacionales al límite.
A medida que se acelera la construcción de centros de datos en todo Estados Unidos, las cargas de trabajo de IA que consumen mucha energía ya están comenzando a afectar los precios de la electricidad para los consumidores.
OpenAI incluso pidió al gobierno de EE. UU. que se comprometa a construir 100 gigavatios de nueva capacidad de generación de electricidad anualmente.
Sostiene que la seguridad energética se está volviendo tan importante como el acceso a los semiconductores en competencia con China.
Los analistas señalan las importantes iniciativas de Beijing en materia de energía hidroeléctrica y desarrollo nuclear que podrían darle una ventaja para mantener la infraestructura de IA a escala.
Altman también insinuó un posible cambio hacia dispositivos de consumo más capaces que algún día podrían ejecutar de forma nativa modelos avanzados como GPT-5 o GPT-6.
Si las innovaciones en CPU y chips permiten sistemas de bajo consumo, gran parte de la demanda prevista de procesamiento de IA basado en la nube podría desaparecer.
Esta posibilidad presenta un riesgo a largo plazo para las empresas que han invertido mucho en grandes redes de centros de datos.
Algunos expertos creen que tal cambio podría incluso acelerar el eventual estallido de lo que describen como una burbuja económica impulsada por la IA, que podría amenazar billones de dólares en valor de mercado si las expectativas colapsan.
Vía TomsHardware
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy












