Home Tecnología Los gigantes tecnológicos se apresuran a cumplir con la inminente crisis energética...

Los gigantes tecnológicos se apresuran a cumplir con la inminente crisis energética de AI

55
0

La IA depende completamente de los centros de datos que consumen grandes cantidades de electricidad.

La industria de la inteligencia artificial está luchando para reducir su consumo masivo de energía a través de mejores sistemas de enfriamiento, chips de computadora más eficientes y programación más inteligente, todo mientras el uso de IA explota en todo el mundo.

La IA depende completamente de los centros de datos, que podrían consumir el 3% de la electricidad del mundo para 2030, según la Agencia Internacional de Energía. Eso es el doble de lo que usan hoy.

Los expertos de McKinsey, una firma de consultoría estadounidense, describen una carrera para construir suficientes centros de datos para mantenerse al día con el rápido crecimiento de la IA, mientras advierte que el mundo se dirige hacia una escasez de electricidad.

“Hay varias formas de resolver el problema”, explicó Mosharaf Chowdhury, profesor de informática de la Universidad de Michigan.

Las empresas pueden construir más suministro de energía, que lleva tiempo y los gigantes de IA ya están recorriendo el mundo para hacer, o descubrir cómo consumir menos energía para la misma potencia informática.

Chowdhury cree que el desafío se puede enfrentar con soluciones “inteligentes” en todos los niveles, desde el hardware físico hasta el software de IA.

Por ejemplo, su laboratorio ha desarrollado algoritmos que calculan exactamente cuánta electricidad necesita cada chip de IA, reduciendo el uso de energía en un 20-30%.

Soluciones ‘inteligentes’

Hace veinte años, operar un centro de datos, que abarca sistemas de enfriamiento y otra infraestructura, requirió tanta energía como ejecutar los servidores mismos.

Hoy, las operaciones utilizan solo el 10% de lo que consumen los servidores, dice Gareth Williams de la firma de consultoría Arup.

Esto es en gran medida a través de este enfoque en la eficiencia energética.

Muchos centros de datos ahora usan sensores con IA para controlar la temperatura en zonas específicas en lugar de enfriar edificios enteros de manera uniforme.

Esto les permite optimizar el uso de agua y electricidad en tiempo real, según Pankaj Sachdeva de McKinsey.

Para muchos, el cambio de juego será el enfriamiento líquido, lo que reemplaza el rugido de los aires acondicionadores hambrientos de energía con un refrigerante que circula directamente a través de los servidores.

“Todos los grandes jugadores lo están mirando”, dijo Williams.

Esto es importante porque los chips de IA modernos de compañías como Nvidia consumen 100 veces más potencia que los servidores hace dos décadas.

La semana pasada, el negocio de computación en la nube líder mundial de Amazon, dijo la semana pasada que había desarrollado su propio método líquido para enfriar las GPU de NVIDIA en sus servidores, evitando tener que reconstruir los centros de datos existentes.

“Simplemente no habría suficiente capacidad de refrigeración por líquidos para apoyar nuestra escala”, dijo Dave Brown, vicepresidente de servicios de cálculo y aprendizaje automático en AWS, en un video de YouTube.

EE. UU. Vs. China

Para Sachdeva de McKinsey, un factor tranquilizador es que cada nueva generación de chips de computadora es más eficiente en energía que el anterior.

La investigación realizada por Yi Ding de la Universidad de Purdue ha demostrado que los chips de IA pueden durar más sin perder el rendimiento.

“Pero es difícil convencer a las compañías de semiconductores para que ganen menos dinero” al alentar a los clientes a seguir usando el mismo equipo más tiempo, agregó Ding.

Sin embargo, incluso si es probable que más eficiencia en los chips y el consumo de energía hagan que la IA sea más barata, no reducirá el consumo total de energía.

“El consumo de energía seguirá aumentando”, predijo Ding, a pesar de todos los esfuerzos para limitarlo. “Pero tal vez no tan rápido”.

En los Estados Unidos, la energía ahora se considera clave para mantener la ventaja competitiva del país sobre China en la IA.

En enero, la startup china Deepseek dio a conocer un modelo de IA que funcionaba así como los sistemas estadounidenses a pesar de usar chips menos potentes, y por extensión, menos energía.

Los ingenieros de Deepseek lograron esto programando sus GPU con mayor precisión y omitiendo un paso de entrenamiento intensivo en energía que anteriormente se consideraba esencial.

También se teme que China sea ligas por delante de los EE. UU. En fuentes de energía disponibles, incluidas las energías renovables y la nuclear.

© 2025 AFP

Cita: los gigantes tecnológicos se apresuran a cumplir con la inminente crisis energética de AI (2025, 15 de julio) recuperado el 15 de julio de 2025 de https://techxplore.com/news/2025-07-tech-giants-scramble-ai-looming.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias