Home Tecnología El consumo de energía de globo de IA pone de relieve en...

El consumo de energía de globo de IA pone de relieve en la eficiencia del centro de datos

30
0

Crédito: dominio público Unsplash/CC0

La inteligencia artificial está creciendo rápidamente, y también lo son la cantidad de computadoras que la alimentan. Detrás de las escenas, este rápido crecimiento es ejercer una gran presión en los centros de datos que ejecutan modelos de IA. Estas instalaciones están utilizando Más energía que nunca.

Los modelos de IA se están volviendo más grandes y más complejos. Los sistemas más avanzados de hoy tienen miles de millones de parámetros, los valores numéricos derivados de los datos de capacitación y se ejecutan en miles de chips de computadora. Para mantenerse al día, las empresas han respondido agregando más hardware, más chips, más memoria y redes más potentes. Este enfoque de la fuerza bruta ha ayudado a la IA a hacer grandes saltos, pero también ha creado un nuevo desafío: los centros de datos se están convirtiendo en gigantes hambrientos de energía.

Algunas compañías tecnológicas están respondiendo buscando Los datos de energía se centran por su cuenta con combustible fósil y centrales nucleares. La demanda de energía de IA también ha estimulado los esfuerzos para hacer chips de computadora más eficientes.

Soy un ingeniero informático y un profesor en Georgia Tech quien se especializa en informática de alto rendimiento. Veo otra ruta para frenar el apetito energético de la IA: hacer que los centros de datos sean más conscientes y eficientes.

Energía y calor

Los centros modernos de datos de IA pueden usar tanta electricidad como un ciudad pequeña. Y no es solo la computación lo que come potencia. La memoria y los sistemas de enfriamiento también son los principales contribuyentes. A medida que crecen los modelos de IA, necesitan más almacenamiento y acceso más rápido a los datos, lo que genera más calor. Además, a medida que los chips se vuelven más potentes, eliminar el calor se convierte en un desafío central.

El enfriamiento no es solo un detalle técnico; Es una parte importante del proyecto de ley de energía. El enfriamiento tradicional se realiza con sistemas de aire acondicionado especializados que eliminan el calor de las rejillas de servidor. Nuevos métodos como enfriamiento de líquido están ayudando, pero también requieren una planificación cuidadosa y gestión del agua. Sin soluciones más inteligentes, los requisitos de energía y los costos de la IA podrían volverse insostenibles.

Incluso con todo este equipo avanzado, muchos centros de datos no se ejecutan de manera eficiente. Eso es porque Diferentes partes del sistema no siempre hablan el uno al otro. Por ejemplo, el software de programación podría no saber que un chip se está sobrecalentando o que una conexión de red está obstruida. Como resultado, algunos servidores se quedan inactivos, mientras que otros luchan por mantenerse al día. Esta falta de coordinación puede conducir a energía desperdiciada y recursos infrautilizados.

Un camino más inteligente a seguir

Abordar este desafío requiere repensar cómo diseñar y administrar los sistemas que admiten IA. Eso significa alejarse de la escala de fuerza bruta hacia una infraestructura más inteligente y más especializada.

Aquí hay tres ideas clave:

Variabilidad de la dirección en el hardware. No todos los chips son iguales. Incluso dentro de la misma generación, los chips varían en la rapidez con la que operan y cuánto calor pueden tolerar, lo que lleva a la heterogeneidad tanto en el rendimiento como en la eficiencia energética. Los sistemas informáticos en los centros de datos deben reconocer las diferencias entre los chips en el rendimiento, la tolerancia al calor y el uso de energía, y ajustar en consecuencia.

Adaptarse a las condiciones cambiantes. Las cargas de trabajo de IA varían con el tiempo. Por ejemplo, los puntos de acceso térmicos en los chips pueden desencadenar que los chips disminuyen la velocidad, el suministro de cuadrícula fluctuante puede limitar la potencia máxima que los centros pueden dibujar, y las explosiones de datos entre chips pueden crear congestión en la red que los conecta. Los sistemas deben estar diseñados para responder en tiempo real a cosas como la temperatura, disponibilidad de energía y tráfico de datos.

Desglose los silos. Los ingenieros que diseñan chips, software y centros de datos deben trabajar juntos. Cuando estos equipos colaboran, pueden encontrar nuevas formas de ahorrar energía y mejorar el rendimiento. Con ese fin, mis colegas, estudiantes y yo en Georgia Tech’s AI MakerspaceUn centro de datos AI de alto rendimiento está explorando estos desafíos prácticos. Estamos trabajando en todas las disciplinas, desde hardware hasta software y sistemas de energía, para construir y probar sistemas de IA que sean eficientes, escalables y sostenibles.

Escala con inteligencia

La IA tiene el potencial de transformar la ciencia, la medicina, la educación y más, pero corre el riesgo de alcanzar los límites en el rendimiento, la energía y el costo. El futuro de la IA depende no solo de los mejores modelos, sino también de una mejor infraestructura.

Para mantener a la IA creciendo de una manera que beneficie a la sociedad, creo que es importante pasar de escalar por la fuerza a escalar con inteligencia.

Proporcionado por la conversación

Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Cita: el consumo de energía de globo de IA pone de relieve en la eficiencia del centro de datos (2025, 3 de septiembre) Consultado el 3 de septiembre de 2025 de https://techxplore.com/news/2025-09-ai-ballooning-energy-consumonsuming spotlight.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias