Home Tecnología Los cambios prácticos podrían reducir la demanda de energía de IA hasta...

Los cambios prácticos podrían reducir la demanda de energía de IA hasta en un 90%

10
0

Crédito: Dominio público de Pixabay/CC0

La inteligencia artificial (IA) puede hacerse más sostenible haciendo cambios prácticos, como reducir el número de decimales utilizados en modelos de IA, acortar respuestas y usar modelos de IA más pequeños, según una investigación de UCL publicada en un nuevo informe de la UNESCO.

En los últimos años, el uso de IA generativa se ha expandido rápidamente, con grandes modelos de idiomas (LLM) desarrollados por empresas como OpenAI, Meta y Google que se convierten en nombres familiares. Por ejemplo, el servicio CHATGPT de Openai, impulsado por el GPT-4 LLM, recibe alrededor de mil millones de consultas cada día.

Cada generación de LLMS se ha vuelto más sofisticada que la anterior, más capaz de realizar tareas como la generación de texto o la recuperación de conocimiento. Esto ha llevado a una vasta y creciente demanda de recursos como la electricidad y el agua, que son necesarias para ejecutar los centros de datos donde estos modelos de IA están capacitados y desplegados.

El informe, que se presentará esta semana en el Ai para una buena cumbre global En Ginebra, evalúa el impacto potencial de las soluciones existentes al problema que, si se adopta más ampliamente, podría reducir significativamente la demanda de energía y recursos de IA.

Los investigadores de la informática de UCL realizaron una serie de experimentos en el modelo LLAMA 3.1 8B de Meta para evaluar el impacto de los cambios en la forma en que los modelos de IA se configuran y se usan en la cantidad de energía que necesitan y cómo esto afecta el rendimiento. Este modelo fue elegido ya que es de código abierto y completamente modificable, lo que permite a los investigadores probar la versión no optimizada versus una gama de técnicas de optimización (que no es posible con modelos cerrados como GPT-4).

Descubrieron que al redondear los números utilizados en los cálculos internos de los modelos, acortando las instrucciones del usuario y las respuestas de IA, y el uso de modelos de IA más pequeños especializados para realizar ciertas tareas, se podría lograr una reducción de energía combinada del 90% en comparación con el uso de un modelo de IA de todo uso general.

La profesora Ivana Drobnjak, autora del informe de la informática de UCL y miembro del Presidente de la UNESCO en AI en UCL, dijo: “Nuestra investigación muestra que hay pasos relativamente simples que podemos tomar para reducir drásticamente las demandas de energía y recursos de IA generativa, sin sacrificar la precisión y sin inventar soluciones completamente nuevas.

“Aunque algunas plataformas de IA ya están explorando e implementando soluciones como las que proponemos, hay muchas otras además de los tres que vimos. La adopción al por mayor de las medidas de ahorro de energía como estándar tendría el mayor impacto”.

Redondeando para ahorrar energía

En el primer experimento, los investigadores evaluaron la precisión del modelo LLAMA 3.1 8B de Meta al realizar tareas comunes (resumir textos, traducir los idiomas y responder preguntas de conocimiento general), junto con su uso de energía, bajo diferentes condiciones.

En un proceso llamado tokenización, los LLM convierten las palabras del indicador del usuario en números (tokens), que se utilizan para realizar los cálculos involucrados en la tarea, antes de convertir los números en palabras para proporcionar una respuesta.

Al aplicar un método llamado cuantización (utilizando menos decimales para redondear los números utilizados en los cálculos), el uso de energía del modelo disminuyó hasta un 44% mientras mantiene al menos un 97% de precisión en comparación con la línea de base. Esto se debe a que es más fácil llegar a la respuesta, de la misma manera que la mayoría de las personas podrían calcular dos más dos mucho más rápidamente que calcular 2.34 más 2.17, por ejemplo.

El equipo también comparó LLAMA 3.1 8B con modelos de IA más pequeños construidos para especializarse en cada una de las tres tareas. Los modelos pequeños utilizaron 15 veces menos energía para resumir, 35 veces menos energía para la traducción y 50 veces menos energía para responder preguntas.

La precisión fue comparable al modelo más grande, con un modelo pequeño que realiza un 4% más exactamente para resumir, 2% para la traducción y 3% para la respuesta a las preguntas.

Acortamiento de preguntas y respuestas

En el segundo experimento, los investigadores evaluaron el impacto en el uso de energía de cambiar la longitud de la solicitud del usuario (instrucciones) y la respuesta del modelo (respuesta).

Calcularon el consumo de energía para 1,000 escenarios, variando la longitud del aviso del usuario y la respuesta del modelo de aproximadamente 400 palabras en inglés a 100 palabras en inglés.

La combinación más larga (respuesta rápida de 400 palabras y respuesta de 400 palabras) usó 1.03 kilo-vatio de electricidad (kWh) de electricidad, suficiente para alimentar una bombilla de 100 vatios durante 10 horas o un refrigerador-congelador durante 26 horas.

La mitad de la longitud del aviso del usuario a 200 palabras redujo el gasto de energía en un 5%, mientras que reduce a la mitad la longitud de la respuesta del modelo a 200 palabras redujo el consumo de energía en un 54%.

Evaluar el impacto del mundo real

Para evaluar el impacto global de las optimizaciones probadas, los autores le pidieron a Llama 3.1 8b que proporcionara una respuesta a una pregunta específica. Luego calcularon la energía requerida para que lo haga, multiplicada por el número diario estimado de solicitudes para este tipo de tarea por parte de los usuarios del popular servicio de IA CHATGPT4.

Estimaron que el uso de la cuantización, combinada con la reducción de la respuesta del usuario del usuario y la longitud de respuesta de IA de 300 a 150 palabras, podría reducir el consumo de energía en un 75%.

En un solo día, este ahorro sería equivalente a la cantidad de electricidad necesaria para alimentar 30,000 hogares promedio del Reino Unido (suponiendo 7.4 kilovatios por casa por día). Es importante destacar que este ahorro se lograría sin que el modelo perdiera la capacidad de abordar tareas generales más complejas.

Para las tareas repetitivas, como la traducción y el resumen, los mayores ahorros se lograron mediante el uso de modelos pequeños y especializados y una longitud de respuesta/respuesta reducida, que redujo el uso de energía en más del 90% (suficiente para alimentar 34,000 hogares del Reino Unido por un día).

Hristijan Bosilkovski, autor del informe y un graduado de MSC de UCL en ciencia de datos y aprendizaje automático, dijo: “Habrá momentos en los que tenga sentido usar un modelo de IA grande y de uso múltiple, como para tareas complejas o investigaciones y desarrollo.

“Pero las mayores ganancias en la eficiencia energética se pueden lograr cambiando de modelos grandes a modelos más pequeños y especializados en ciertas tareas, como la traducción o la recuperación de conocimiento. Es un poco como usar un martillo para conducir un clavo, en lugar de un mazo”.

Mirando hacia el futuro

Los autores del informe dicen que a medida que aumenta la competencia en los modelos de IA generativos, será más importante para las empresas racionalizar los modelos, así como usar modelos más pequeños más adecuados para ciertas tareas.

Leona Verdadero, an author of the report and a Program Specialist from UNESCO’s Digital Policies and Digital Transformation Section, said, “Too often, users rely on oversized AI models for simple tasks, it’s like using a fire hose to water a house plant. By sharing practical techniques more broadly, we can empower people to make smarter, more intentional choices. Matching the appropriate-sized model to the job isn’t just more efficient, it’s essential to making the AI Revolución tanto sostenible como accesible “.

La Dra. Maria Pérez Ortiz, autora del informe de la informática de UCL y miembro del Presidente de la UNESCO en AI en UCL, dijo: “El futuro de los modelos de IA generativos radica en eficiencia, no en exceso. Queremos resolver los desafíos con modelos más inteligentes, no necesariamente al consumir más recursos”. Las estrategias propuestas en nuestro informe no solo reducen el gasto de energía y también para mejorar la velocidad de los modelos, sino que también requieren una potencia de energía.

“Son fácilmente accesibles, y algunos ya están utilizados para este propósito por la nueva y próxima generación de modelos de IA”.

El profesor Drobnjak agregó: “Cuando hablamos sobre el futuro de la IA eficiente en recursos, a menudo uso dos metáforas. Una es una ‘colección de cerebros’, muchos modelos especializados separados que pasan mensajes de un lado a otro, lo que puede ahorrar energía pero sentirse fragmentado. La otra metáfora, y el futuro que más me entusiasma, se parece más a un solo cerebro con regiones distintas, que está bien conectada, compartiendo una memoria, pero capaz de encender solo los circuitos que necesita. Es como llevar la eficiencia de una corteza finamente ajustada a la IA generativa: más inteligente, más delgada y mucho menos hambrienta de recursos “.

Proporcionado por University College London

Cita: los cambios prácticos podrían reducir la demanda de energía de IA hasta en un 90% (2025, 9 de julio) recuperado el 10 de julio de 2025 de https://techxplore.com/news/2025-07-ai-energy-demand.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias