Crédito: Sanket Mishra de Pexels
No importa qué preguntas hagamos una IA, el modelo obtendrá una respuesta. Para producir esta información, independientemente de si la respuesta es correcta o no, el modelo usa tokens. Los tokens son palabras o partes de las palabras que se convierten en una cadena de números que pueden procesar el LLM.
Esta conversión, así como otros procesos de computación, produce co2 emisiones. Sin embargo, muchos usuarios desconocen la huella de carbono sustancial asociada con estas tecnologías. Ahora, los investigadores en Alemania midieron y compararon CO2 emisiones de diferentes, ya entrenados, LLM utilizando un conjunto de preguntas estandarizadas.
“El impacto ambiental de cuestionar LLM capacitado está fuertemente determinado por su enfoque de razonamiento, con procesos de razonamiento explícitos que aumentan significativamente el consumo de energía y las emisiones de carbono”, dijo el primer autor Maximilian Dauner, investigador de la Universidad de Ciencias Aplicadas Hochschule München y el primer autor de la primera autor del autor del primer autor de Fronteras en la comunicación estudiar.
“Descubrimos que los modelos habilitados para el razonamiento producían hasta 50 veces más CO2 emisiones que modelos de respuesta concisa “.
‘Pensar’ AI causa la mayoría de las emisiones
Los investigadores evaluaron 14 LLM que varían de siete a 72 mil millones de parámetros en 1,000 preguntas de referencia en diversos temas. Los parámetros determinan cómo los LLM aprenden y procesan información.
Los modelos de razonamiento, en promedio, crearon 543.5 fichas de “pensamiento” por pregunta, mientras que los modelos concisos requirieron solo 37.7 tokens por pregunta. Los tokens que piensan son tokens adicionales que el razonamiento de LLM que generan antes de producir una respuesta.
Una huella de token más alta siempre significa CO más alto2 emisiones. Sin embargo, no significa necesariamente que las respuestas resultantes sean más correctas, ya que el detalle elaborado no siempre es esencial para la corrección.
El modelo más preciso fue el modelo Cogito habilitado para el razonamiento con 70 mil millones de parámetros, alcanzando una precisión del 84.9%. El modelo producido tres veces más CO2 emisiones que modelos de tamaño similar que generaron respuestas concisas.
“Actualmente, vemos una clara compensación de la sostenibilidad de precisión inherente a las tecnologías de LLM”, dijo Dauner. “Ninguno de los modelos que mantuvieron emisiones por debajo de 500 gramos de CO2 equivalente logró una precisión superior al 80% para responder correctamente las 1,000 preguntas “.2 El equivalente es la unidad utilizada para medir el impacto climático de varios gases de efecto invernadero.
La materia también dio como resultado niveles significativamente diferentes de CO2 emisiones. Las preguntas que requirieron largos procesos de razonamiento, por ejemplo, álgebra abstracta o filosofía, llevaron a emisiones hasta seis veces más altas que más sencillas, como la historia de la escuela secundaria.
Practicando un uso reflexivo
Los investigadores dijeron que esperan que su trabajo haga que las personas tomen decisiones más informadas sobre su propio uso de IA. “Los usuarios pueden reducir significativamente las emisiones al incitar a AI a generar respuestas concisas o limitar el uso de modelos de alta capacidad a tareas que realmente requieren esa potencia”, señaló Dauner.
La elección del modelo, por ejemplo, puede marcar una diferencia significativa en CO2 emisiones. Por ejemplo, tener Deepseek R1 (70 mil millones de parámetros) Respuesta 600,000 preguntas crearía CO2 emisiones equivalentes a un vuelo de ida y vuelta desde Londres a Nueva York.
Mientras tanto, Qwen 2.5 (72 mil millones de parámetros) puede responder más de tres veces más preguntas (aproximadamente 1.9 millones) con tasas de precisión similares mientras se genera las mismas emisiones.
Los investigadores dijeron que sus resultados pueden verse afectados por la elección del hardware utilizado en el estudio, un factor de emisión que puede variar regionalmente dependiendo de las mezclas de cuadrícula de energía local y los modelos examinados. Estos factores pueden limitar la generalización de los resultados.
“Si los usuarios conocen el CO exacto2 El costo de sus salidas generadas por IA, como convertirse casualmente en una figura de acción, podrían ser más selectivos y reflexivos sobre cuándo y cómo usan estas tecnologías “, concluye Dauner.
Más información:
Costos de energía de comunicarse con IA, Fronteras en la comunicación (2025). Dos: 10.3389/fcomm.2025.1572947
Citación: Algunas indicaciones de IA podrían causar 50 veces más emisiones de Co₂ que otras, encuentran los investigadores (2025, 19 de junio) recuperados el 19 de junio de 2025 de
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.









