Estudio de Epoch AI señala menor consumo energetico de ChatGPT, pero el avance de la IA podría elevarlo
Notipress.- Un estudio reciente de Epoch AI indica que el consumo de energía de ChatGPT podría ser significativamente menor de lo que se suponía. Según el informe, la consulta promedio en la plataforma de OpenAI requeriría aproximadamente 0,3 vatios-hora, en lugar de los 3 vatios-hora estimados anteriormente.
El análisis, realizado por Joshua You, analista de datos de Epoch AI, utilizó como referencia a GPT-4o, el modelo predeterminado de OpenAI. “El consumo de energía realmente no es un gran problema comparado con el uso de electrodomésticos normales o la calefacción o refrigeración de su casa, o conducir un automóvil”, declaró You en entrevista con TechCrunch.
La estimación previa de 3 vatios-hora, ampliamente citada en debates sobre el impacto ambiental de la inteligencia artificial, habría sido calculada bajo suposiciones obsoletas. Según You, “algunos de mis colegas notaron que la estimación más difundida de 3 vatios-hora por consulta se basaba en una investigación bastante antigua y, según algunos cálculos superficiales, parecía ser demasiado alta”.
El informe señala que ciertas funciones avanzadas de ChatGPT, como la generación de imágenes y el procesamiento de textos extensos, pueden aumentar el consumo energético. OpenAI, al igual que otras empresas del sector, sigue invirtiendo en infraestructura de centros de datos para sostener el crecimiento de la IA.
You anticipó que el consumo energético de la plataforma podría incrementarse a medida que la IA se vuelva más sofisticada y realice tareas más complejas. “La IA se volverá más avanzada, entrenarla probablemente requerirá mucha más energía. Esta IA futura puede usarse mucho más intensamente, manejando muchas más tareas, y tareas más complejas, que como la gente usa ChatGPT hoy”, explicó.
Un informe de Rand citado en el estudio proyecta que, para 2030, el entrenamiento de un modelo de IA de última generación podría demandar una potencia de salida equivalente a la de ocho reactores nucleares (8 GW).
En el caso de OpenAI, lanzaron modelos optimizados para reducir el consumo energético, como o3-mini. Sin embargo, los modelos de razonamiento, diseñados para procesar información de manera más avanzada, podrían incrementar significativamente la demanda computacional. “Los modelos de razonamiento asumirán cada vez más tareas que los modelos más antiguos no pueden y generarán más datos para hacerlo, y ambos requerirán más centros de datos”, señaló You.
Para mitigar el impacto energético del uso de ChatGPT, el analista de Epoch AI sugirió que los usuarios opten por modelos de IA más pequeños y los utilicen con moderación. “Podrías intentar usar modelos de IA más pequeños como el GPT-4o-mini de OpenAI”, recomendó, “y usarlos con moderación de una manera que requiera procesar o generar una tonelada de datos”.
Espero que esta publicación sea de tu interés. Me gustaría seguir en contacto contigo. Por lo cual te dejo mis principales redes para dialogar y comentar los temas de interés para la sociedad y nosotros.