Nuevo estudio sugiere que ChatGPT no consume tanta energía como se pensaba

Ciudad de México  

Gustavo Torres (NotiPress)

ChatGPT consume menos energía de lo previsto, según nuevo estudio

 

Un reciente estudio de Epoch AI sugiere que el consumo energético de ChatGPT es significativamente menor de lo que se suponía. Según el informe, cada consulta en la plataforma de OpenAIrequeriría aproximadamente 0,3 vatios-hora, en lugar de los 3 vatios-hora estimados previamente en estudios más antiguos. Llevada a cabo por Joshua You, analista de datos de Epoch AI, la investigación tomó como referencia al modelo GPT-4o, el predeterminado de OpenAI. En declaraciones a TechCrunch, You explicó que "el consumo de energía realmente no es un gran problema comparado con el uso de electrodomésticos normales o la calefacción o refrigeración de su casa, o conducir un automóvil".

La estimación de 3 vatios-hora por consulta, que fue ampliamente citada en debates sobre el impacto ambiental de la inteligencia artificial, se basaba en investigaciones previas que, según You, eran obsoletas. "Algunos de mis colegas notaron que la estimación más difundida de 3 vatios-hora por consulta se basaba en una investigación bastante antigua y, según algunos cálculos superficiales, parecía ser demasiado alta", afirmó.

El informe detalla que ciertas funciones avanzadas de ChatGPT, como la generación de imágenes o el procesamiento de textos extensos, pueden aumentar el consumo energético. No obstante, OpenAI siguió invirtiendo en infraestructura de centros de datos para optimizar el uso de energía y sostener el crecimiento de la IA.

A pesar de la reducción en las estimaciones actuales, el informe advierte que el consumo energético podría aumentar conforme los modelos de inteligencia artificial evolucionen. "La IA se volverá más avanzada, entrenarla probablemente requerirá mucha más energía. Esta IA futura puede usarse mucho más intensamente, manejando muchas más tareas, y tareas más complejas, que como la gente usa ChatGPT hoy", explicó You.

Un informe de Rand, citado en el estudio de Epoch AI, proyecta que, para 2030, el entrenamiento de modelos de IA de última generación podría requerir8 gigavatios (GW), el equivalente a la producción de ocho reactores nucleares. En este contexto, OpenAI desarrolló modelos optimizados para reducir el consumo de energía, como o3-mini, aunque los modelos más avanzados diseñados para razonamiento y procesamiento de información compleja podrían aumentar significativamente la demanda de computación. "Los modelos de razonamiento asumirán cada vez más tareas que los modelos más antiguos no pueden y generarán más datos para hacerlo, y ambos requerirán más centros de datos", agregó You.

Para mitigar el impacto ambiental del uso de la IA, You sugirió que los usuarios opten por modelos más pequeños y los utilicen con moderación. "Podrías intentar usar modelos de IA más pequeños como el GPT-4o-mini de OpenAI", recomendó, "y usarlos con moderación de una manera que requiera procesar o generar una tonelada de datos".

Este análisis abre la puerta a un debate sobre el uso eficiente de la inteligencia artificial, mientras las empresas del sector continúan desarrollando soluciones para reducir el consumo energético sin comprometer la capacidad de procesamiento.

 

Inteligencia ArtificialConsumo energíaEstudio

¿Te gustó el contenido?

 

 

Recibe las noticias por correo

Entérate de la economía, noticias internacionales y el impacto en los negocios. Aviso de privacidad