Mito desmentido: La petición ChatGPT consume menos de 1 W/h

Por: Nastya Bobkova | 13.02.2025, 03:32

ChatGPT se ha convertido en una parte integral de los flujos de trabajo de muchos usuarios, pero con su popularidad también ha crecido la preocupación por el elevado consumo de energía. Sin embargo, un nuevo estudio de Epoch AI refuta estas preocupaciones.

Esto es lo que sabemos

El investigador Joshua Yu calculó que una sola pregunta a ChatGPT (basada en GPT-4o) consume alrededor de 0,3 W/h, mucho menos de lo que se suponía anteriormente. A modo de comparación, antes se pensaba que cada consulta al chatbot consumía 3 W/h, pero este cálculo se basaba en datos obsoletos y en un hardware menos eficiente.

Joshua señala que este consumo de energía es mucho menor que el de la mayoría de los electrodomésticos. Además, las empresas tecnológicas trabajan activamente para mejorar la eficiencia energética de la inteligencia artificial. Las nuevas generaciones de chips de IA no sólo son más potentes, sino que también consumen menos energía.

Sin embargo, a medida que se desarrolle la IA, el consumo de electricidad seguirá aumentando. Los modelos centrados en tareas más complejas requerirán más potencia de cálculo, y los futuros agentes de IA podrán realizar diversas tareas de nivel humano.

Se espera que los futuros agentes de IA puedan trabajar al nivel humano en diversos campos, lo que provocará un aumento del número de centros de datos y, en consecuencia, del consumo de energía.

"La IA seguirá evolucionando y su entrenamiento requerirá cada vez más recursos. En el futuro, estos sistemas trabajarán de forma mucho más intensiva, realizando tareas más complejas que ahora", concluye el científico.

Fuente: Android Headlines