Hace 5 años | Por ccguy a boingboing.net
Publicado hace 5 años por ccguy a boingboing.net

En "Energy and Policy Considerations for Deep Learning in NLP", tres investigadores de informática de la UMass Amherst investigan el presupuesto de carbono de los modelos de formación de máquinas de aprendizaje para el procesamiento del lenguaje natural, y regresan con la asombrosa cifra de 35.59 kg para realizar una operación básica de formación y perfeccionamiento. Esto es aproximadamente cinco veces el presupuesto de carbono de la cuna a la tumba de un automóvil, incluyendo la fabricación.

Comentarios

D

Por supuesto, es exactamente lo mismo.

DeepBlue

Con el dato de la entradilla (36kg) los números me chirrian. El CO2 que se emite en la producción de electricidad es del orden de 0.5kg/kWh, así que para el entrenamiento me parecían pocas horas de CPU/GPU. Si para el fundido, moldeado, soldado, etc, de todos los elementos de 5 coches se utiliza menos energía que en poner unas 40 lavadoras, también me hacía sospechar...

En la primera tabla del paper (https://arxiv.org/pdf/1906.02243.pdf) tampoco queda claro, pero luego en las siguientes sí, ya que se ve que hay 2 cifras separadas con un punto, que no le queda otra que ser decimales. Así que en el dato aquí indicado falta un factor de 1000.

Así que, #0, no son 35.59 kg, sino 35592 kg de CO2