Durante los últimos años lo verdaderamente relevante era entrenar modelos de IA para hacerlos mejores. Ahora que han madurado y el entrenamiento ya no escala de forma tan notable, lo que más importa es la inferencia: que cuando usemos chatbots de IA estos funcionen rápida y eficientemente. Google se dio cuenta de ese cambio de foco, y tiene chips precisamente preparados para ello.
|
etiquetas: modelos , ia , google , chips , inferencia
Hay muchos chips de IA por ahí a los que nadie prestaba atención hasta no hace tanto.
Xilinx y Altera tienen sus guerras en esto. Intel hace tiempo que va añadiendo soporte para estas cosas ( OpenVINO, por ejemplo).
Incluso he podido jugar con algun Intel Mobidius, un USB que es un poco una demo de la tecnología.
Lo que sí hay que reconocerle a Google es lo de montar esos clusters enormes que tiene.
Energéticamente un ASIC es mucho más eficiente que las GPUs, claro.