edición general
6 meneos
117 clics
La industria se obsesionó con entrenar modelos de IA, mientras Google preparaba su jugada maestra: chips para inferencia

La industria se obsesionó con entrenar modelos de IA, mientras Google preparaba su jugada maestra: chips para inferencia

Durante los últimos años lo verdaderamente relevante era entrenar modelos de IA para hacerlos mejores. Ahora que han madurado y el entrenamiento ya no escala de forma tan notable, lo que más importa es la inferencia: que cuando usemos chatbots de IA estos funcionen rápida y eficientemente. Google se dio cuenta de ese cambio de foco, y tiene chips precisamente preparados para ello.

| etiquetas: modelos , ia , google , chips , inferencia
Estos de Xataka aterrizan ahora, pero Google no es la única que está en ese fregao.
Hay muchos chips de IA por ahí a los que nadie prestaba atención hasta no hace tanto.

Xilinx y Altera tienen sus guerras en esto. Intel hace tiempo que va añadiendo soporte para estas cosas ( OpenVINO, por ejemplo).
Incluso he podido jugar con algun Intel Mobidius, un USB que es un poco una demo de la tecnología.

Lo que sí hay que reconocerle a Google es lo de montar esos clusters enormes que tiene.
Energéticamente un ASIC es mucho más eficiente que las GPUs, claro.
#2 Parece lógico. Al igual que las tarjetas de sonido, GPUs para gráficos 3D o chips para acelerar operaciones criptográficas, si hay alguna operación por software que se beneficie de aceleración por hardware habrá una empresa que intente sacar chips especializados. Y viendo lo que chupan las IAs de memoria y ciclos de GPU parece obvio que en un futuro más o menos cercano existirán aceleradoras de IA de todo tipo tanto en cliente como en servidor
Google me provoca más repulsión cada día que pasa. No pienso leerla, y menos de esta página

menéame