Apostaría desde mi café con leche y lagañas a 3 direcciones a la vez:
Uno: por un lado la han hecho profundamente multimodal, (quizás la pata floja para competir con el ecosistema Gemini/VertexAi),
Dos: un aumento de rendimiento brutal al abandonar completamente CUDA y trabajar aún más a bajo nivel (ya lo hicieron al comienzo)
o Tres el pepinazo definitivo que acabaría con el monopolio de Nvidia: haber utilizado tarjetas locales de procesamiento (chinas) o procesadores multipropósito implementando una capa propia en la lógica que les permita implementar una especie de CUDA o algo inventado por ellos, sobre otro hardware (esto donde curro es un rumor desde hace tiempo, ya que trabajamos con Deepseek desde el comienzo y sospechosamente usa las tarjetas A6000 de una manera cantidad de 'rara' al analizar el uso de los núcleos
Respecto a como llegaron a dar el castañazo no hubo secreto: analizaron CUDA a bajo nivel, lo que les permitía trabajar directamente con los núcleos de manera más eficiente (ya lo puse hace un momento) y dos, es casi seguro que utilizaron otros modelos y así mismo para validar y reentrenar con un complejo ciclo de aprendizaje a modo de un enfrentamiento interno tipo 'convolucional' (que más o menos, ellos mismos confirmaron)
Uno: por un lado la han hecho profundamente multimodal, (quizás la pata floja para competir con el ecosistema Gemini/VertexAi),
Dos: un aumento de rendimiento brutal al abandonar completamente CUDA y trabajar aún más a bajo nivel (ya lo hicieron al comienzo)
o Tres el pepinazo definitivo que acabaría con el monopolio de Nvidia: haber utilizado tarjetas locales de procesamiento (chinas) o procesadores multipropósito implementando una capa propia en la lógica que les permita implementar una especie de CUDA o algo inventado por ellos, sobre otro hardware (esto donde curro es un rumor desde hace tiempo, ya que trabajamos con Deepseek desde el comienzo y sospechosamente usa las tarjetas A6000 de una manera cantidad de 'rara' al analizar el uso de los núcleos
Respecto a como llegaron a dar el castañazo no hubo secreto: analizaron CUDA a bajo nivel, lo que les permitía trabajar directamente con los núcleos de manera más eficiente (ya lo puse hace un momento) y dos, es casi seguro que utilizaron otros modelos y así mismo para validar y reentrenar con un complejo ciclo de aprendizaje a modo de un enfrentamiento interno tipo 'convolucional' (que más o menos, ellos mismos confirmaron)
me voy por otro cortado