Empecé en este mundillo hace 25 años y vi como casi nadie, al menos en España entendia la importancia del modelo del software y hardware libre. Todo el mundo queria dar el pelotazo, usar la herramienta mas comoda, software privativo y un largo etcetera. Lo de la impresion 3D sigue la tendencia de la tecnologia donde las grandes empresas se aprovechan del software libre, lo pervierten con la idea de open source y la gente cada vez mas ignorante asume todo.
#10 a) Cuando es un modelo de precisión reducida (cuantizado) sí se usan también los núcleos tensor para dar apoyo a los cuda, pero estos siguen llevando la mayor parte del peso. Cuando es un modelo completo sólo se usan cuda, es decir, en funcionamiento normal de un modelo normal LLM sólo usan núcleos cuda, cuando la tarjeta no da y se usa un modelo 'comprimido' los tensor apoyan a los cuda, por eso cuando se habla “en general” de si una GPU puede ejecutar un LLM, se suele hablar simplemente de si tiene CUDA y cuántos.
b) Y sí, hay modelos pequeños pero dejan mucho que desear, ya modelos medios (opensource) les cuesta llegar a lo que te da chatgpt, es como volver a hace 2 años.
c) En lo de elegir modelo te creo, el problema es el que comenté, necesitas una gpu tocha para poder ejecutar un modelo decente, +1K € (aunque con una 5070 ti 16GB de entorno a 900€ podrías empezar a experimentar)
d) En cuanto a las otras funcionalidades, las 3 primeras no entiendo para qué necesitas una IA si es algo que se puede hacer con programación normal, y en cuanto a soporte para IA chatbot es simplemente un frontal y tú tienes que enlazarlo con un modelo en la nube (nota: es imposible tener en local un asistente de chat IA moderno porque se basan en modelo LLM, y volvemos al punto de origen de todos los problemas actuales, tener una gpu con sufiente ram y núcleos cuda)
#7 tienes razón, aparentemente se usa cuando el modelo local no puede resolverlo. De todas formas es una LLM donde todos los datos están encriptados at rest:
#21 sí, depende mucho del momento. Aunque como le dije a otro comentario, mi intención era animar a los programadores más noveles. Porque no es difícil entenderlo y programarlo. Parece que escribes algo en asm y ya eres un dios.
Por último y como opinión, la balanza que comentas cambia mucho cuando hablas de asm. Ya está profundamente acoplado el lenguaje al hardware, por lo que ese poco más de crear macros es lo de menos .
#33 A ver, Nintendo y Sony, en el mundo de los videojuegos, antes sabían qué hacer con sus adquisiciones. Retro Studios, Naughty Dog, Monolith Soft, Sucker Punch funcionaron bien después de que los comprasen, pero Microsoft, Embracer Group y ahora, por lo que estoy viendo Tencent, parecen auténticas picadoras de carne que compran por comprar y después deshacen para decir que ahorraron costes a la empresa. Sony también la cagó con Bungie, pero aquello parecía una respuesta a Microsoft comprando todo lo que tenía a mano.
#1 En videojuegos casi siempre es lo mismo: llega una grande y se compra varios estudios con buena reputación, quedan a las órdenes de un CEO incompetente, empiezan a moverlos entre proyectos sin un rumbo claro, pasan los años y terminan "decepcionando" con lo que deshacen el estudio y despiden a los empleados, nadie responde por la incompetencia de los señores que decidieron adquirir un estudio sin tener demasiada idea de qué hacer con ellos.
#14 Sí que hay sitio, sí, de peques haciendo sus propias composiciones sin tener que recurrir al versionado (salvo algún cover que hacen en los directos): www.youtube.com/watch?v=vLiv_VmYjx8
#32 Y le debe a los ingenieros israelis practicamente 20 años de exitos. Si no recuerdo mal la generacion core que les salvo de hundirse salio de un rediseño de los intel pro con arquitectura p6, y una de las dos o las dosa salieron de sus centros israelis.
b) Y sí, hay modelos pequeños pero dejan mucho que desear, ya modelos medios (opensource) les cuesta llegar a lo que te da chatgpt, es como volver a hace 2 años.
c) En lo de elegir modelo te creo, el problema es el que comenté, necesitas una gpu tocha para poder ejecutar un modelo decente, +1K € (aunque con una 5070 ti 16GB de entorno a 900€ podrías empezar a experimentar)
d) En cuanto a las otras funcionalidades, las 3 primeras no entiendo para qué necesitas una IA si es algo que se puede hacer con programación normal, y en cuanto a soporte para IA chatbot es simplemente un frontal y tú tienes que enlazarlo con un modelo en la nube (nota: es imposible tener en local un asistente de chat IA moderno porque se basan en modelo LLM, y volvemos al punto de origen de todos los problemas actuales, tener una gpu con sufiente ram y núcleos cuda)
security.apple.com/blog/private-cloud-compute/
Que es lo mismo que está haciendo Proton con Lumo: lumo.proton.me/about
Por último y como opinión, la balanza que comentas cambia mucho cuando hablas de asm. Ya está profundamente acoplado el lenguaje al hardware, por lo que ese poco más de crear macros es lo de menos
Desde el 2018 ya han sacado varios discos.