Sobre Qwen y Deepseek sí he leído alguna cosa, pero no tengo claro que tenga potencia para instalarlos. Con Llama hay modelos que pueden ejecutarse en local, y de ahí mi interés. Obviamente no funcionará igual que los otros, que requieren mucha más potencia para levantar el modelo, pero es normal.
#107 Muchas gracias, le echaré un vistazo al concepto, aunque de momento donde me falta gráfica es para modelos de imagen ( SD ), que no sé si tendrán algún MoE parecido, pero le echo un vistazo.
Siempre pensé que faltaba algo así, para poder extender un poco la capacidad de la GPU ( aunque obviamente no sea lo mismo, algo ayudará ).
Igualmente me quedo con la recomendación para llama, aún no la he probado, pero seguramente lo haga pronto
#80 Cierto, aunque distribuir los datos de entrenamiento es prácticamente imposible a nivel legal salvo que se usen exclusivamente datos sintéticos. Legalmente la mayoría de la información cubre el ser usada para entrenar pero no para distrubir.
#101 Por supuesto. Que esto es curso universitario. Si no tienen una buena bibliografía, y citada correctamente, se les penaliza.
Pero la IA también te da citas si se las pides.
#70 Mira los encoders. Ellos mismos reconocieron que simplifican la arquitectura de los de Google, pero que la perdida de precision es "aceptable". DeepSeek tiene un papers donde los explica y hace referencia a esto exactamente.
#94 De acuerdo en la invasión de la privacidad, me parece una barbaridad, cierto. Mi tesis es que los que quieran permanecer en las sombras, los "malos", lo harán. Y ya puedes vigilar a todo el mundo todo el tiempo, que lo conseguirán, es lo de leones y gacelas de toda la vida. Es tirar dinero a la basura y por otro lado una intromisión en la vida privada de la gran mayoría de personas que no son los "malos de la película".
#40#34 para que la adicción sea como el cuadro clínico de la cocaína y el alcohol, si necesitas que sea psicoactivo más allá de activar mecanismos de recompensa en el cerebro. Y por eso la comparación creo que es muy desafortunada.
La "adicción" al azúcar, sal, glutamato, grasa... No comparte con la adicción a la cocaína y el alcohol la generación de tolerancia ni los síndromes de abstinencia que estos tienen (sobretodo el del alcohol, que puede ser mortal). Y no sé llega a eso porque no son sustancias psicoactivas.
Por ello me parece muy desafortunada la comparación
#88 tú eres el que se quejaba de que la gráfica llegaba solo hasta 2023. Yo te actualizo con los datos entre 2023 y 2025. Que muestran que China ha aumentado sus emisiones. No sólo eso: las ha aumentado mientras que el resto del mundo industrializado las ha disminuido.
#29 Pues yo lo que leo es que la completa necesita eso y quantizada la cuarta parte (386GB), aunque me intriga mucho la diferencia entre ejecutar una IA en GPU o en DDR5 porque si la diferencia no es "mucha" a nivel domestico entonces podría merecer la pena, o al menos ser viable, comprar cantidades ingentes de RAM ¿Se pueden combinar ambas memorias o el modelo tiene estar si o si en una sola?
Edit #50. #49. "...NVIDIA H100: Es la siguiente generación después del A100, también disponible con 80 GB de memoria (y versiones con más memoria). Ofrece aún más rendimiento gracias a la arquitectura Hopper. Si estás buscando ejecutar modelos de IA complejos o trabajar en proyectos de investigación avanzados, tanto el A100 como el H100 son opciones líderes en el mercado.
Nota: Estas tarjetas gráficas no están diseñadas para consumidores finales ni para gaming, sino para entornos profesionales y científicos donde el rendimiento y la capacidad de memoria son críticos..."
Es parte de una respuesta de la propia IA que enlaza este meneo.
#49. Tampoco podrias hacerlo, esta misma versión me respondió a esa cuestión. Para ejecutar esta versión completa de IA en tú propio PC de forma local necesitarias desempolvar entre 15.000 y 20.000 euros en hardware dedicado. Entre ese hardware se requiere al menos una tarjeta de IA de nVidia dedicada, modelo "NVIDIA A100", con 80 GB de memoria GDDR6 instalada. Y eso si te permiten comprar una de esas tarjetas para IA dedicadas. Se trata de las mismas tarjetas y procesadores de IA que supuestamente hoy ya están restringidas en el mercado chino.
No sé por qué, pero lo sospechaba...
Sobre Qwen y Deepseek sí he leído alguna cosa, pero no tengo claro que tenga potencia para instalarlos. Con Llama hay modelos que pueden ejecutarse en local, y de ahí mi interés. Obviamente no funcionará igual que los otros, que requieren mucha más potencia para levantar el modelo, pero es normal.
Gracias de nuevo por la info.