Tecnología, Internet y juegos
11 meneos
281 clics
Qué es y como instalar y correr en local la IA LLM: qwen3.5

Qué es y como instalar y correr en local la IA LLM: qwen3.5

Qué es y como instalar y correr en local la IA LLM: qwen3.5. Los nuevos modelos agenticos y multimodales de alibaba.

| etiquetas: qwen , ia , alibaba
Para los que tenemos equipos viejos o de baja potencia nunca vale ninguno de estos modelos. :foreveralone:
#1 Depende que entiendas por "baja potencia", hay versiones que si sirven... ahora, la calidad no es la misma, para que nos vamos a engañar.

En el artículo figuran.
#1 Depende de que necesites de una IA, cómo dice #2 hay modelos que funcionan hasta en el móvil, también hay modelos muy pequeños especializados en tareas concretas, leer documentos, resúmenes, etc. Lo importante con los modelos pequeños es ser muy concretos el lo que le pides y darle mucho contexto, cómo si hablaras con un crio pequeño.

#3 Tengo la misma gráfica, prueba Gemma 4 26b. Obtuve resultados bastante decentes incluso en programación. También tienes Supergemma 4 26b sin censura en…   » ver todo el comentario
#5 Yo tengo una AMD 9060 con 16 Gb... ¿qué modelo iría mejor? Gemma4 26 me daba miedo, pero si dices que va bien...
#6 Me veo en la obligación de preguntar... Miedo de qué?? jejej

No la tengo ni la he probado, ojo, hablo por lo que he leído por ahí. Con 16 GB de VRAM yo probaría primero Gemma 4 26B cuantizado, no me iría de primeras al 31B porque ahí ya vas más justo.

Si tira bien, perfecto, si ves que se atraganta, baja contexto a 4K o 2K. La RAM te puede ayudar bastante descargando parte del modelo, pero la VRAM sigue mandando para que vaya fino.

Para trastear yo empezaría con LM Studio, Jan u Ollama, y probaría varios cuantizados hasta encontrar el punto entre velocidad y calidad. Al final depende del uso que quieras darle y si te importa mucho la velocidad de respuesta.
#7 Pues tienes razón... tampoco pierdo nada por ir a mayores. Que el contexto se quede muy corto.
#8 Claro, lo peor que puede pasar es que el modelo no cargue, de todos modos, por ejemplo LmStudio te avisa antes de descargar si tu hardware no lo soporte, otros simplemente fallan en la carga si te quedas sin memoria, acto seguido la memoria se descarga y aquí no ha pasado nada.
#9 Ya, es qué cuantificación poner, y que no sea demasiado lento. Y sobre todo, que se quede sin contexto.

Estoy bajando supergemma4-26 IQ3_M a ver qué tal.

Vale, estoy bajando la multimodal... lo mismo no era necesario
#10 Lo mismo no jeje Cómo digo, depende del uso que le quieras dar, las pruebas que he visto del multimodal la verdad es que son alucinantes, sobre todo con el tema del video tiene una segmentación bastante potente. Pruébala igualmente, a lo mejor te sorprende.
#1 yo estoy jugando con openclaw qwen3.5 cuantizado y sin censura, en mi 3060 12G, con la 4b va pero es bastante tonta, el tema de las tools come más vram. Mi impresión es que sin una buena tarjeta, o el uso que le quieras dar al modelo, no vale la pena
Yo amplíe de RAM el portátil para luego ver qué sin una gpu te puedes morir

menéame