#1 Depende de que necesites de una IA, cómo dice #2 hay modelos que funcionan hasta en el móvil, también hay modelos muy pequeños especializados en tareas concretas, leer documentos, resúmenes, etc. Lo importante con los modelos pequeños es ser muy concretos el lo que le pides y darle mucho contexto, cómo si hablaras con un crio pequeño.
#3 Tengo la misma gráfica, prueba Gemma 4 26b. Obtuve resultados bastante decentes incluso en programación. También tienes Supergemma 4 26b sin censura en… » ver todo el comentario
#6 Me veo en la obligación de preguntar... Miedo de qué?? jejej
No la tengo ni la he probado, ojo, hablo por lo que he leído por ahí. Con 16 GB de VRAM yo probaría primero Gemma 4 26B cuantizado, no me iría de primeras al 31B porque ahí ya vas más justo.
Si tira bien, perfecto, si ves que se atraganta, baja contexto a 4K o 2K. La RAM te puede ayudar bastante descargando parte del modelo, pero la VRAM sigue mandando para que vaya fino.
Para trastear yo empezaría con LM Studio, Jan u Ollama, y probaría varios cuantizados hasta encontrar el punto entre velocidad y calidad. Al final depende del uso que quieras darle y si te importa mucho la velocidad de respuesta.
#8 Claro, lo peor que puede pasar es que el modelo no cargue, de todos modos, por ejemplo LmStudio te avisa antes de descargar si tu hardware no lo soporte, otros simplemente fallan en la carga si te quedas sin memoria, acto seguido la memoria se descarga y aquí no ha pasado nada.
#10 Lo mismo no jeje Cómo digo, depende del uso que le quieras dar, las pruebas que he visto del multimodal la verdad es que son alucinantes, sobre todo con el tema del video tiene una segmentación bastante potente. Pruébala igualmente, a lo mejor te sorprende.
#1 yo estoy jugando con openclaw qwen3.5 cuantizado y sin censura, en mi 3060 12G, con la 4b va pero es bastante tonta, el tema de las tools come más vram. Mi impresión es que sin una buena tarjeta, o el uso que le quieras dar al modelo, no vale la pena
En el artículo figuran.
#3 Tengo la misma gráfica, prueba Gemma 4 26b. Obtuve resultados bastante decentes incluso en programación. También tienes Supergemma 4 26b sin censura en… » ver todo el comentario
No la tengo ni la he probado, ojo, hablo por lo que he leído por ahí. Con 16 GB de VRAM yo probaría primero Gemma 4 26B cuantizado, no me iría de primeras al 31B porque ahí ya vas más justo.
Si tira bien, perfecto, si ves que se atraganta, baja contexto a 4K o 2K. La RAM te puede ayudar bastante descargando parte del modelo, pero la VRAM sigue mandando para que vaya fino.
Para trastear yo empezaría con LM Studio, Jan u Ollama, y probaría varios cuantizados hasta encontrar el punto entre velocidad y calidad. Al final depende del uso que quieras darle y si te importa mucho la velocidad de respuesta.
Estoy bajando supergemma4-26 IQ3_M a ver qué tal.
Vale, estoy bajando la multimodal... lo mismo no era necesario