#14 Ahí ya me pillas, porque con tools no lo he probado personalmente. Yo me refería más a uso normal: chat, resumen, código y cosas así.
Con tools sí tiene pinta de que la cosa se dispara bastante, porque entre el modelo, el contexto y la llamada a herramientas se come mucha más VRAM/RAM. Si a ti un 4B ya te deja la gráfica frita con tools, entonces igual el cuello está justo ahí.
Yo probaría bajando contexto a saco, 4K o incluso 2K, y usando cuantizados más agresivos. Pero vamos, para uso con tools seguramente ya no vale cualquier gráfica, ahí sí que se nota mucho tener VRAM de sobra.
#12 Uff, con una GT 710 y un G4400 lo tienes bastante cuesta arriba, la verdad
No creo que sea que lo estés instalando mal, es que esa gráfica ya es muy viejita y para IA local moderna se queda fuera de juego. Yo ni intentaría tirar de GPU ahí.
Como mucho probaría modelos pequeñitos por CPU, de 1B/2B/3B y con poco contexto, pero paciencia porque va a ir lento. Para Gemma 4 26B o cosas así, ese equipo no da.
Para trastear un poco vale, pero si quieres usar IA local medio en serio, tocaría actualizar algo o tirar de modelos online.
#10 Lo mismo no jeje Cómo digo, depende del uso que le quieras dar, las pruebas que he visto del multimodal la verdad es que son alucinantes, sobre todo con el tema del video tiene una segmentación bastante potente. Pruébala igualmente, a lo mejor te sorprende.
#8 Claro, lo peor que puede pasar es que el modelo no cargue, de todos modos, por ejemplo LmStudio te avisa antes de descargar si tu hardware no lo soporte, otros simplemente fallan en la carga si te quedas sin memoria, acto seguido la memoria se descarga y aquí no ha pasado nada.
#6 Me veo en la obligación de preguntar... Miedo de qué?? jejej
No la tengo ni la he probado, ojo, hablo por lo que he leído por ahí. Con 16 GB de VRAM yo probaría primero Gemma 4 26B cuantizado, no me iría de primeras al 31B porque ahí ya vas más justo.
Si tira bien, perfecto, si ves que se atraganta, baja contexto a 4K o 2K. La RAM te puede ayudar bastante descargando parte del modelo, pero la VRAM sigue mandando para que vaya fino.
Para trastear yo empezaría con LM Studio, Jan u Ollama, y probaría varios cuantizados hasta encontrar el punto entre velocidad y calidad. Al final depende del uso que quieras darle y si te importa mucho la velocidad de respuesta.
#1 Depende de que necesites de una IA, cómo dice #2 hay modelos que funcionan hasta en el móvil, también hay modelos muy pequeños especializados en tareas concretas, leer documentos, resúmenes, etc. Lo importante con los modelos pequeños es ser muy concretos el lo que le pides y darle mucho contexto, cómo si hablaras con un crio pequeño.
#3 Tengo la misma gráfica, prueba Gemma 4 26b. Obtuve resultados bastante decentes incluso en programación. También tienes Supergemma 4 26b sin censura en Huggingface, más rápido e inteligente que el modelo base. Si tienes al menos 16Gb de RAM debe de tirar hasta con 9k de ventana de contexto, si no sólo tienes que bajarlo a 4k o 2k. Uso LmStudio y Jan para las pruebas. En cuanto a la Vram, la RAM te puede ayudar bastante jeje
¿Por qué “nunca pasa nada”?
El meme "Nunca pasa nada" surgió de los rincones siempre cínicos de internet, donde los agoreros descartan irónicamente los grandes acontecimientos geopolíticos con la certeza de que nada cambiará fundamentalmente. ¿Cae Siria? Nunca pasa nada. ¿Se intensifican las amenazas nucleares? Nunca pasa nada. ¿El mundo se tambalea al borde del abismo? Nada. Nunca. Pasa.
Pero ¿y si pudiéramos cuantificar ese cinismo? ¿Y si los mercados de predicciones —donde el dinero real fluye hacia creencias genuinas sobre el futuro— pudieran decirnos cuándo tomar en serio a los agoreros?
Este índice rastrea los mercados de riesgo geopolítico de alto impacto en Polymarket , el mercado de predicciones más grande del mundo. Cuando los operadores empiezan a apostar grandes cantidades de dinero a que una guerra nuclear, invasiones territoriales o grandes conflictos son inminentes, el indicador se mueve. Cuando las probabilidades se calman, volvemos a nuestra rutina habitual de fingir que todo está bien.
Piénsalo como un índice de miedo y avaricia para quienes esperan lo peor, pero en secreto desean estar equivocados. Spoiler: suelen estarlo. Nunca pasa nada.
No me extraña. Es la dueña del tablero; la pasta de verdad la paga el que juega. Hizo lo mismo con las criptos. Como bien comenta el #6, va de burbuja en burbuja y tiro porque me toca.
#27 Hay un pequeño matiz entre conquistar y asentar.. E insisto, no le falta razón (al margen de para lo que se haya usado, la tecnología sigue siendo muy válida)
Justo hoy me ha llegado el kit a cero coste . Al parecer hay gente a la que no le funcionaba (teniendo corriente) Starlink, Josep del canal Control de misión lo explica bastante bien en este video www.youtube.com/watch?v=7juCx35_Hw4
#5 Soy un grado "leve", lo que comúnmente antes se conocía cómo Asperger pero, cómo bien apunta #2, "es absurdo seguir hablando del síndrome de Asperger a estas alturas, es pretender poner etiquetas a lo inabarcable"
En cuanto a tu pregunta, ni se me ha recetado nada ni personalmente lo necesito. En mi caso, yo he sido capaz, en cierto modo, de adaptarme a la sociedad creando mecanismos para ello por cuenta propia. Y digo en cierto modo porque las depresiones y ansiedades por no comprender nada de las relaciones sociales normales siempre han estado presentes en mi vida. Cómo curiosidad, mi psicóloga "flipaba" un poco con mi facilidad para "parecer normal" pero nada más lejos, han sido muchos años de prueba y error jeje
#3"¿Que medicación le recetan a los que tienen o son tea?"
El TEA en sí mismo no tiene un tratamiento farmacológico directo, ya que es un trastorno del neurodesarrollo con una amplia variedad de manifestaciones, aunque algunos comportamientos asociados al TEA pueden ser manejados con medicación.
Por cierto, a mí hace cosa de un mes me diagnosticaron TEA, 38 añitos tengo...
#4 No, si el motor está diseñado con correa no puedes poner una cadena así por las buenas. Hay que rediseñar parte del motor, por lo que la única solución es un cambio de motor (está solución se menciona en la noticia).
Imagina poner una correa a una bicicleta estándar, pues lo mismo
Con tools sí tiene pinta de que la cosa se dispara bastante, porque entre el modelo, el contexto y la llamada a herramientas se come mucha más VRAM/RAM. Si a ti un 4B ya te deja la gráfica frita con tools, entonces igual el cuello está justo ahí.
Yo probaría bajando contexto a saco, 4K o incluso 2K, y usando cuantizados más agresivos. Pero vamos, para uso con tools seguramente ya no vale cualquier gráfica, ahí sí que se nota mucho tener VRAM de sobra.