Tecnología, Internet y juegos
15 meneos
394 clics
IA local: gratuita, privada y sin limites que puedes ejecutar en tu ordenador

IA local: gratuita, privada y sin limites que puedes ejecutar en tu ordenador

Mientras las Big Tech siguen subiendo precios y limitando el acceso a sus modelos más potentes, algo está pasando en silencio. Los modelos open source ya no "compiten" con ChatGPT o Claude, sino que se están convirtiendo en una alternativa más óptima y eficiente, incluso para producción.

| etiquetas: ia , ia open source
12 3 0 K 113
12 3 0 K 113
Las big tech también dan IAs open source. Google con Gemma 4 por ejemplo.
#1 #5 Elmoroble problema es que si nunca te ha interesado tener un PC para edición de video o gaming, unca has necesitado una tarjeta de vídeo potente .
Mi PC, de hace 12 años, un i7 y 32GB de RAM ,mueve todos los dockers o máquinas virtuales que necesito con soltura , y solo monta una GTx de 1 GB. Ahií poca IA puedo tener local. Y con los precios que tienen las tarjetas desde hace unos años, ni me planteo comprar una
#7 me pasa igual, con el agravante que ni tarjeta dedicada tengo :foreveralone:
#7 Yo estoy corriendo modelos locales en un N100 con 16 Gb de RAM. Obviamente, sin gráfica. A eso llamo "Gama ultrabaja". No puedo meter los más grandes, pero se puede usar modelos reducidos.

#9 Correcto. También puedes sumar la VRAM de la gráfica a la del sistema. Por eso digo en una tarjeta de gama media. Tenía que haber añadido una integrada.
Yo tengo en mi home server montado ollama con varios modelos 4-16b. Tiene una GPU Intel integrada así que solo puede hacer inferencia por CPU pero bueno, tengo paciencia.

Para chat tengo Open webui que crea una interfaz tipo ChatGPT bastante decente. Si hablo en inglés funciona decentemente pero en español noto que fallan mucho. Es el mayor problema que le veo a los modelos pequeños. Ojalá algún equipo español haga un LLM local especializado.

También tengo un opencode conectado al ollama como alternativa a Claude Code pero con modelos así es totalmente inútil. 90% del tiempo es incapaz de leer un fichero y jamás he conseguido que haga una edición.
#5 No es necesario una GPU con la ostia de VRAM. AMD tiene una maravilla que permite usar ram como vram para sus gpus integradas (Creo que intel ahora tambien) en sus nuevos procesadores.

www.amd.com/en/blogs/2025/faqs-amd-variable-graphics-memory-vram-ai-mo

A poco que tengas un equipo con 32GB de RAM ya puedes ejecutar modelos de 20b sin una RTX4000.
una IA local es para trabajo de oficina Yo cada vez que pego algo de "POO" se come los tokens claudio como marichalar se beberia una botella
Puedes pasar por caja y engordarle los bolsillos a las grandes, que evidentemente han invertido miles de millones que tienen que amortizar.
La IA es un negocio si tú quieres, pero hace tiempo que uso LM Studio y pruebo modelos de LLM. Es lento porque mi PC no es el mejor, pero es decente y puedo hacer absolutamente lo que quiero con la certeza que no estoy ayudando a un grande de la informática a hacerse más grande.
Alternativa. No quiero darle dinero a los grandes pasando por caja. Vete a los…   » ver todo el comentario
IA local "gratuita" ...

... "gratuita" una vez que hayas rehipotecado tu casa para poder comprar :take: toda la RAM y todo el hardware necesario para correr dicha IA "gratuita". :wall:
#2 Sin haber leído el artículo, modelos como el 2B que ha sacado Google con Gemini 4 funcionan con gráficas con especificaciones muy moderadas (creo recordar 8GB), lo cual significa que casi cualquier ordenador medianamente moderno es capaz de moverlo bien. Obviamente no llega al nivel de los modelos mucho más grandes, pero para muchas tareas es más que suficente. Soy de la opinión que poco a poco los modelos se optimizarán más ya que ahora estamos en la fase expansiva de la tecnología y…   » ver todo el comentario
#2 Yo uso IA locales. Algunas en un ordenador de gama ultrabaja.

De la que hablan en el artículo se puede usar en una gráfica de gama media, con un procesador de hace 6 años.

menéame