Vemos un sistema de código abierto compitiendo con los modelos propietarios más avanzados. La start Up china ha presentado dos modelos que igualan a GPT-5 y Gemini-3 Pro, con capacidad de razonamiento avanzado y uso autónomo de herramientas... GRATIS .
|
etiquetas: deepseek , gpt , gemini , ia , china
Google ha presentado un modelo superior usando su propio hardware con menos coste, tanto que Meta ha empezado a comprarles TPU's a Google.
OpenAI no tiene ninguna posibilidad y entonces se rompe el circulo ese de crear dinero ficticio que tienen OpenAI y NVIDIA
En estos momentos hay mercado para muchas NVIDIAs, en el futuro ya se verá pero hoy por hoy sobra mercado por todos lados.
Evidentemente estamos hablando de cosas que no se pueden predecir, pero la burbuja de la IA que yo veo no está tan relacionada con la demanda sino con la ingeniería fiscal que tienen montada para hablar de cifras de miles de millones.
Y esa burbuja está sustentada en que tanto OpenAI como NVIDIA tienen los mejores productos.
Y ahora los hay mejores y por un precio ridículamente inferior.
A NVIDIA debe preocuparle AMD, los ASIC, y lo que surja. Y DeepSeek debe preocupar a OpenAI/Microsoft, Anthropic, Meta, DeepMind/Google, etc ...
...y, por cierto, si ROCm alcanza 95% compatibilidad con PyTorch (proyectado para 2025), en HPC dejaría de tener tanta ventaja.
Y si los modelos pasan a ser mas manejables y eficientes (como deepseek), las empresas los ejecutaran "en local"
Me parece un refrito de David contra Goliat, o la ola de antiamericanismo 25.0
cc #10 #11
Igual el dinero no se esta usando para especular, si no para crear.
Ademas la intervención estatal es una ruina, no?
PD: las TPUs no valen para entrenar, son para inferir
These costs are estimated from benchmarking the actual service deployed on H800 GPUs, at a rental price of 2 USD per GPU hour. Note that for short-sequence prefilling, we specially implement a masked MHA mode to simulate DSA, which can achieve higher efficiency under short-context conditions.
No subestimemos a los EEUU en tecnología con todo su apoyo gubernamental y sociológico que tiene como país.
linuxblog.io/deepseek-local-self-host/
...otra cosa es que, para el modelo más capaz, estés dispuesto a gastar en hardware semejante pasta.
opensource.org/ai/open-weights
platform.openai.com/docs/models/gpt-oss-120b
platform.openai.com/docs/models/gpt-oss-20b
#60 Tiene varios modelos descargables. No sé si el último también.
Entiendo además que si quiren promocionarlo y si estos sistemas se perfeccionan con el uso por parte de los usuarios, tiene sentido que se quiera financiar esos costos
Lo digo porque es el que uso y ya le he preguntado.
github.com/deepseek-ai/DeepSeek-V3#6-how-to-run-locally
. Pero no solo puedes descargar su modelo de 671B de parámetros y 400GB , si no que lo puedes modificar, personalizar o visualizar para aprender o lo que quieras.
es.wikipedia.org/wiki/DeepSeek
Llevo prácticamente usándolo en local un año Al igual que Qwen de Alibaba.
Artículo del 30 de enero del 2025:
thedbadmin.com/blog/run-deepseek-locally-ollama
Un Intel i9 10940X con dos GPU Radeon 6950XT de 16GB cada uno en un Hackintosh con Anythingllm.
En julio monté mi ultimo Hackintosh con un 14700K en el que he dividido las dos GPU uno para cada máquina para ir tirando hasta que saquen un Mac Studio con M5 Ultra porque no me apetece una mierda gastarme 6000€ o 7000€ en un M3 Ultra porque Apple no quería pagar más por aumentar producción a TSMC y que en 18 meses me iban a dejar en pañales.… » ver todo el comentario
Pero si, pensaba que te hacia falta mas matraca para correr Deepseek la verdad.
Muchas grácias por la extensa respuesta y por ese enlace!
apxml.com/tools/vram-calculator
Blender 4.0 me llevó a unas pérdidas de rendimiento del 50% en render que nunca solucionaron. En Blender 4.5 quitaron ya el render en tarjetas gráficas AMD y en Blender 5.0 ya ni corre en macOS Intel y GPU AMD.
Este ejemplo se reproduce en otros campos, tarjetas NVidia mucho más asequibles mejor, incluso en otros sistemas operativos.
Todo esto y ser un vasco mal hablado me llevan a hablar de esa manera
Pero ahora puedo usar versiones un poco más grandes.
Me lo apunto, muchas gracias.
www.meneame.net/story/gobierno-belgica-prohibe-empleados-utilizar-deep
Eso para los europedos, es una derrota
Viva el regalo!!!!