#41 No hay pruebas de que haya adicción real a la sal, glutamato, grasa, etc. pero sí al azúcar. En particular la fructosa (que además se metaboliza de forma muy similar al etanol).
#21 La adicción no necesita tener un efecto psicoactivo asociado (aparte de los mecanismos de recompensa) para considerarse adicción. El azúcar produce este efecto. Especialmente la fructosa, que no tiene un efecto saciante asociado, pues en la naturaleza siempre ha venido acompañada de algo (como la fibra alimentaria) que sí que produce saciedad.
#34 Por la misma razón que se echa sal, estimula un tipo de papilas gustativas (en este caso umami en lugar de salado). El hecho de que esté presente en el sistema nervioso no significa nada.
#90 Y toda esa subida que mencionas ocurrió en 2023 y un poquito de 2024. Desde entonces ha bajado. Vale, probablemente no sea suficiente (veremos como va en el futuro), pero decir que solo ha subido ignorando el último año y pico es un poco engañoso. Y "el resto del mundo industrializado" usa muchísima industria de China, así que no estamos libres de culpa.
#87 Por qué eliges 2023? El pico de emisiones ocurrió a principios de 2024. Y no olvides que muchas de sus emisiones son causadas por nuestra demanda. La mayor parte de cacharros que usas se fabricaron allí.
#50 Esa gráfica acaba en 2023, cuando desde febrero de 2024 se ha mantenido estable, la gráfica es casi plana. Además, siendo la fábrica del mundo no solo están intentando reducir sus emisiones, también las nuestras (muchas de las cosas que compramos emitieron sus emisiones allí al fabricarse). No podemos estar pidiéndoles que dejen de emitir tanto al mismo tiempo que le estamos comprando de todo, especialmente cosas baratas que se rompen con facilidad. Ellos fabrican cosas de calidad también, pero lo barato es lo que vende y lo barato nos sale caro en realidad.
#31 Está entrenada nativamente en FP8, la confusión probablemente viene por la versión BF16 que hay en hugging face (que ocupa el doble de bits), que alguien ha hecho porque su infraestructura para entrenar usa BF16.
La diferencia entre GPU y DDR5 es bastante importante, porque el cuello de botella está en el ancho de banda de la memoria. Fíjate que he dicho que "puede funcionar" pero no a qué velocidad. Usando un Epyc dual con múltiples canales de memoria, la versión original puede ir a 6-8 tokens por segundo, mientras que un equipo más normalito con 80 GB, tirando del máximo cuantizado y un poco de SSD va a menos de 1 t/s. En ningún caso se acerca a la velocidad que va por GPU. Pero por lo menos por encima de 6 t/s es bastante soportable.
#31#38 En OpenRouter está gratis (proporcionado por azure y chutes), pero va lento por la demanda. Y de pago la he visto en unos cuantos: fireworks ai, hyperbolic, deepinfra, kluster ai, together ai... creo que todos en EEUU. En Europa acabo de ver que está nebius ai (en Finlandia) y al igual que fireworks dan 1$ gratis.
#12 la versión completa sin cuantizar solo necesita la mitad que eso. Y si lo cuantizamos mucho puede funcionar incluso con 80 gb de ram (DDR5, sin GPU).
#3 Sabemos exactamente el coste de ejecutar (porque cualquiera que sepa lo puede instalar en un servidor con suficiente VRAM), y es bastante barato para lo que es. Pero por muy barato que sea, siempre hay un límite de demanda.
#5 El modelo completo requiere un equipo bastante potente (no tanto como el que pones tú ahí, pero sí unos 6000€ por lo menos), pero lo interesante de que sea open weights no es únicamente que puedas ejecutarlo tú en teoría, sino que los pueden ejecutar otros en la práctica. O sea ya hay por lo menos 6-12 proveedores diferentes en diferentes partes del mundo que ofrecen una API de deepseek R1.
#97 Eso me estaba preguntando yo. Aunque no llegue al nivel de esos dos, Mistral es bastante decente. Y ahora han sacado un modelo pequeño de 24B (mistral 3 small) que podemos ejecutar en local y funciona sorprendentemente bien para su tamaño.
#111 El modelo completo es demasiado tocho para mi equipo, así que uso la API de algún proveedor. Por ejemplo fireworks.ai lo ofrecen, creo que dan 1$ gratis (que da para muchos mensajes) y tienen API de text completion (que hace falta para poder saltarse la censura, para eso después del prompt pon <think> y un solo salto de línea). Recomendaría usar la API a través de una GUI. Aun tengo que averiguar como tener toda la funcionalidad de la web (con el modo búsqueda, sin re-enviar el <think></think> de los mensajes anteriores cada vez para no estar consumiendo tokens y contexto, y poder ocultar el think).
Acabo de ver que está gratis en openrouter, pero sin text completion, solo la API de chat. Así que mientras no necesites preguntar ciertas cosas relacionadas con China, openrouter parece la mejor opción.
#51 No hace falta gastar tanto para ejecutar DeepSeek R1 de 671B incluso sin cuantizar (comprimir). Aquí un hilo de alguien montándose un PC por 6.000 dólares que ejecuta el modelo a 6-8 tokens por segundo. Si lo cuantizas a 4 bits en teoría va el doble de rápido y ocupa la mitad de memoria. Aunque no sea asequible para mí, es importante que sí lo sea para otros porque podemos usar el modelo sin depender de los servidores de los propietarios de los modelos, así como usar versiones modificadas, etc.
Ojo que el modelo max no es abierto, no se puede descargar ni ejecutar donde quieras como R1. Solo se puede usar a través de sus servidores. Por eso ni me he molestado en probarlo.
#26 La web oficial te da ese resultado porque no tiene más remedio, pero el modelo es abierto y yo lo he podido usar sin censura (o sea, censura tiene pero es increíblemente fácil saltártela).
www.sciencedirect.com/science/article/pii/S2161831322011073