#3 ¿Estás seguro de que ha dicho eso de la gente blanca, y que no falta contexto ahí o no se ha tergiversado lo que dijo?
Porque leyendo la noticia de El Mundo, la colección de burradas que le dicen los otros es bastante más dura que decir "que paguen más impuestos los barrios de gente blanca". Y bueno, lo de los millonarios llorando a moco tendido que "el Socialismo no tiene cabida en la ciudad de Nueva York" y que "por favor que venga algún candidato centrista con más carisma porque corremos un gran peligro si gana este" es ya para partirse la polla de risa. Están aterrorizados, vamos.
No me extrañaría que la mitad de las cosas que dice este Señor estuvieran "interpretadas creativamente" por los periodistas que narran las "noticias" y la otra mitad directamente censurada, sin aparecer en los grandes medios. No me extrañaría nada, vamos.
#3 Lo que dijo Zohran Mamdani es subirle el IBI "a los barrios más ricos y blancos", que no son dos categorías sino una y la misma. Los barrios más ricos son también abrumadoramente blancos, que tampoco es una novedad. Esto procede de inercias históricas y políticas derivadas entre otras cosas del famoso "redlining".
#3 El enlace que has enviado confirma las predicciones.
Y también confirma que los derechuzos tienen problemas para interpretar titulares y que son incapaces de leer noticias, ni tan siquiera las que envían ellos.
Titular del envío: El Ártico registra su máximo anual de hielo, el más bajo en 47 años
Y en el cuerpo de la noticia: "Este nuevo mínimo histórico es otro indicador de cómo el hielo marino del Ártico ha cambiado fundamentalmente desde décadas anteriores", según Walt Meier, científico investigador principal del Nsidc. Meier añade: "Pero aún más importante que el mínimo histórico es que este año agrega otro punto de datos a la continua pérdida a largo plazo de hielo marino del Ártico en todas las estaciones".
#39 Siete apellidos... y los Torrentes.
Pero no es comparable: Hollywood es una máquina de hacer dinero, y si un producto suyo hace poco dinero, aunque haga algo, es un fracaso.
#2 Lo primero, hay que saber usarlos, si dejas la temperatura estándar (suele ser 0.8) se ponen a hiper-pensarlo todo, hay que poner la temperatura MUY baja (0.05).
Lo segundo, esos son modelos qwen y Llama destilados con R1, ese es el tamaño de la meada de cara que se ha marcado China: que se han permitido mejorar hasta otros modelos de origen chino y los modelos de los competidores norteamericanos.
Lo tercero, incluso los modelos destilados son la leche, los modelos de 14b y el de 32b (versiones destiladas de quen 2.5) a 0.05 de temperatura están a la altura de o1, que OpenAI te lo cobra a 200$ AL MES... con límites de uso!.
La única pega que se le puede sacar a los modelos destilados es que son finetunning y no se les puede dar system prompt o se vuelven locos...
#2 Porque ninguno de esos es realmente "deepseek-r1", sino "distills" (otros modelos que toman algo de deepseek-r1).
Deepseek-r1 es 671b... con lo que necesitas muchísima VRAM/RAM...
#2 Ese no es el modelo R1 sino destilaciones de LlaMa usando R1. Lo que has probado no es un modelo de razonamiento.
Y decir que DeepSeek R1 funciona en un PC es fliparse mucho. Prácticamente nadie puede ejecutar R1 y las versiones que más o menos se ejecutan en local (en un buen equipo) ya las teníamos antes.