#155 Realmente el que mas uso es el que tengo en el interior, pues cuando voy a cerrar la puerta por la noche no necesito buscar las llaves... a veces estan en el coche, otras veces en una chaqueta, encima de la mesa... Y ese cajetin no me lo van a tocar. El de fuera es mas para emergencias o por si vienen visitas y yo no estoy en casa para que puedan entrar en coche. Vivo en las afueras y aqui la vivienda turistica no es un problema. Apenas hay dos o tres viviendas turisticas en la urbanizacion de mas de 200 chalets. Eso si.. tengo uno detrás y a veces dan por culo. Llamo a la policia y se acaba la fiesta. Pero no se me ocurriría sabotearle el cajetin, aunque no se lo he visto. Yo creo que vienen a abrirles. Si llevas 15 años currando, tuviste tu oportunidad hace 7-8 años. En 2018 las casas estaban a mitad de precio que ahora y había hipotecas a tipo fijo tiradas.
#109 Yo vivo en un chalet y tengo una caja de esas en la puerta. Me viene bien cuando no encuentro las llaves y necesito entrar. La calle es estrecha y detengo el trafico de los vecinos. Tengo otro en la parte interior para lo mismo. Para poder cerrar por las noches facilmente. No alquilo y te aseguro que si veo a alguien manipulando el cajetín le doy los buenos días de forma contundente.
Niños rata.. esto no es la selva. He currado 25 años como un cerdo para tener un chalet. Y si me sale de los cojones lo alquilo y me voy al piso que todavia conservo y tengo VACIO.
#183 La 2507 no la he probado. En el caso que te comento necesitaba cierto nivel razonamiento (no demasiado, pero sí algo porque con modelos instruct puros no funciona). Le echaré un ojo a la 2507.
#181 precisamente ese modelo lo he usado en un proyecto reciente (relacionado con recetas de comida) con GPU y los resultados comparados con otros LLM profesionales eran muy pobres (usamos benchmarks para investigación). En CPU no he probado, pero imagino que el número de tokens por segundo será muy bajo, del tipo 5 a 10 t/s, imposible de usar en tiempo real si quieres que el modelo razone... que es el caso de la mayoría de usos (sin razonamiento el modelo solo va a poder responder preguntas muy básicas)
#106#115#125 son los que pagan esta oleada "antiocupacion" de estos años, bueno, y los de las alarmas como aliados... Por eso confunden reiteradamente los impagos con ocupaciones y mil mierdas más.
#179 los modelos de lenguaje edge todavía son lentos y no dan buenas respuestas sin GPU. Te lo digo porque precisamente investigo en ese campo. Sin GPU no tienes un chatgpt, tienes un chatbot básico que apenas tiene ventana de contexto y que alucina casi en cada respuesta.
#161 piensa que tu has tenido que usar:
1) tus conocimientos
2) tu GPU
ambas cosas cuestan dinero. Tu se la puedes dar gratis a amigos y familiares, pero no es universalizable, hay mucha gente que no tiene amigos "que sepan" y a la vez tengan la generosidad de compartir su GPU
Sobre Qwen y Deepseek sí he leído alguna cosa, pero no tengo claro que tenga potencia para instalarlos. Con Llama hay modelos que pueden ejecutarse en local, y de ahí mi interés. Obviamente no funcionará igual que los otros, que requieren mucha más potencia para levantar el modelo, pero es normal.
#107 Muchas gracias, le echaré un vistazo al concepto, aunque de momento donde me falta gráfica es para modelos de imagen ( SD ), que no sé si tendrán algún MoE parecido, pero le echo un vistazo.
Siempre pensé que faltaba algo así, para poder extender un poco la capacidad de la GPU ( aunque obviamente no sea lo mismo, algo ayudará ).
Igualmente me quedo con la recomendación para llama, aún no la he probado, pero seguramente lo haga pronto
#80 Cierto, aunque distribuir los datos de entrenamiento es prácticamente imposible a nivel legal salvo que se usen exclusivamente datos sintéticos. Legalmente la mayoría de la información cubre el ser usada para entrenar pero no para distrubir.
#101 Por supuesto. Que esto es curso universitario. Si no tienen una buena bibliografía, y citada correctamente, se les penaliza.
Pero la IA también te da citas si se las pides.
#70 Mira los encoders. Ellos mismos reconocieron que simplifican la arquitectura de los de Google, pero que la perdida de precision es "aceptable". DeepSeek tiene un papers donde los explica y hace referencia a esto exactamente.
#94 De acuerdo en la invasión de la privacidad, me parece una barbaridad, cierto. Mi tesis es que los que quieran permanecer en las sombras, los "malos", lo harán. Y ya puedes vigilar a todo el mundo todo el tiempo, que lo conseguirán, es lo de leones y gacelas de toda la vida. Es tirar dinero a la basura y por otro lado una intromisión en la vida privada de la gran mayoría de personas que no son los "malos de la película".
#40#34 para que la adicción sea como el cuadro clínico de la cocaína y el alcohol, si necesitas que sea psicoactivo más allá de activar mecanismos de recompensa en el cerebro. Y por eso la comparación creo que es muy desafortunada.
La "adicción" al azúcar, sal, glutamato, grasa... No comparte con la adicción a la cocaína y el alcohol la generación de tolerancia ni los síndromes de abstinencia que estos tienen (sobretodo el del alcohol, que puede ser mortal). Y no sé llega a eso porque no son sustancias psicoactivas.
Por ello me parece muy desafortunada la comparación
#88 tú eres el que se quejaba de que la gráfica llegaba solo hasta 2023. Yo te actualizo con los datos entre 2023 y 2025. Que muestran que China ha aumentado sus emisiones. No sólo eso: las ha aumentado mientras que el resto del mundo industrializado las ha disminuido.