No he leído el artículo pero la imagen/meme que acompaña el envío no es correcta.
La sal en europa suele venir con algún antiaglomerante, la harina suele tener hierro y varios agentes más, el agua tiene fluor... Acabo de mirar un paquete de harina orgánica que tengo en casa y tiene 5 ingredientes añadidos. La lista de ingredientes si vamos al detalle no sería tan diferente.
#33 si se quiere se puede. Yo fui a Irán hace unos 10 años y como por las sanciones no podían usar nada de fuera tenían su propio sistema de pago con tarjeta, su propio Google con servicios similares, su propio Uber para taxis... En Rusia también tiene su versión local de todo lo que nosotros usamos de Estados Unidos. Ambos países muy lejos del poderío económico de la Unión Europea.
Como ejercicio está bien pero para una web como la que ha hecho no necesita CDNs ni la mitad de cosas que ha usado. Una web en PHP en un hosting tipo OVH ya serviría. No me ha quedado claro para qué necesita hacer llamadas a Claude.
#17 el chino tiene ventaja en la compresión de información pero no en la calidad de las respuestas porque mientras está recibiendo o generando tokens está usando el mecanismo de atención para resolver el problema. Un LLM solo cambia su estado interno cuando se procesan tokens por lo que darle más tokens aunque sea un simple "gracias" le favorece. Por no hablar que el tokenizado por ejemplo de OpenAI favorece al inglés y hay secuencias de varias palabras que mapean a un solo token. Eso no pasa con los caracteres chinos.
Y luego el reinforcement learning que usan para que sea capaz de resolver tareas es principalmente en inglés para que saque buena nota en los benchmarks. Es de sobra conocido que los LLMs en general hacen más caso a las órdenes escritas en inglés.
Eso no quita que puedas usar las LLMs en español, chino o buriato y hagan las cosas medianamente bien pero que funcionan peor que el inglés por razones puramente estadísticas es un hecho.
#9 si en ese experimento hubierais usado la API para ver la perplejidad de cada token veríais que al cambiar de idioma de repente la perplejidad subía mucho y por tanto estabais haciendo más difícil el trabajo del modelo. En un problema complejo será más proclive a alucinar cosas raras.
#10 el 90% de los textos sobre programación están en inglés así que el LLM tendrá una perplejidad mayor procesando tokens en otro idioma por pura estadística. Más perplejidad implica más probabilidad de alucinar. Se puede usar en otros idiomas pero las empresas americanas optimizan para el inglés. No estás aprovechando todo su potencial.
#4 llevamos dos o tres años años con esto de las IA y yo aún no he notado el supuesto ahorro por ninguna parte. Los servicios de suscripción, licencias, juegos, etc no han parado de subir de precio.
#21 muchos monopolios se han originado porque una empresa era mucho mejor que otras. Es algo totalmente independiente. Y que ahora sea un monopolio bueno para el usuario no quita que en un futuro pueda ir a peor. Mira por ejemplo el Google que conquistó el mundo siendo mucho mejor que Altavista, Yahoo o Terra y los claros abusos de posición dominante que han venido después.
Yo personalmente no tengo queja con Steam y poseo casi 500 juegos allí pero si la gran mayoría de las ventas de juegos en PC son en su plataforma son un monopolio.
#7 tú mismo has explicado porqué es un monopolio. Si haces un juego de PC necesitas sí o sí sacarlo en Steam o te arriesgas a no vender una mierda. Igual que si haces aplicaciones de móvil tienes que estar en iOS si quieres algo de dinero.
Yo como desarrollador encantado de que se lleven un 30% a cambio de gestionarme los cobros con tarjeta, devoluciones, cobrar el IVA de cada país y declararlo pero no quita que sean plataformas monopolísticas de facto porque si no estás en ellas no existes.
Me gustaría ver esas estadísticas pero por estrato social en vez de país de origen. Los pobres cometen más delitos que los ricos. Los inmigrantes son generalmente más pobres.
Puede que haya cierto componente cultural por el que algunas nacionalidades cometen más delitos pero estoy seguro que la correlación es mucho mayor con el estatus económico.
No sé de qué izquierda habla. Yo apoyaba al gobierno de Chávez porque objetivamente mejoró mucho la vida de los venezolanos reduciend pobreza, analfabetismo y paro. Maduro es un payaso que ha destruido las mejoras de Chávez y lo único que le ha importado es perpetuarse en el poder.
#64 que den conciertos, se busquen sponsors directos, pongan patreon o lo que sea. La publicidad algorítmica es nociva y hago todo lo posible para que no me llegue ni un anuncio ni a mí ni a mi familia.
#43 yo uso un ordenador i7 de hace 8 años creo con una GPU Intel integrada pero le metí 32gb de RAM. Ollama me funciona por CPU.
Obviamente genera texto más lento que ChatGPT pero me sirve. Para cosas rápidas uso un modelo Gemma pequeño y si quiero más calidad Deepseek y lo dejo que vaya a su ritmo. Con la interfaz Open WebUI es muy fácil ir cambiando de modelos.
#7 yo uso LLMs en local con ollama y estoy muy contento. Modelos de 4 a 16 millones de parámetros me funcionan muy bien.
Yo valoro mucho más la privacidad y poder preguntarle cosas que están censuradas en los LLMs en línea que si el modelo ha sacado un poco más de puntos en nosecual benchmark.
Si va a traducir el libro al español una máquina ¿qué me impide q mí obtener la edición en inglés más barata seguramente y traducirmelo yo con esa misma máquina? O generarme el libro entero a partir del resumen de la wikipedia.