VLC y demás reproductores de video libres funcionan gracias al proyecto FFmpeg. Los desarrolladores de FFmpeg son unos cracks y merecen reconocimiento también.
#159 Hace 7-8 no ganaba una mierda: solo me daba para el alquiler, comida, etc. y no podía ahorrar nada de nada. Y sin una entrada o ciertas garantías (como una nómina y un contrato) nadie me daría ningún préstamo.
#150 Yo llevo 15 y aun no he podido permitirme comprar una vivienda nunca. Yo que tú buscaría otras formas de tener acceso rápido, por ejemplo con llave de repuesto en cada vehículo. Hasta que no se pongan las pilas para legislar (y aplicar la ley) sobre alquileres vacacionales, estos cajetines van a ser un objetivo perfecto para gente indignada, independientemente de tus comentarios en redes sociales.
#54 Yo tengo llaves de repuesto pero mucho más escondidas, y suele hacer falta llamar a algún vecino para que me abran el portal, etc. No veo razón ninguna para tener una caja como esa ahí fuera...
#55 Yo solía usar Ardour. Hay unos cuantos más ahora que aun no he probado: Non-daw (libre), Tracktion waveform (freemium), Qtracktor (libre), stargate (libre, tiene pinta de abandonado), y alguno que otro por ahí. Los dos primeros tienen bastante buena pinta. Ambos usan JACK, necesitas o ejecutar JACK o usar pipewire-jack (yo probaré con pipewire primero).
#21 Deepseek, Qwen, GLM 5, Kimi K2.5, Minimax M2.5, Step 3.5 Flash... Cada uno aportando (y publicando) innovaciones que son usadas por los demás. No están muy por detrás de EEUU en LLMs, de hecho se acercan mucho. Pero sí que están por detrás en cantidad de energía que usan, y es gran parte de muchas de las innovaciones que han desarrollado, recortando mucho la cantidad de energía que necesitan usar.
#53 Aun tengo que probar más a fondo, pero creo que la mayoría de VSTs funcionan en DAWs nativos de linux (usan wine internamente). No he mirado que compatibilidad hay con DAWs de windows.
#182 Me va a 13 t/s puramente por CPU (CUDA desactivado). Cual modelo has usado específicamente? hay unas cuantas versiones, y la 2507 de cada una es bastante mejor que la primera. Y la versión sin razonamiento es un modelo aparte (no es híbrido).
#180 Eso depende de que arquitectura. Por ejemplo un qwen3 30B A3B (que es MoE) me va razonablemente rápido sin GPU con unos 64k tokens de contexto, y es bastante más útil que uno 8B (considerado como el límite máximo útil de un modelo denso en CPU).
Han roto hasta el puto bloc de notas. Un programa que no debería haber cambiado en décadas. No puedes editar un simple archivo de texto cuando falla nosequé de copilot.
#166 Pero eso ha pasado durante mucho tiempo con los "amigos informáticos" que arreglan problemas en los PCs de amigos y familiaries. Y en cuanto a la GPU, va a dejar de ser necesaria con el tiempo. En la inmensa mayoría de PCs ya funcionan IAs libres que hacen el 80-90% de cosas para las que la gente usa chatgpt, a una velocidad usable. Solo falta saber ponerlas.
#114 Yo uso IAs de pesos abiertos que salen tiradas de precio (si uso proveedores externos) o gratis (si uso mi PC, solo gasto la electricidad que use), y la tengo montada de tal forma que la pueden usar amigos y familiares. Cuando todas las opciones gratuítas cerradas sean malas o de pago, habrá mucha gente como yo que les dará una IA decente gratis.
#66 Firefox + uBlock Origin sigue siendo insuperable, en bloqueo de publicidad y en privacidad (bueno, con algunas excepciones que están todas basadas en Firefox).
Siempre igual, y nunca funciona porque lo proponen siempre para el AÑO SIGUIENTE para lo cual no da tiempo a implementar cambios. Si lo propusieran para al menos 2 años de previsión sería mucho más factible.
#116 Cuando digo llama.cpp me refiero al software, y cuando digo llama a secas me refiero al modelo de meta. Llama.cpp puede ejecutar todos los demás que he mencionado, suponiendo que tengas suficiente RAM para el quant que vayas a usar.
#109 Llama.cpp lleva el nombre del modelo de meta, pero llama en sí no es muy allá hoy en día. Los modelos chinos como GLM, Qwen, Kimi K2 y Deepseek lo superan con creces.
Para generación de imágenes no hay MoEs. Hay uno para generación de vídeos pero es pequeño y no es para tirar cohetes.
#29 No es difícil ejecutar modelos grandes teniendo suficiente memoria DDR4, no hacen falta gráficas super caras de data center si no estás intentando proveer a mucha gente a la vez.
#54 Llama no es "abierto en todos los sentidos", pues no publican los datos de entrenamiento. Hay muy poquitos modelos que son totalmente open source, como OLMo-2 y SmolLM3. Y encima han dejado de publicar pesos abiertos (no sabemos si llama 5 será abierto). Solo empezaron porque el primer llama se filtró e hicieron como si hubiera sido a propósito para colgarse la medalla del "open source".
Pero si hablas de open source en el tema de software para entrenar los modelos y todos los detalles técnicos para conseguirlo, hay muchos LLMs chinos que lo hacen: DeepSeek ha contribuído un montón de mejoras en el campo, y también moonshot y z.ai aportando innovaciones construyendo sobre el trabajo de DeepSeek, todos ellos abaratando mucho los costes (tanto de entrenamiento como de inferencia).
De hecho han abaratado tanto los costes que hacen la burbuja aun más absurda.
#45 Fuentes, citaciones, referencias. Pídeles a tus alumnos que documenten bien de donde sale la información. Ahora es más imporante que nunca. Sin ello la gente no aprenderá a distinguir qué es verda de lo que no. Sin ello la ciencia no podrá avanzar.