#78 No fastidies, provincia de Toledo mi segunda patria... jajaja. ¡Qué bueno! Ese espíritu no se pierde ni en 20 ni en 40 años. Respecto a lo de contactar, tienes toda la razón, se echan de menos los MD por aquí. Si te apetece charlar más tranquilos, en mi pasatiempo (www.kernelreload.com) tienes mi correo de contacto y enlaces a distintas redes. Estaré encantado de que crucemos un par de correos. ¡Un saludo!
#73 ¡AUPA! Nada que añadir. Viniendo como vengo de áreas de marketing de producto, solo puedo quitarme el sombrero ante los que os pegáis con los hierros a diario. Tomo nota de todos tus consejos. ¡Un placer!
#70 Oye, pues me parece una idea cojonuda para un tutorial avanzado. Me lo apunto porque encajaría como evolución del artículo para pasar de la lista de herramientas a la optimización real. ¡Gracias por el aporte!
#66 Me refería, sobre todo, a lo que comentabas de gestionar todo de forma manual y artesanal ("Tengo un cliente al que le alojo todo y me paga muy bien pero es todo manual"), sin paneles de hosting. Para un cliente o dos es un lujo de seguridad y optimización amnejable, pero si te entran 50, o tienes un equipo de clones o te falta vida para gestionar configuraciones una a una. A nivel de software, con Kubernetes o Docker está claro que el límite es el hardware.
#60 Totalmente de acuerdo contigo. Las SD baratas son una bomba de relojería en recursos donde corren servicios 24/7. En mi humilde opinión recomiendo pasar el sistema a un SSD por USB en cuanto se pueda; la diferencia en fiabilidad (y velocidad) es otro mundo.
#58 Técnicamente no te falta razón: para un uso doméstico, meter un elefante (Docker) para mover una hormiga (recetas) parece una locura. Pero al final la "Guía" va para el que quiere soberanía digital sin ser sysadmin; ahí la facilidad de 'copiar y pegar' un compose le gana al ahorro de RAM. ¡Gracias por el debate sobre nodos! Esto ya se parece más a un foro técnico.
#39 Tienes razón, el titular es ambicioso, pero la idea era precisamente esa: dar el primer empujón con el listado para luego ir bajando al barro con tutoriales específicos. Me apunto lo de Podman, que sois unos cuantos los que pedís paso más allá de Docker.
#48 Piensa que esa es la forma de buscar su propio nicho, diferenciarse del resto en algún parámtro atrayendo hacia ellos a los entusiastas de su característica destacada. Es la eterna regla del posicionamiento de marcas, buscar territorios distintos donde otros aún no han llegado.
#41 No lo había pensado así, normalmente trabajo en dos pasos con la IA, primero como tú indicas, y luego para que me ayude a ordenar, digamos que le hago dos pasadas. Pero tomo nota de tu recomendación. Gracias!
#35 El eterno debate: eficiencia vs comodidad. Cierto que Docker que es un desperdicio de recursos para una app de recetas, pero personalmente me compensa con tal de no pelear con dependencias o que una actualización me rompa todo el servidor.
#33 ¡Toda la razón! De hecho es el que tengo montado ahora mismo, pero como quiero preparar un artículo específico de dashboards más adelante, andaba curioseando por si alguno usaba alternativas tipo Dashy o similares. Es fácil acomodarse y perder joyas nuevas. ¡Gracias por el aporte!
#31 ¡Cazado! Confieso que estructuro las ideas para no dejar puntos técnicos fuera, claro que me apoyo en ella (vivimos en 2026, ¿no?), pero soy yo quien está aquí dándole a la tecla y aprendiendo de las recomendaciones y las ideas que se plasman en los comentarios. Intentaré meterle más "tufillo humano" y alguna falta de Hortografía para tu tranquilidad.
¡Saludos!
#29 ¡Esa es la actitud! Si te pica el gusanillo, cualquier día de estos te verás montando tu propio servidor en un portátil viejo que tengas por casa. Avisado quedas, que esto engancha.
#25 Exacto, el "efecto comunidad" pesa mucho. Al ser Open Source, Ollama ha generado un ecosistema de integraciones brutal en tiempo récord. Al final, lo bueno de este mundillo es que tenemos herramientas de sobra para elegir según lo que necesitemos en cada momento.
Me estoy apuntando todas las alternativas que habéis puesto (Komga, Trek, NPMPlus...). El self-hosting engancha precisamente por eso, porque siempre hay una herramienta mejor a la vuelta de la esquina. ¿Alguno de por aquí usa algún 'dashboard' tipo Homer o Dashy para organizar todos estos servicios o tiráis de marcadores en el navegador?
#23 Entendible, a veces es más sano "quemarlo todo" y empezar de cero con la lección aprendida. Consejo: si vas a reinstalar, usa Docker para el Nextcloud. Permite mapear las carpetas del disco duro de forma externa muy fácil y, si la SD muere, los datos y configuración quedan a salvo en el disco. Lo de DuckDNS podría ser un tema de puertos o del CG-NAT de la operadora móvil
#22 Es cierto que LM Studio permite levantar el servidor local y la búsqueda en Hugging Face está muy bien. La clave de que Ollama arrase en "self-hosted" es que es mucho más liviano para dejarlo corriendo 24/7 en un servidor doméstico. Al ser CLI pura, consume menos recursos y es más fácil de actualizar por terminal con un comando. Digamos que LM Studio es el mejor "laboratorio" y Ollama el mejor "servidor de producción" casero.
#14 La verdad es que hay mercado ahí (proyectos como Umbrel o CasaOS van por ese camino). Mi idea con el blog es precisamente esa: ir dando a conocer lo que parece magia negra para que cualquiera con un PC viejo o una Raspberry pueda montárselo sin morir en el intento. ¡Poco a poco iremos subiendo tutoriales y guías más paso a paso! pero antes había que tomar el pulso del interés en este tipo de material preparando un artículo que englobe todas estas soluciones.
#12 No conocía Dockhand, ¡apuntado queda! Yo suelo tirar de Portainer por costumbre, pero si es ligero y facilita la gestión de contenedores habrá que echarle un ojo y quizás dedicarle un post en Kernel Reload. Gracias.
#16 La diferencia es de concepto. Ollama se usa más porque funciona como un servicio (backend) que puedes conectar a cualquier cosa: Open WebUI, plugins de VS Code o scripts propios. LM Studio es una aplicación cerrada excelente para experimentar visualmente, pero Ollama es el estándar para quien quiere integrar la IA en su flujo de trabajo diario de forma automática.