#20 es justamente lo que Carmack lleva tiempo intentando decir y que personalmente le trauma. Antes el software se utilizaba, ahora los datacenters tienen gran capacidad de cómputo (exagerado) pero corren software para nada optimizado. Matas moscas a cañonazos.
Antiguamente tenías que hacer software enfocado en arquitecturas/hardware concreto para exprimirlo al máximo. Carmack y Romero fueron putos genios (sobretodo el primero) que cambiaron el mundo empezando en el mundo del videojuego. Si bien siempre pensamos en Wolfeinstein/Doom (raycasting), la verdadera revolución fue Quake, juego realmente 3D adelantado a su tiempo y que consiguió optimizaciones CPU/software impresionantes (algoritmo "mágico" para el cálculo de raíces inversas) y que desde mi punto de vista fue el principal objetivo en la carrera de las GPU (inicialmente con 3DFX).
Soy usuario de stackoverflow desde hace muchos años, tengo más de 10k puntos de participación, y creo que la web tenía bastantes problemas ya antes de la llegada de la IA. Preguntar allí es como ir por un campo de minas, te puede explotar en la cara si a algún pro le da por hundirte.
#1 Ni va a ser el año de Linux en el escritorio, ni el año en que se tomen medidas mundiales coordinadas contra el cambio climático. Tampoco será el año en el que se erradiquen las guerras. Ni el año en el que se eviten las hambrunas a nivel global.
Y no va a ser ese año. Y no porque falten medios para ello, sino por la acaricia y estupidez de la especie humana
"Sin embargo, expertos señalan que los cálculos de ahorro ofrecidos por 37signals no incluyen aspectos como renovación de hardware, personal extra para operaciones, costes energéticos o redundancia. Aun así, el mensaje cala: el cloud no es el único camino"
Pues yo creo que si lo han tenido en cuenta. Con el ahorro anual pueden cubrir el reemplazo de hardware. Dicen que no necesitan ampliar equipo. Yo administro sola 140 servidores, 16 switches y algunas pasarelas de comunicaciones adicionales sin demasiado esfuerzo y sin aplicar prácticamente nada de la cultura devops. Si han desarrollado una plataforma pues se puede.
En cuanto al coste de la energía seguro que también han hecho cuentas. Al final montar un cloud privado no es tan complicado ni tan caro. Lo que te da un proveedor de cloud te lo da ganando dinero por el camino. Si tu carga es lo suficientemente grande, tu producto lo desarrollas tú y desarrollas internamente para cloud lo de volver a infraestructura propia tiene sentido.
Lo que no tiene sentido son unos desarrolladores que nunca han mantenido infraestructura y son cuatro personas matadas que se pongan desde cero a montar un cloud o a mantener infraestructura propia.
#13 "la mierda de proporciones bíblicas que es este programa en cuestión".
Pero esta es tu opinión. Hay gente a la que ese contenido le gusta y le entretiene. Igual que mi opinión es que el fútbol profesional es una máquina de embrutecimiento para analfabetos funcionales y que encima jode a los chavales con las casas de apuestas. Y hay gente a la que le gusta y le entretiene.
A mi me daría más palo perder dinero, la dignidad y la vergüenza pagando el sueldo de analfabetos multimillonarios que escupen en el césped de manera asquerosa y se comportan como energúmenos cuando se supone que son ejemplos para los niños. Para los niños, joder.
Pero insisto, esa es mi opinión. Igual que tú tienes la tuya.
Antiguamente tenías que hacer software enfocado en arquitecturas/hardware concreto para exprimirlo al máximo. Carmack y Romero fueron putos genios (sobretodo el primero) que cambiaron el mundo empezando en el mundo del videojuego. Si bien siempre pensamos en Wolfeinstein/Doom (raycasting), la verdadera revolución fue Quake, juego realmente 3D adelantado a su tiempo y que consiguió optimizaciones CPU/software impresionantes (algoritmo "mágico" para el cálculo de raíces inversas) y que desde mi punto de vista fue el principal objetivo en la carrera de las GPU (inicialmente con 3DFX).
Con la reciente addición, a finales del 95, al html version 2 del "Form-based File Upload" www.rfc-editor.org/rfc/rfc1867
En esa época la mayoría de programas de gestión funcionaban sobre terminal de texto. Cosas como dbase III estaban en producción.
Y no va a ser ese año. Y no porque falten medios para ello, sino por la acaricia y estupidez de la especie humana
Pues yo creo que si lo han tenido en cuenta. Con el ahorro anual pueden cubrir el reemplazo de hardware. Dicen que no necesitan ampliar equipo. Yo administro sola 140 servidores, 16 switches y algunas pasarelas de comunicaciones adicionales sin demasiado esfuerzo y sin aplicar prácticamente nada de la cultura devops. Si han desarrollado una plataforma pues se puede.
En cuanto al coste de la energía seguro que también han hecho cuentas. Al final montar un cloud privado no es tan complicado ni tan caro. Lo que te da un proveedor de cloud te lo da ganando dinero por el camino. Si tu carga es lo suficientemente grande, tu producto lo desarrollas tú y desarrollas internamente para cloud lo de volver a infraestructura propia tiene sentido.
Lo que no tiene sentido son unos desarrolladores que nunca han mantenido infraestructura y son cuatro personas matadas que se pongan desde cero a montar un cloud o a mantener infraestructura propia.
Pero esta es tu opinión. Hay gente a la que ese contenido le gusta y le entretiene. Igual que mi opinión es que el fútbol profesional es una máquina de embrutecimiento para analfabetos funcionales y que encima jode a los chavales con las casas de apuestas. Y hay gente a la que le gusta y le entretiene.
A mi me daría más palo perder dinero, la dignidad y la vergüenza pagando el sueldo de analfabetos multimillonarios que escupen en el césped de manera asquerosa y se comportan como energúmenos cuando se supone que son ejemplos para los niños. Para los niños, joder.
Pero insisto, esa es mi opinión. Igual que tú tienes la tuya.