#10:
#4 Vale. Te doy 10.0000.000 de servidores y un cd con Linux. Gestiónalos.
#1:
Interesante comentario:
Things will crash. Deal with it!
– Assume you could start with super reliable servers (MTBF of 30 years)
– Build computing system with 10 thousand of those
– Watch one fail per day
Traduzco:
Las cosas pueden fallar. Asúmelo!
- Suponiendo que puedas tener servidores super seguros (tiempo entre fallos de 30 años)
- Construye un sistema con 10.000 de estos
- Espera un fallo diario
#5:
A mi mas miedo que gestionar los servidores, ya que las aplicaciones son distribuidas y el sistema de archivos es replicado, tiene alta disponibilidad y varias fruslerias mas, es el tema de cableado, electricidad, switches, routers, ahi si que hay movida.
¿Cuantos kilometros de cables se necesitan?
¿Y Megavatios?
¿Hay switches para 1000s de bocas?
Interesante comentario:
Things will crash. Deal with it!
– Assume you could start with super reliable servers (MTBF of 30 years)
– Build computing system with 10 thousand of those
– Watch one fail per day
Traduzco:
Las cosas pueden fallar. Asúmelo!
- Suponiendo que puedas tener servidores super seguros (tiempo entre fallos de 30 años)
- Construye un sistema con 10.000 de estos
- Espera un fallo diario
A mi mas miedo que gestionar los servidores, ya que las aplicaciones son distribuidas y el sistema de archivos es replicado, tiene alta disponibilidad y varias fruslerias mas, es el tema de cableado, electricidad, switches, routers, ahi si que hay movida.
¿Cuantos kilometros de cables se necesitan?
¿Y Megavatios?
¿Hay switches para 1000s de bocas?
#5 Lo de los switches se hace poniendo en cascada varios. En lugar de 1 switch de 1000 entradas son una pirámide (por ejemplo) de switches de 16 entradas.
es increible lo que hace google con máquinas baratas
sencillamente asumen que los equipos van a fallar ya sea por temas de software, red, eléctricos, hardware o humanos
emplean un sistema de monitorización impresionante y lo más importante, automático que es capaz de corregir algunos errores, evidentemente los de hardware no pero poco les falta
ha perdido el sentido emplear megaservidores con multitud de puntos de fallo críticos, el presente son los sistemas distribuidos
Yo usaria SNMPv3 para monitorizar, poniendo servers cada 10000 equipos y estos servers de monitorizacion que a su vez de feed a un sistema central de aplicaciones de gestión que permitan gestionar los equipos en "batch".
Tres anillos para los Reyes Elfos bajo el cielo.
Siete para los Señores Enanos en palacios de piedra.
Nueve para los Hombres Mortales condenados a morir.
Uno para el Señor Oscuro, sobre el trono oscuro en la Tierra de Mordor donde se extienden las Sombras.
Un Anillos para gobernarlos a todos. Un anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas en la Tierra de Mordor donde se extienden las Sombras.
Imagino que monitorizaran en cascada, por cada bloque de ip's equipos redundantes de testeo actuando como nodos maestros de configuracion y balanceadores, a su vez y por encima de estos otros equipos que hacen lo mismo hasta que al final en una sala de control el operario de la fabrica de obleas de ptinto con el palillo en la boca controlando las lucecicas.
Comentarios
Interesante comentario:
Things will crash. Deal with it!
– Assume you could start with super reliable servers (MTBF of 30 years)
– Build computing system with 10 thousand of those
– Watch one fail per day
Traduzco:
Las cosas pueden fallar. Asúmelo!
- Suponiendo que puedas tener servidores super seguros (tiempo entre fallos de 30 años)
- Construye un sistema con 10.000 de estos
- Espera un fallo diario
A mi mas miedo que gestionar los servidores, ya que las aplicaciones son distribuidas y el sistema de archivos es replicado, tiene alta disponibilidad y varias fruslerias mas, es el tema de cableado, electricidad, switches, routers, ahi si que hay movida.
¿Cuantos kilometros de cables se necesitan?
¿Y Megavatios?
¿Hay switches para 1000s de bocas?
#5 ¿Y el calor? Menudo asadero.
#6 ¿Y el porno?
#5 Lo de los switches se hace poniendo en cascada varios. En lugar de 1 switch de 1000 entradas son una pirámide (por ejemplo) de switches de 16 entradas.
#15 Para los servidores usan RedHat y para los ordenadores de los desarrolladores usan una versión modificada de Ubuntu.
#17 Gracias por la info, no tenía ni idea
es increible lo que hace google con máquinas baratas
sencillamente asumen que los equipos van a fallar ya sea por temas de software, red, eléctricos, hardware o humanos
emplean un sistema de monitorización impresionante y lo más importante, automático que es capaz de corregir algunos errores, evidentemente los de hardware no pero poco les falta
ha perdido el sentido emplear megaservidores con multitud de puntos de fallo críticos, el presente son los sistemas distribuidos
No me lo digas, lo van a llamar Skynet...
Apocalipsis, viene de epoca de lipsis que en elfico significa el dia que google creará algo tan gordo que nos matará a todos.
He dicho.
Yo usaria SNMPv3 para monitorizar, poniendo servers cada 10000 equipos y estos servers de monitorizacion que a su vez de feed a un sistema central de aplicaciones de gestión que permitan gestionar los equipos en "batch".
solo con hacer ping a cada uno...
Tres anillos para los Reyes Elfos bajo el cielo.
Siete para los Señores Enanos en palacios de piedra.
Nueve para los Hombres Mortales condenados a morir.
Uno para el Señor Oscuro, sobre el trono oscuro en la Tierra de Mordor donde se extienden las Sombras.
Un Anillos para gobernarlos a todos. Un anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas en la Tierra de Mordor donde se extienden las Sombras.
10 Millones de Servidores para ...
Offtopic: acabo de ver Moon, ¡PELICULÓN!
Pues un servidor piensa que es una exageración
10 Millones de severs a ver quien gestiona todos esos monstruos.
#2 GNU/linux...
#4 Vale. Te doy 10.0000.000 de servidores y un cd con Linux. Gestiónalos.
Como para encender el wireshark enmedio de 10 millones de servidores. A mas de 1 y 2 le gustaria eh eh.
#10 sudo ipkg install ultravnc
Imagino que monitorizaran en cascada, por cada bloque de ip's equipos redundantes de testeo actuando como nodos maestros de configuracion y balanceadores, a su vez y por encima de estos otros equipos que hacen lo mismo hasta que al final en una sala de control el operario de la fabrica de obleas de ptinto con el palillo en la boca controlando las lucecicas.
El networking de google tiene que ser acojonante.
#11 El milagro de P.Tinto, gran película con gran moraleja.
#11 #12 Si no salta con lo del automático REVIENTA.
#10 Con red hat, suse o debian si es posible. Ahora, a eso le metes ubuntu y peta jejeje.
#10 gPXE + (C)SSH + rsync
Yo a 10 millones no he llegado pero a diario me manejo con unos 600 sin problemas hasta día de hoy.
#4 Siendo Google, sera un yo me lo guiso yo me lo como, con algun OS propio
Cuantos centros de datos hacen falta y cuando personal con coches de golf para pasearse por las instalaciones, jaja