Hace 10 años | Por marihuanO a laopinion.es
Publicado hace 10 años por marihuanO a laopinion.es

Tenerife tiene desde ayer uno de los ordenadores más potentes del mundo y el segundo de España. Probablemente esté entre los 130 de los top 500 mundiales. Se trata del superordenador Teide-HPC, capaz de desarrollar una potencia combinada de 10.000 ordenadores convencionales que equivale a billones de operaciones por segundo. El objetivo es establecer un punto clave para el desarrollo de proyectos dentro y fuera de Canarias que precisen este tipo de tecnología.

Comentarios

marihuanO

Ha sido leer la noticia y venirme a la mente aquel capítulo de Los Simpsons en el que les colocaban el monorail.

marihuanO

Venga va, reconocedlo, os estáis midiendo las pollas, verdad?

marihuanO

Entiendo...

icegreen

#4 Estamos hablando de un HPC que entrará en el top 500, los procesos que se lanzan sobre estas maquinas no son algo de resultado inmediato, normalmente son procesos de procesamiento medio-largo. Y en cuanto a salida visual seria tema de interpretacion del ordenador cliente, es decir lanzar una simulacion de un yacimiento petrolifero la salida que te dará son datos en plano que necesitas descargar enteros, no te vale streaming y en este ejemplo van a una hoja de calculo que luego hay que interpretar

D

#5 Es que esa es solo una parte de las aplicaciones que se pueden ejecutar.

La mayoría de los supercomputadores tienen la mitad de su capacidad en desuso porque se centran en ejecutar grandes procesos que tardan semanas y utilizan miles de nodos.

Los supercomputadores que son rentables son los que están preparados para ejecutar grandes procesos que duran semanas y miles de pequeños procesos de respuesta rápida lanzados por las empresas, bancos y universidades de la zona, como pasa con el MareNostrum. Un supercomputador no es rentable ejecutando un proyecto de Repsol al año.

Ahora se lleva mucho el "CloudMonitoring", en la fabrica tienes solo la sensorica y en el supercomputador se realiza la optimización de parámetros y la predicción y para eso necesitas muy poca latencia. Y lo mismo para banca.

icegreen

#7 Efectivamente, pero estamos hablando de pocos datos, y aun asi no creo que la velocidad entre la peninsula y canarias sea un problema habiendo 3 cables submarinos conectados, aunque supongo que este proyecto solo ira por el de telefonica.

D

#8 No se, yo sé que hay bancos que construyen su propio cable de fibra óptica hasta los centros de computo para reducir la latencia. No veo que pueda ocurrir eso en canarias.

Mi impresión personal es que casi todos los supercomputadores de España se están quedando en desuso, excepto los que tienen un tejido económico-industrial muy fuerte en la zona.

icegreen

#9 En general lo que viene siendo zonas con tejido económico-industrial muy fuerte en españa cada vez hay menos....
El maremagnum por ejemplo lo utiliza Repsol, el problema es que no hay grandes empresas que los necesiten y menos desmantelando el CSIC y similares... incluso a Repsol le es mas eficiente utilizar los HPC que tiene IBM en USA ya que tambien tiene sede allí.

D

#10 Es que MareNostrum no es rentable gracias a Repsol y megacorporaciones, sino a miles de empresas de la zona.

Para lanzar un proceso de 3 meses, pues lo lanzas USA o donde sea y ahí compites con los HPC de todo el mundo, pero si quieres poca latencia y soporte nadie puede competir con el supercomputador de tu región.

D

El supercomputador será usado por la exuberante industria canaria y por la potente universidad de La Laguna.

Los clientes de la península y del resto del mundo podrán elegir entre conectarse con cable submarino de cobre al superordenador de Tenerife o conectarse a Calendula o Marenostrum como hasta ahora.

icegreen

#2 Realmente lo que importa es el analisis de datos... no la velocidad de transmision, es decir los datos a analizar solo hay que enviarlos una vez y el HPC se hace cargo de ellos, por lo que una vez cargados te da igual la conexión, como si le quieres desenchufar de la red.

Vamos que puedes enviar la informacion en discos duros por mensajeria y el informe o datos finales seran de un tamaño infinitamente menor que los datos a analizar.

No se si me equivoco pero no es el mas potente de Africa?

D

#3 Depende de las aplicaciones, si vas a minar secuencias de ADN o vas resolver un problema de optimización vale, pero si vas a simular algo que tiene una salida visual o quieres una respuesta rápida porque es backend de una aplicación de predicción de fallos industriales, detección de fraude o predicción de bolsa no te vale