Hace 17 años | Por SiCk a es.theinquirer.net
Publicado hace 17 años por SiCk a es.theinquirer.net

[C&P] "La técnica, que están llevando a cabo unos investigadores de la prestigiosa Carnegie Mellon, se basa en la búsqueda de similitudes entre archivos para aumentar las fuentes disponibles, mejorando el rendimiento de forma prodigiosa. Se llama SET (Similarity-Enhanced Transfer), y la idea es tan lógica que parece mentira que nadie lo hubiese pensado anteriormente". "La implementación de esta técnica se presentará mañana en un simposio denominado Networked Systems Desing, y puede que muy pronto se utilice a gran escala."

Comentarios

versvs

que lo enseñen que de palabras también sé yo: yo también estoy entrenando para correr 100m en 8 segundos, sólo hay que correr más rápido parece mentira que nadie lo haya hecho antes...

Penetrator

No lo entiendo. Dice la noticia que el programa es capaz de encontrar similitudes en ficheros con diferentes nombres en diferentes servidores. ¿No es lo mismo que hacen los programas P2P actuales, que calculan un hash de cada fichero para identificarlos independientemente del nombre?

SiCk

bueno, a ver si realmente funciona y lo integran en el software. Si funciona, parece que más o menos, asegura un mínimo de 30%+... que ya de por si es la ostia, imaginaros una "media" de 50%... joder!

SiCk

Este trozo de la noticia lo explica algo más #3:
Muchos de los ficheros que se descargan en la actualidad en redes P2P contienen partes exactamente idénticas a otros que tienen otros nombres y están circulando en distintos servidores. Estudiando las similitudes entre ficheros transferidos se puede combinar el número de usuarios que están descargando uno y otro para hacer que las partes iguales ganen en número de fuentes disponibles.

Tiene que ser "complicado" de implementar, y no se hasta que punto habrá o no errores...

b

Como idea es buena, tambien la del motor 100% eficiente.

t

#4 La idea creo yo que es no identificar únicamente a los ficheros, sino a sus partes. Así, si se calcula un hash de cada fragmento, se podrían utilizar partes iguales de ficheros diferentes y por tanto tener más fuentes potenciales para descargar.

Por ejemplo, dos ficheros AVI de la misma película, uno con la pista de audio en inglés y otra en español tienen un montón de información común. Por no hablar de ficheros actualmente considerados "diferentes" por apenas algunos bytes en la cabecera.

Bagu

A mí me huele a sobrecarga de conexiones buscando esos archivos diferentes pero con partes iguales entre sí, y por tanto pérdida de ancho de banda en esas búsquedas.