Hace 17 años | Por colores a xbitlabs.com
Publicado hace 17 años por colores a xbitlabs.com

El jefe de tecnología de AMD, Phil Hester, ha dado una conferencia acerca de los beneficios de integrar las GPU en las CPU (Proyecto Fusion), que permitirá alcanzar rendimientos de súperordenador según él. http://www.xbitlabs.com/news/cpu/display/20061107081152.html Visto en: http://www.noticias3d.com/noticia.asp?pag=2&idnoticia=16508

Comentarios

C

Es que el titular tiende a la confusión, pero no por culpa de Colores, sino porque la noticia original incluye la misma confusión.

De lo que se habla, es de cambiar el diseño e las CPU integrando en las mismas areas de proceso de alta velocidad para determinados trabajos "fijos" como hacen las GPU hoy en día, que tienen los procesos de mapeado, filtros y demas por hardware y en varias lineas de procesamiento paralelas.

Con todo, lo veo algo interesante en la teoria, pero mas dificil de llevar a la practica, habría que identificar que procesos son los mas habituales para "cablearlos" y aun asi eso querria decir que determinadas alternativas no serían mas rapidas. Lo veo complicado, pero es un camino que puede ser interesante.

heffeque

#2 No, se refieren a meter la GPU en el mismo chip que la CPU al igual que ahora se meten dos CPUs en un mismo chip (dual core). "The solution is to adopt a heterogeneous architecture with GPU/CPU silicon-level integration"

En el Folding@Home se consigue sacar 30x velocidad que una CPU normal y corriente: o sea se, lo que con una CPU normal se tardan 30 meses (2 años y medio) con la X1900 se saca en 1 mes. Se utiliza el método del "Streaming Computing" http://ati.amd.com/companyinfo/events/StreamComputing/index.html (el vídeo por desgracia sólo funciona para IE). Hay más aplicaciones que están haciendo lo mismo (utilizar la GPU, en vez de la CPU, para hacer cálculos con operaciones muy complejas) pero por ahora, por lo general sólo para cosas científicas, codificación h.264 y alguna cosilla más, pero tienen planes de expandir ese tema a más campos (como el de los juegos y que el motor físico vaya en una tarjeta gráfica y los gráficos en otra u otras dos, todo gracias a los múltiples PCI-E que traen y traerán las placas madres modernas). Recordad que ATi ahora es propiedad de AMD por lo que juntar CPU y GPU en un sólo silicio es una meta bastante más cercana para ellos que nunca, pero... ¿os imagináis el consumo que tendría? No me lo quiero ni imaginar

D

No es x64, si no x86-64.

HaScHi

#2 No, si ha sido culpa mia, que estaba viendo otra noticia a la vez y quería votar negativamente a la otra lol

c

Yo lo que no entiendo es lo siguiente:
Cada vez se miniaturiza más, para conseguir menor consumo = menos calor...
Por que los disipadores son cada vez mas grandes? Por que un micro consume 150w? Esta es la última tecnología? Mayor consumo para usarlo en calefacción? Que es lo que anda mal?

t

Qué casualidad, lo dicen los mismos que lo fabrican. Nada, seguro que es una coincidencia...

V

Qué brillante mente empresarial tuvo la idea de mal llamar x64 a procesadores de 64 bits?

d

Estoy deseando tener una estufita de esas, esto es lo de siempre, un cambio revolucionario para nuestro bolsillo.

ergaster

"AMD: CPU+GPU será el mayor cambio desde el x64"
Espero que sea mentira, porque yo el mayor cambio que noté con el x64 fue el no poder usar Java o Flash o no recuerdo qué carajos (porque harto de chroots y ostias me puse un SO de 32). Si este inventito ha de traer consecuencias mayores... yuyu

c

6# El comentario apunta al consumo que se podría lograr integrando CPU y GPU

c

#8 No, el comentario #7 era una aclaración de lo que quise decir en #6 aunque tu comentario es interesante.

D

NIGGA STOLE MA GEFORCE!!!

HaScHi

(mierda! he votado irrelevante por equivocación, lo siento!)