Hace 17 años | Por Lucian a hardgame2.com
Publicado hace 17 años por Lucian a hardgame2.com

Intel en el pasado IDF ha presentado el prototipo de lo que serán los procesadores dentro de unos 5-8 años. Evidentemente al ser un prototipo todavía le faltan muchas funcionalidades que integrarán la versión final, pero lo más impresionante pese a tomarlo un poco con alfileres, es su consumo, siendo inferior a los 100W. Para hacernos una idea de en que rangos nos movemos, decir que el modelo Core 2 Extreme QX6700 consume unos 130W y la línea normal de los Core2 Duo se situa en los 65W.

Comentarios

inmortra

primero, lo que ya se ha comentado, qué son realmente 80 nucleos ?
segundo, poner 80 nucleos deacuerdo no es nada facil. mantener la coherencia de datos en memoria/cachés no es trivial y genera pérdidas de tiempo, con lo cual disminuyes la velocidad.
tercero, se necesitaría tener una memoría muchísimo más rápida para poder almacenar todo lo que se está generando (memoria y buses) y eso es muy caro. de nada vale poder calcular millones de datos si sólo puedes almacenar uno de todos ellos

en definitiva, que bajo mi punto de vista no es una panacea

jacarepagua

#2 Te aseguro que en mi curro cuando hacemos renders para 3D se usa el 100% de todas las cpu's disponibles. Es un flujo de tarea constante que puede durar horas o días. Me consta que en otros campos también se hace uso masivo de la cpu, por no hablar de juegos.
Con esto no quiero decir, ni mucho menos, que el software esté optimizado, ni el sistema operativo tampoco.
Estoy de acuerdo con la evolución tecnológica y todo el rollo, pero en lugar de optimizar los programas lo que hacen es decir "a partir de ahora hace falta un ordenador el doble de potente" y obligarnos a todos a actualizar.

sauco82

#2 la velocidad no se puede aumentar más, así que hay que actualizar los sistemas operativos para este cambio por webs

D

Esto de los cores acabará siendo como las hojas de las maquinillas de afeitar. (ya van por 5)

Nova6K0

jariza tiene razón, por ejemplo aumentando la caché L1 y/o la L2 (Nivel 1 y Nivel 2 respectivamente).

Salu2

jacarepagua

Eso son 80 cores como los dual-core de ahora? O qué clase de cores, son... a ver si se han puesto en plan metafórico. Lo máximo que acepta un xp son 4 cpu's, es decir un dual/dual-core. También he leído por ahí que nVidia desarrolla uno con 128 cores. De qué va esta película? Ains, que poquita información.

j

#5 la velocidad y el número de cores no son las únicas alternativas para aumentar el rendimiento.

C

#1 ... un tetraprocesador no es lo mismo que uno con 4 cores, lo de soportar cpu's es tambien tarea de la placa, pero a lo que te referiras son a los threads que no los reparta correctamente y como consecuencia no se aprovecharian los 80 cores, pero yo diria que xp trabajaria "bien" en un 80 cores

jacarepagua

#10 Aquí tenemos 3 pc duales amd opteron dual-core bajo winxp pro, lo cual hacen un total de 4 cpu's por máquina. Es decir, cuando monitorizas el rendimiento ves las cuadrículas de 4 cpu's que puedes asignar de manera independiente a cada tarea.
Por lo que tengo entendido, siguiendo el mismo método, en win2003 server se puede montar un quad con dual-core, useasé 8 cpu's, pero que no utilizo por incompatibilidad con los programas.

jacarepagua

vaya ladrillo de pdf que me has hecho leer #3 lol
Está muy bien, aunque mi nivel usuario no me permita entender el tráfico de datos a ese nivel durante el render. Te agradecería que me explicases tu post.
Me estás diciendo que la mejora en tiempos de cálculo se mejora con el ancho de banda cpu-ram y no añadiendo más y más cpu's? Tendría su lógica, desde luego.
En caso afirmativo, si no es mucho pedir... cómo sugieres optimizar el cálculo de raytracing, que es el que usamos aquí, con la tecnología actual.

m

#10 Mi el Home preinstalado de mi portátil usa el dual core. Creo que las licencias van por número de CPU's no de cores.

sauco82

#8 ¿El de un PC o el de un micro?

Como dice Nova6K0 el aumento de caché es una opción, aunque llegado un momento no aporta más eficiencia, aparte de lo carísima que es su producción

d

#3 te aseguro que con el ancho de banda cpu-ram y las caches de hoy en día las mejoras de rendimiento iban a ser marginales.

El problema (sobre todo en raytracing ) es el ancho de banda y los algorítmos ya no se optimizan para cálculos sino para el uso eficiente de la jerarquía de memorias: http://www.gametools.org/archives/publications/tut4eg06.pdf , por ejemplo.

Para interesados buscar cache aware o cache oblivious algorithms en google.

j

#13 De ambos, puedes optimizar los algoritmos de caché, la velocidad de las instrucciones, las predicciones de salto...

jacarepagua

Qué sabrás tu de maquinillas de afeitar, chucknorris, si nunca has usado una lol

j

#1 Correccion.

Windows Xp Home usa 1 core
Windows Xp Profesional usa 2 cores (ya habia los HT (""virtual dual-core"") entonces)

Te lo dice un usuario habitual de linux y forzoso (por esta cuestion) de Windows Server 2003 (que si pilla mas de 2) para echar sus partidas de rigor.

t

Y de que valen los 80 nucleos.Si no se optimiza el soft ni para dos nucleos,que no se utilizan nunca al 100%.Desde luego aplicaciones ofimaticas no tendra