Hace 18 años | Por --7211-- a es.theinquirer.net
Publicado hace 18 años por --7211-- a es.theinquirer.net

Según sus propias previsiones, Intel dispondrá de procesadores con 32 núcleos en 2010, así que los actuales micros dual-core parecen casi una broma frente a los que estarán disponibles en apenas 4 años.

Comentarios

jotape

wolverine, cuando necesite un rss de theinquirer me lo miraré yo solito

Sergio_Alvare

Ni siquiera se han logrado exprimir 2 núcleos y ya quieren más... se habla de la dificultad de programar para las nuevas consolas con un puñado de cores, así que a saber cómo se arreglan con 32. Pero lo dicho, que en dos años y medio pueden pasar muchas cosas.

D

Blah, de aquí al 2010 aún queda mucho y vete tu a saber si no se decantarán por otra cosa. Hace apenas 3 o 4 años decían que en el 2010 tendrían procesadores por encima de los 10Ghz. Aún no pensaban ni en varios núcleos...

D

#3: "para aplicaciones gráficas, no se le saca provecho"

No lo dirás en serio. Todo lo que maneje gráficos/imágenes es perfectamente paralelizable (salvo contadas excepciones)... pero ni siquiera hay que buscar tanto: ahora mismo, con un escritorio normalito, tengo 173 tareas en memoria. No me molestaría tener una CPU con 256 núcleos

Por cierto, que con tantos núcleos, no importará que "unos pocos" salgan defectuosos.

a

#3 durante muchos años se ha estado potenciando el rendimiento de un solo nucleo, pero la tecnologia del silicio tiene unos limites fisicos insalvables. Y sí, como dice #6, las aplicaciones gráficas son de las que mas rendimiento pueden sacar de los multiples nucleos.

R

32 nucleos? Dios, hasta donde vamos a llegar! En vez de potenciar el rendimiento de un núcleo, los programadores nos vamos a volver idiotas para aprovechar el rendimiento de 32 cores!
Muy bonito para un servidor, pero para aplicaciones gráficas, no se le saca provecho

f

¿Y? Sun planea sacar en 2006 los procesadores Niágara con 8 núcleos capaces de ejecutar 32 hilos. Si son capaces de ésto en 2006, en 2010 seguramente serán capaces de mucho más.

L

Quien sabe lo que puede pasar hasta 2010 puede q se descubra tecnologia nueva y ante del 2010 tenemos algo mejor q eso:P

ktzar

Qué interesante es eso que ha dicho JarFil de que algunos pocos salgan defectuosos. Imaginad un procesador de, pongamos, 1024 núcleos con un buen software de asignación de procesos y reparto de código a ejecutar (como tener ejecutadas varias rutas de código antes de evaluar el condicional). Si algún núcleo se estropea la capacidad se reorganiza y, en la mayoría de casos no se nota la diferencia de rendimiento. ¡¡¡Un procesador vivo!!!

¿No os recuerda a aquello de los procesadores basados en estructuras biológicas que se reorganizan¿

l

Realmente interesante, que a nivel de sistema operativo se puedan descartar los componentes defectuosos. Lo que no desconozco por que con la memoria no se hace. Muchas memoria defectuosas solo lo son en un rando de direcciones limitadas. El kernel podria reservar esa zona de la memoria para que no se puedan usar aplicaciones en ella, y de ese modo no descartar todo el modulo y tirarlo a la basura.

w

#10 Saliendome del tema de la noticia realmente seria interesante una aplicacion que "bloqueara" el uso de cierto rango de memoria defectuosa.
Recuerdo que hace algunos años mi pc en el test de la bios me daba error a partir del mega 190 de memoria de 256 y los cuelges en win98 los solucione con la herramienta msconfig, que tenía una opcion de limitar el uso de la memoria a ciertos megas. Limite a 189 y todo correcto.