Hoy AMD ha mostrado al público por primera vez AMD Fusion, una mezcla de CPU + GPU, que AMD ha dado en nombrar APU (si, APU). Y esto tiene su cosa, porque el equivalente de Intel, Larrabee está más muerto que vivo, y esto puede cambiar las tornas en la eterna lucha por la dominancia entre ambas compañías.
parecen ya de la prehistoria, y hace poco los estábamos pinchando...
#28:
Larrabee, un bicharraco superescalar basado en 24-48 cores tipo X86 simplificados con caché en anillo. Un fracaso lleno de promesas que nunca se han cumplido y un cementerio de elefantes en Intel que ha provocado la marcha de la empresa de sus mejores ingenieros. Han jugado al tirar el farol cada vez, dedicando más y más fondos. Larrabee es el equivalente a Microsoft Bob o al Duke Nukem Forever en Intel, un maldito chiste.
Ati en cambio ha cogido un micro X86 y un RV770 y lo han fusionado en un integrado. El nuevo Fusion viene a sustituir productos como la HD 5970 que ya llevaban dos GPU dando caña y decenas de miles de unidades shader. Lo que vende no es un sistema superescalar como el Larrabee, sino un SoC que puede integrarse también en notebooks y smartphones, y según ellos, puede hacerlo YA.
Intel y AMD están equivocados porque creen que la carrera la va a ganar el que haga el anuncio más rimbombante. NO. La ganará el que primero ponga el producto en las estanterías. Así que menos promesas, presentaciones, y tonterías varias, y más sacar productos creíbles al mercado, que estamos hartos de fantasmeos.
#19:
#4 mierda, te vote positivo y lo has entendido mal.
No va a sustituir a la gpu, es, como dice #8 tipo los co-procesadores matemáticos, es una nueva parte para la CPU, que tiene la estructura de la GPU PEEEEERO (y esto es importante, porque incluso en foros tipo n3d a la gente le cuesta un huevo asumirlo) NO, y repito, NO hace funciones de GPU, es solo para ayudar en calculos donde una GPU, por su estructura, es mucho más eficiente que una CPU.
#18 tu también lo has entiendo mal, ahora mismo ya existen cpu y gpu encapsulados en el mismo chip, los atom nuevos creo y algunos intel iloquesea
bueno que leches, hasta el articulo está confundido o da pie a confundirse, de hecho creo que lo compara con el intento de intel de hacer una gráfica de alto rendimiento, no lo que quiere hacer AMD. Es parecido, porque intel quería una gpu que en caso necesario fuese versatil para procesamiento, pero diferente, porque lo de AMD es independiente de la gráfica, es una parte nueva a la CPU x86 "clásica", que usa la estructura de las gpus actuales por ahorrarse camino, pero NO hace la función de gpu en ningún momento.
Yo sigo alucinando con los cacaos mentales que se monta la gente, en cuanto dices GPU ya puedes decir lo que quieras, que se ha quedado pinzado y de su idea no lo sacas.
#4:
A ver, se sabía que AMD tenía ese proyecto muy avanzado y que era su propuesta de futuro, visto que mucha gente estaba demasiado acostumbrada a Intel y ni cuando AMD era más rápido y barato terminó de volcar el mercado, por lo que se jugaban mucho en el proyecto.
Puede ser interesante por el aprovechamiento de la potencia de un PC (cuando le falte GPU que coja potencia del micro y si es al revés, pues igual, pero hay que tener en cuenta que, al estar integrado la posibilidad de cambiar un componente concreto no existe (habría que hacer cambio GPU + CPU, aumentando el coste). Aunque, se supone, deberían aguantar algo más.
De todas maneras, tengo ganas de verlo en el mercado para ver rendimientos reales.
#4 mierda, te vote positivo y lo has entendido mal.
No va a sustituir a la gpu, es, como dice #8 tipo los co-procesadores matemáticos, es una nueva parte para la CPU, que tiene la estructura de la GPU PEEEEERO (y esto es importante, porque incluso en foros tipo n3d a la gente le cuesta un huevo asumirlo) NO, y repito, NO hace funciones de GPU, es solo para ayudar en calculos donde una GPU, por su estructura, es mucho más eficiente que una CPU.
#18 tu también lo has entiendo mal, ahora mismo ya existen cpu y gpu encapsulados en el mismo chip, los atom nuevos creo y algunos intel iloquesea
bueno que leches, hasta el articulo está confundido o da pie a confundirse, de hecho creo que lo compara con el intento de intel de hacer una gráfica de alto rendimiento, no lo que quiere hacer AMD. Es parecido, porque intel quería una gpu que en caso necesario fuese versatil para procesamiento, pero diferente, porque lo de AMD es independiente de la gráfica, es una parte nueva a la CPU x86 "clásica", que usa la estructura de las gpus actuales por ahorrarse camino, pero NO hace la función de gpu en ningún momento.
Yo sigo alucinando con los cacaos mentales que se monta la gente, en cuanto dices GPU ya puedes decir lo que quieras, que se ha quedado pinzado y de su idea no lo sacas.
#19 te equivocas, AMD ya ha aclarado que la siguiente iteración de fusión (2015) solo consistirá en un procesador y sus distintas partes serán indistinguibles (me refiero a CPU+GPU), muy parecido a larrabee de intel.
#23 ya, constará solo de un procesador, y será indistinguible cpu+gpu en la APU, pero eso no quiere decir que la gpu de la apu sea la gpu principal del sistema, la que mueva los gráficos del crysis 5 o lo que se tercie.
#24 Simplificando mucho lo que dijiste en el anterior comentario, y como medio mencionaste la GPU que compone APU será equivalente al coprocesador¹ matemático de las antiguas CPU, un punto de apoyo pero mucho más avanzado en el procesamiento.
#38 Me parece importante que se tenga en cuenta que esa GPU tendrá una función equivalente a la que tenía el coprocesador¹.
#37 Las APU deberían tener buen soporte para Linux, porque sino no tirarán los ordenadores como toca, porque como entiendo digamos que la APU hará la función que hacen las actuales CPU.
AMD Ontario features up to two x86 cores based on Bobcat micro-architecture, integrated DirectX 11-class graphics core and DDR3 memory controller. The Ontario accelerated processing unit (APU) will be made using bulk 40nm process technology and will feature monolithic design.
CPU+GPU en un mismo die
SEGUNDA ITERACION DE FUSION
The first iteration of Fusion will include a CPU and GPU, but by 2015 the model could change. In the second iteration [in] 2015, you are not going to be able to tell the difference. It's all going away," said Leslie Sobon, vice president of marketing at AMD, reports IDG News agency.
CPU capaz de procesar graficos e instrucciones x86/x64
#14 Realmente el 486sx tenía coprocesador matemático, pero desactivado (era el mismo chip que el 486) La mayor diferencia era que el SX tenía encapsulado de plástico en lugar de cerámico (más caro) y no permitía refrigeración para el coprocesador.
Larrabee, un bicharraco superescalar basado en 24-48 cores tipo X86 simplificados con caché en anillo. Un fracaso lleno de promesas que nunca se han cumplido y un cementerio de elefantes en Intel que ha provocado la marcha de la empresa de sus mejores ingenieros. Han jugado al tirar el farol cada vez, dedicando más y más fondos. Larrabee es el equivalente a Microsoft Bob o al Duke Nukem Forever en Intel, un maldito chiste.
Ati en cambio ha cogido un micro X86 y un RV770 y lo han fusionado en un integrado. El nuevo Fusion viene a sustituir productos como la HD 5970 que ya llevaban dos GPU dando caña y decenas de miles de unidades shader. Lo que vende no es un sistema superescalar como el Larrabee, sino un SoC que puede integrarse también en notebooks y smartphones, y según ellos, puede hacerlo YA.
Intel y AMD están equivocados porque creen que la carrera la va a ganar el que haga el anuncio más rimbombante. NO. La ganará el que primero ponga el producto en las estanterías. Así que menos promesas, presentaciones, y tonterías varias, y más sacar productos creíbles al mercado, que estamos hartos de fantasmeos.
A ver, se sabía que AMD tenía ese proyecto muy avanzado y que era su propuesta de futuro, visto que mucha gente estaba demasiado acostumbrada a Intel y ni cuando AMD era más rápido y barato terminó de volcar el mercado, por lo que se jugaban mucho en el proyecto.
Puede ser interesante por el aprovechamiento de la potencia de un PC (cuando le falte GPU que coja potencia del micro y si es al revés, pues igual, pero hay que tener en cuenta que, al estar integrado la posibilidad de cambiar un componente concreto no existe (habría que hacer cambio GPU + CPU, aumentando el coste). Aunque, se supone, deberían aguantar algo más.
De todas maneras, tengo ganas de verlo en el mercado para ver rendimientos reales.
#4 te recuerdo que no hace mucho habían co-procesadores matemáticos (dios! soy un abuelo cebolleta!!) junto a los cpu... y te corrijo, no habrá que cambiar cpu+gpu... puesto que solo habrá que cambiar la APU.
#7 Pero porque esos cálculos especializados dejaron de ser tan necesarios visto el crecimiento de las CPUs (en cuanto a potencia) como para mantenerlos separados. Sin embargo, los requisitos gráficos están creciendo MÁS que los de CPU incluso.
Y, sí, cambiar la APU, o sea, la pieza entera, que es más cara que cambiar un componente si únicamente uno está flojeando. Por eso digo que habría que ver los rendimientos reales y demás para ver si el aprovechamiento merece más la pena o no.
#4 "cuando le falte GPU que coja potencia del micro y si es al revés, pues igual"
Lo dudo. Más que nada porque la potencia de las GPUs va por el orden del teraflop/s o así (Nvidia GTX 480 1.35 Tflops), mientras que el rendimiento de las CPUs todavía se mide en GFLOPS/s (Core i7 965 ~100Gflops). Lo que tú planteas (cpu aprovechando potencia de la gpu) ya tiene un nombre: CUDA.
Me olvidaba, espero que todo el mundo sepa que el intel i3 tiene gráfica integrada, lo único que tiene de malo este acercamiento es que como todo el mundo sabe, la tarjeta aceleradora es bastante malilla.
La mayor diferencia que hay es que esta atrjeta es capaz de mover de manera mas o menos decente cualquier juego reciente.
Por eso mismo AMD no tiene la primicia en lanzar un procesador con gpu incorporada en la misma envoltura.
muy buena noticia. No sabia eso de la integración entre CPU y GPU. Y al verdad que tienes razón. Ahora es la oportunidad de AMD de levantarse y luchar con mucha fuerza, porque han perdido en estos años. mejor para los usuarios que haya competencia, porque mejoran los productos ademas de bajar los costos
Es algo que yo había pensado hace tiempo, ¡modesto baja que subo...!, sobre todo por el tema de la refrigeración, la posición de las gráficas dificulta mucho instalar grandes disipadores (un poco lo que pasó con los encapsulados SECC y el Slot 1), mi ati 4850 parecía un avión hasta que le cambie el disipador (otros 40 ó 50 leuros), por otra parte se acaba el problema del ancho de banda del bus isa,vesa,pci,agp,pci-e...y siempre he sido de AMD (desde el 486), ahora que está de capa caída le vendría bien algún pequeño éxito.
La principal ventaja que veo yo de tener la GPU y la CPU en el mismo sitio es que la GPU tiene una conexión directa a la ram del ordenador, sin tener que pasar por ningún lado incrementando muchisimo la latencia, ahora si quieres que tu tarjeta tenga 32mb o 2GB de Ram es tu elección, no hablemos del consumo el cual será bastante menor que tener una tarjeta integrada en la placa o dedicada.
Desde luego, si esto es así, el mundo de los portátiles va ser totalmente revolucionado. En cuanto a los sobremesas no sé si será tanta revolución, pero ya digo, en el mundo portátil ¡esto va a ser la repolla!
#35 Lo que tiene Nvidia es mejores drivers para Linux, los de ATI dejan mucho que desear. Para las últimas versiones de xorg no dan ni sporte para los chipset mas nuevos. Los que tenemos una ATI 9800 o similar nos tenemos de conformar con un driver libre que no tira ni para compiz.
Solo espero que estas APU tengan buen soporte en Linux.
No se porque me huelo que va a pasar lo mismo que cuando salieron los procesadores de 64bit de AMD, que el sistema operativo no será capaz de usarlo (a no ser, claro, que uses linux). Sobre lo de utilizar la GPU para ayudar a la CPU, hace tiempo que se hace algo parecido, y al parecer va genial para ganar potencia de cálculo. Si encima dicen que no es que vaya en el mismo bus, sino que va en el mismo socket... fff, podría ser una barbaridad (tengamos en cuenta que las GPU que hay ahora en el mercado son más rápidas que la RAM), y podría ser una gran revolución...
Desde mi punto de vista, AMD llegó a superar a Intel en un pasado, pero eso de que los micros empezaran a quemarse uno detrás de otro (el mio entre ellos) hizo que la situación volviera a cambiar, y ahora mismo existe muchísima gente que no quiere ni oír hablar de un AMD, así que les va a costar recuperar el mercado
Tengo ganas de probar esto para hacer las pruebas y conprobar, lo que se cumple de lo dicho.
Habrá que esperar a que salgan al mercado para ver si es avance o fracaso.
Hasta entonces, me iré limpiando la baba.
Que buenop que ahora AMD se póndra a la cabeza en la tecnologia domestica ya que como sabemos todos intel es algo mas que caro,
viva el software libre viva y AMD
Que míticos el 287, 387 y el 487, que mas que un coprocesador era un procesador enterito (Con el 486DX2 recuerdo que ya venia integrado, pero no recuerdo cuales eran los 486 que no lo tenian)
Para los que os interese la computacion gpu el grupo de investigacion Gavab de la universidad rey juan carlos lleva muchos años trabajando en ello y con excelentes resultados.
Comentarios
co-procesadores:
parecen ya de la prehistoria, y hace poco los estábamos pinchando...
http://4.bp.blogspot.com/_GmsNlodrJw8/Ss7JZm2lZmI/AAAAAAAAAEo/S0Aq8XgHm_Y/s320/C80287XL-a.jpg
#4 mierda, te vote positivo y lo has entendido mal.
No va a sustituir a la gpu, es, como dice #8 tipo los co-procesadores matemáticos, es una nueva parte para la CPU, que tiene la estructura de la GPU PEEEEERO (y esto es importante, porque incluso en foros tipo n3d a la gente le cuesta un huevo asumirlo) NO, y repito, NO hace funciones de GPU, es solo para ayudar en calculos donde una GPU, por su estructura, es mucho más eficiente que una CPU.
#18 tu también lo has entiendo mal, ahora mismo ya existen cpu y gpu encapsulados en el mismo chip, los atom nuevos creo y algunos intel iloquesea
#15 tu también lo has entendido mal #9 tu tb
bueno que leches, hasta el articulo está confundido o da pie a confundirse, de hecho creo que lo compara con el intento de intel de hacer una gráfica de alto rendimiento, no lo que quiere hacer AMD. Es parecido, porque intel quería una gpu que en caso necesario fuese versatil para procesamiento, pero diferente, porque lo de AMD es independiente de la gráfica, es una parte nueva a la CPU x86 "clásica", que usa la estructura de las gpus actuales por ahorrarse camino, pero NO hace la función de gpu en ningún momento.
Yo sigo alucinando con los cacaos mentales que se monta la gente, en cuanto dices GPU ya puedes decir lo que quieras, que se ha quedado pinzado y de su idea no lo sacas.
#19 te equivocas, AMD ya ha aclarado que la siguiente iteración de fusión (2015) solo consistirá en un procesador y sus distintas partes serán indistinguibles (me refiero a CPU+GPU), muy parecido a larrabee de intel.
#23 ya, constará solo de un procesador, y será indistinguible cpu+gpu en la APU, pero eso no quiere decir que la gpu de la apu sea la gpu principal del sistema, la que mueva los gráficos del crysis 5 o lo que se tercie.
#24 Simplificando mucho lo que dijiste en el anterior comentario, y como medio mencionaste la GPU que compone APU será equivalente al coprocesador¹ matemático de las antiguas CPU, un punto de apoyo pero mucho más avanzado en el procesamiento.
#38 Me parece importante que se tenga en cuenta que esa GPU tendrá una función equivalente a la que tenía el coprocesador¹.
#37 Las APU deberían tener buen soporte para Linux, porque sino no tirarán los ordenadores como toca, porque como entiendo digamos que la APU hará la función que hacen las actuales CPU.
¹ http://es.wikipedia.org/wiki/Coprocesador
#19 #27 #24
Para los que me dicen que no tengo ni idea:
GENERACION ACTUAL DE FUSION
AMD Ontario features up to two x86 cores based on Bobcat micro-architecture, integrated DirectX 11-class graphics core and DDR3 memory controller. The Ontario accelerated processing unit (APU) will be made using bulk 40nm process technology and will feature monolithic design.
CPU+GPU en un mismo die
SEGUNDA ITERACION DE FUSION
The first iteration of Fusion will include a CPU and GPU, but by 2015 the model could change. In the second iteration [in] 2015, you are not going to be able to tell the difference. It's all going away," said Leslie Sobon, vice president of marketing at AMD, reports IDG News agency.
CPU capaz de procesar graficos e instrucciones x86/x64
Fuentes:
http://www.xbitlabs.com/news/cpu/display/20100601225457_AMD_Initiates_Sampling_of_Ontario_Processors_Targets_Launch_in_First_Half_of_2011.html
http://www.xbitlabs.com/news/cpu/display/20100512150105_Second_Iteration_of_AMD_Fusion_Chips_Due_in_2015_AMD.html
Flipo con la gente que dice que todos se equivocan sin dar pruebas de ellos...
#29 lee a #19 a ver si lo entiendes, que AMD no va a sacar algo que reemplace a una GPU.
http://i236.photobucket.com/albums/ff213/geniusnetalv/apu_nahasapeemapetilon.png
lo siento, tenia que ponerlo
#11 Ese será el nombre del núcleo, ya verás!
#14 Realmente el 486sx tenía coprocesador matemático, pero desactivado (era el mismo chip que el 486) La mayor diferencia era que el SX tenía encapsulado de plástico en lugar de cerámico (más caro) y no permitía refrigeración para el coprocesador.
Nadie despues de 17 comentarios no ha escrito Nahasapeemapetilon?
(El de #11 no vale que es una imagen, la tele es casa )
Larrabee, un bicharraco superescalar basado en 24-48 cores tipo X86 simplificados con caché en anillo. Un fracaso lleno de promesas que nunca se han cumplido y un cementerio de elefantes en Intel que ha provocado la marcha de la empresa de sus mejores ingenieros. Han jugado al tirar el farol cada vez, dedicando más y más fondos. Larrabee es el equivalente a Microsoft Bob o al Duke Nukem Forever en Intel, un maldito chiste.
Ati en cambio ha cogido un micro X86 y un RV770 y lo han fusionado en un integrado. El nuevo Fusion viene a sustituir productos como la HD 5970 que ya llevaban dos GPU dando caña y decenas de miles de unidades shader. Lo que vende no es un sistema superescalar como el Larrabee, sino un SoC que puede integrarse también en notebooks y smartphones, y según ellos, puede hacerlo YA.
Intel y AMD están equivocados porque creen que la carrera la va a ganar el que haga el anuncio más rimbombante. NO. La ganará el que primero ponga el producto en las estanterías. Así que menos promesas, presentaciones, y tonterías varias, y más sacar productos creíbles al mercado, que estamos hartos de fantasmeos.
Me ha encantado lo de "APU (sí, APU)". Sólo por eso, tienes mi meneo.
#2 Está extraído del texto pero vaya, el nombre es cuanto menos curioso y por eso he visto bien el inciso sobre él.
A ver, se sabía que AMD tenía ese proyecto muy avanzado y que era su propuesta de futuro, visto que mucha gente estaba demasiado acostumbrada a Intel y ni cuando AMD era más rápido y barato terminó de volcar el mercado, por lo que se jugaban mucho en el proyecto.
Puede ser interesante por el aprovechamiento de la potencia de un PC (cuando le falte GPU que coja potencia del micro y si es al revés, pues igual, pero hay que tener en cuenta que, al estar integrado la posibilidad de cambiar un componente concreto no existe (habría que hacer cambio GPU + CPU, aumentando el coste). Aunque, se supone, deberían aguantar algo más.
De todas maneras, tengo ganas de verlo en el mercado para ver rendimientos reales.
#4 te recuerdo que no hace mucho habían co-procesadores matemáticos (dios! soy un abuelo cebolleta!!) junto a los cpu... y te corrijo, no habrá que cambiar cpu+gpu... puesto que solo habrá que cambiar la APU.
#7 Pero porque esos cálculos especializados dejaron de ser tan necesarios visto el crecimiento de las CPUs (en cuanto a potencia) como para mantenerlos separados. Sin embargo, los requisitos gráficos están creciendo MÁS que los de CPU incluso.
Y, sí, cambiar la APU, o sea, la pieza entera, que es más cara que cambiar un componente si únicamente uno está flojeando. Por eso digo que habría que ver los rendimientos reales y demás para ver si el aprovechamiento merece más la pena o no.
#9: No es que los coprocesadores matemáticos dejaran de ser necesarios, es que a partir del 486 se integraron en el procesador (excepto en el 486SX).
#4 "cuando le falte GPU que coja potencia del micro y si es al revés, pues igual"
Lo dudo. Más que nada porque la potencia de las GPUs va por el orden del teraflop/s o así (Nvidia GTX 480 1.35 Tflops), mientras que el rendimiento de las CPUs todavía se mide en GFLOPS/s (Core i7 965 ~100Gflops). Lo que tú planteas (cpu aprovechando potencia de la gpu) ya tiene un nombre: CUDA.
Pero bueno, si esto se olia desde que AMD compró ATI, hablamos del 2006!!!
Me extraña que hayan tardado tanto, realmente.
Ah vale, leyendo el títular pensaba que querían fusionarse con otra compañía para plantar cara a Intel...
Me olvidaba, espero que todo el mundo sepa que el intel i3 tiene gráfica integrada, lo único que tiene de malo este acercamiento es que como todo el mundo sabe, la tarjeta aceleradora es bastante malilla.
La mayor diferencia que hay es que esta atrjeta es capaz de mover de manera mas o menos decente cualquier juego reciente.
Por eso mismo AMD no tiene la primicia en lanzar un procesador con gpu incorporada en la misma envoltura.
#20 Enhorabuena, no has entendido nada.
#27 como?
muy buena noticia. No sabia eso de la integración entre CPU y GPU. Y al verdad que tienes razón. Ahora es la oportunidad de AMD de levantarse y luchar con mucha fuerza, porque han perdido en estos años. mejor para los usuarios que haya competencia, porque mejoran los productos ademas de bajar los costos
Es algo que yo había pensado hace tiempo, ¡modesto baja que subo...!, sobre todo por el tema de la refrigeración, la posición de las gráficas dificulta mucho instalar grandes disipadores (un poco lo que pasó con los encapsulados SECC y el Slot 1), mi ati 4850 parecía un avión hasta que le cambie el disipador (otros 40 ó 50 leuros), por otra parte se acaba el problema del ancho de banda del bus isa,vesa,pci,agp,pci-e...y siempre he sido de AMD (desde el 486), ahora que está de capa caída le vendría bien algún pequeño éxito.
La principal ventaja que veo yo de tener la GPU y la CPU en el mismo sitio es que la GPU tiene una conexión directa a la ram del ordenador, sin tener que pasar por ningún lado incrementando muchisimo la latencia, ahora si quieres que tu tarjeta tenga 32mb o 2GB de Ram es tu elección, no hablemos del consumo el cual será bastante menor que tener una tarjeta integrada en la placa o dedicada.
¿Me va en linux?
Desde luego, si esto es así, el mundo de los portátiles va ser totalmente revolucionado. En cuanto a los sobremesas no sé si será tanta revolución, pero ya digo, en el mundo portátil ¡esto va a ser la repolla!
Sigo prefiriendo mi 5870
Yo compro siempre AMD desde que los compro a piezas. Y estoy pensando pasarme a ATI también, pero es que nVIDIA tiene un no se que...
#35 Lo que tiene Nvidia es mejores drivers para Linux, los de ATI dejan mucho que desear. Para las últimas versiones de xorg no dan ni sporte para los chipset mas nuevos. Los que tenemos una ATI 9800 o similar nos tenemos de conformar con un driver libre que no tira ni para compiz.
Solo espero que estas APU tengan buen soporte en Linux.
¿AMD nos meterá un reactor de fusión en los ordenadores? Suficiente calor da el PC como para encima tener una mini central eléctrica.
No se porque me huelo que va a pasar lo mismo que cuando salieron los procesadores de 64bit de AMD, que el sistema operativo no será capaz de usarlo (a no ser, claro, que uses linux). Sobre lo de utilizar la GPU para ayudar a la CPU, hace tiempo que se hace algo parecido, y al parecer va genial para ganar potencia de cálculo. Si encima dicen que no es que vaya en el mismo bus, sino que va en el mismo socket... fff, podría ser una barbaridad (tengamos en cuenta que las GPU que hay ahora en el mercado son más rápidas que la RAM), y podría ser una gran revolución...
mientras no se caliente como un demonio... supongo que en principio se aplicara a netbooks y tablets.
Desde mi punto de vista, AMD llegó a superar a Intel en un pasado, pero eso de que los micros empezaran a quemarse uno detrás de otro (el mio entre ellos) hizo que la situación volviera a cambiar, y ahora mismo existe muchísima gente que no quiere ni oír hablar de un AMD, así que les va a costar recuperar el mercado
GOGETA!!! Fuuuuuuuuuuuuuuuuuusión!!!111
Alabados sean los APUs (http://es.wikipedia.org/wiki/Apu_(divinidad))...
Tengo ganas de probar esto para hacer las pruebas y conprobar, lo que se cumple de lo dicho.
Habrá que esperar a que salgan al mercado para ver si es avance o fracaso.
Hasta entonces, me iré limpiando la baba.
onlive.
Que buenop que ahora AMD se póndra a la cabeza en la tecnologia domestica ya que como sabemos todos intel es algo mas que caro,
viva el software libre viva y AMD
Que míticos el 287, 387 y el 487, que mas que un coprocesador era un procesador enterito (Con el 486DX2 recuerdo que ya venia integrado, pero no recuerdo cuales eran los 486 que no lo tenian)
Para los que os interese la computacion gpu el grupo de investigacion Gavab de la universidad rey juan carlos lleva muchos años trabajando en ello y con excelentes resultados.
¿Esto ahorrará costes de energía y sobrecalentamiento? Porque si juntando estas 2 cosas va a resultar que se calienta más no le veo utilidad.
A ver que es lo que sucede. .)