Kachinvo

Fue hace 200 años... Ole por EEUU!

A mi prácticamente me sacan de la España de los 30' en adelante y me pierdo. Y por estadística en este país tengo un alto nivel cultural, con lo que no me quiero imaginar lo que hay por ahí.

Kachinvo

#2 Realmente no van por ahí los tiros porque, como por ejemplo bien dice la noticia, puedes hacer correr software no optimizado también en las GPU's .

Yo me iría más a comparar el tamaño, consumo, TDP y, por lo tanto, temperatura, etc, etc. Si Intel se pasara por el forro todo eso también haría procesadores muchísimo más potentes.

D

#3 Yo tengo entendído que sí que va por ahi
Por lo poco que se da en la uni al respecto, las GPU's están especializadas en hacer cálculos masivamente paralelos y con pocas bifurcaciones (saltos condicionales). En algun comentario de no se donde ¿slashdot quizas? también comentaban que las GPU's vienen acompañadas de mucha RAM de acceso bastante más rápido que la memoria principial, pero traer y llevar datos de la RAM de sistema a la de vídeo también significar una penalización importante, por lo que los datos necesarios para las tareas que calcules en la GPU han de caber en la RAM de video. Esto sirve para trabajos concretos, como por ejemplo los algoritmos de renderizado en 3D. ¡Anda! ¡Justo para lo que están fabricadas!
Conclusión: nada nuevo bajo el sol. Una CPU de propósito general sigue siendo más rapida para tareas 'normalitas', por ejemplo correr el sistema operativo. Una GPU es más rapida para renderizar en 3D y operaciones similares.

llamamepanete

#5 No todo es la universidad ... de hecho la universidad es un sitio donde el alumno obtiene "saber preprocesado" y dada la velocidad de avance de la tecnología, carreras como informática, incluso en los planes de estudios más modernos suelen estar desfasados bastante rápido.

Las tecnologías GPGPU, como CUDA y OpenCL, permiten la computación de propósito general en entornos de GPU, de hecho OpenCL permite la bifurcación del proceso entre CPU y GPU en función del propósito a desempeñar.

Sobra decir que el uso de una GPU desde luego no es hacer un "hello world", pero sin duda la aplicación de la tecnología GPGPU es interesante en muchísimos campos donde hace falta capacidad de computación paralela y donde desde luego mejora muchísimo a las CPU, tanto en coste como en rendimiento.

Por citar algunos ejemplos interesantes:

- Gnort ( una evolución del IDS snort aplicando GPU )
- Optimización de operaciones en PostgreSQL usando CUDA
- EWSA, cracking de WPA/WPA2 usando GPU.

piubrau

#9 Vamos a ver, que estáis diciendo lo mismo, creo yo.

1 - Tenemos claro que las GPU están optimizadas para un tipo de tarea, y por eso son más rápidas en esas tareas.

2 - Eso no quiere decir que no sean capaces de hacer otras cosas, claro. Entre esas otras cosas hay algunas que se parecen (por la forma de ejecutarlas) a las de gráficos para las que han sido optimizadas. Por eso también son más rápidas en algunas otras cosas.

3 - Entonces... ¿es mejor una GPU en lugar de tu CPU normal para tu portátil? Pues no. Porque hay otras muchas cosas, hoy en día más frecuentes en un uso normal y cotidiano del ordenador, en las que el propósito general de las CPU es una ventaja.

EJEMPLO PARA TODOS LOS PÚBLICOS:
¿Es mejor coche un Ferrari que una Kangoo? Pues depende. ¿Para qué lo vas a usar? ¿Para correr mucho? El Ferrari. ¿Para hacer la compra todos los días, llevar la herramienta del trabajo, hacer la mudanza...? Pues la Kangoo, que además es más barata, consume menos gasolina, es más barato el seguro...

hannibalito

#11 ¿Ferrari vs Kangoo? Siempre puedes tener algo como esto:

D

#9 GPGPU es el nombre genérico de programación general (no graficos) en targetas gráficas

CUDA es un lenguaje de programación basado en C que simplifica un poco trabajar con una targeta gráfica, pero limita un montón los posibles algoritmos que se pueden hacer. De hecho mucha gente ignora CUDA y usa los shaders de OpenGL para hacer lo mismo, la única diferencia es que con los shaders tienes que tener una "ventana invisible" y por lo tanto estar corriendo algun entorno de ventanas. De hecho el software que he desarrollado últimamente tiene dos versiones, una CUDA y otra OpenGL, comparten el 90% del código, y la version OpenGL es un 10% más rápida.

OpenCL es solo un rename de CUDA. Es un acuerdo de caballeros para que ATI no admita que no ha sabido crear su propio lenguaje y se vea obligada a usar CUDA. Apple ha sacado partido de ello diciendo que lo ha inventado y que permite accelerar todo 100 veces, que es mentira.

Comparando GPU's y CPU's no tiene mucho sentido. Una GPU es un tren, puede mover miles de personas de A a B, siempre que todas salgan a la vez, lleguen a la vez, y tarden un montón en subir y bajar. La CPU es un coche, solo caben 4, pero es mucho más ágil.

Hay cosas (pocas) que van muy bien en GPUs, como la mayoria de procesos gráficos y algo de procesado de datos, pero decir que se pueden convertir todos los algoritmos a GPU es una tontería!

D

#16 Perdon, no quería decir que ATI no tenga un lenguaje, digo que ATI fracasó en su intento de que la gente usara su lenguage.

ATI lo intentó primero con Close-To-Metal, luego AMD intentó relanzarlo llamándolo Stream el 2007, y como nadie lo usaba, el 2009 Ati lanzó Stream 2.0, que es un intérprete de OpenCL.

h

#12 Bueno hablas de mentiras y no das tu mismo ni una es irónico, por ejemplo mira lo que te ha dicho #16, OpenCL es un estándar propuesto por la Khronos Group y Apple está dentro de la misma, no se si será verdad lo que comentas que anda diciendo Apple, pero en ese caso sería una verdad, aunque lógicamente no son los únicos que han tenido que ver en ello y sería una afirmación desafortunada por su rotundidad, pero bueno, ya todo el mundo sabe que se puede esperar de Apple y como juega.

#6 Cuando me enteré de que va a haber versiones de bajo consumo, empecé a ansiar que salgan para probarlo y ver si se cumple la previsión, ese integrado solo lo ha podido hacer amd, intel le falta capacidad para desarrollar arquitecturas de hardware de gpu y a nvidia le falta el darle a las cpu.

D

#22 Apple en su nota de prensa de lanzamiento, dijo que con el nuevo Snow Leopard y OpenCL, los programas normales irían muchisimas veces más rapido que antes gracias a usar la GPU, sin recompilación ni nada.

Luego se han echado atras y lo han arreglado, per supuesto.

Apple, igual que microsoft y muchos otros, estan en la Khronos Group, básicamente para proteger su derecho a la tecnología. No tiene nada que ver con el grupo de video en que lo tienen todo patentado.

h

#22 Apple ha metido mano en el desarrollo de OpenCL quieras o no, deja de darle vueltas, a mi tampoco me gusta esa empresa por ciertas cosas pero a cada uno lo suyo (esto mismo tenía que afirmar cuando se hablaba sobre microsoft hace tiempo, curiosamente como se dice parece que apple empieza a ser la nueva microsoft)

otrofox7NOSOYNAZI

Creo que esta comparativa es como decir que la diarrea es más rápida que la velocidad de la luz (como decía el chiste).
Cada uno se dedica a cosas distintas así que no son comparables. Cuando vea un S.O. corriendo en una GPU, hablamos.
Si hablamos de gráficos, física y cálculos matriciales en general, sí, las GPU ganan por goleada pero en procesamiento general, 480 stream-engines a 750Mhzs aprox. son muchíiiiiiiisimo más lentos que 4-6 cores (8-12 threads) a 3Ghzs, para el propósito general. Eso, siempre que fuese posible hace un port de un S.O. actual a esos procesadores (una parte de la interfaz debería ser procesada por un chip de placa base específico, puesto que las GPUs son casi exclusivamente procesadores matemáticos)

En resumen, churras con merinas.

#12 Gran comparación la de los trenes y los coches.

D

#3
Uno de los motivos por los que es un coñazo programar para el Cell de la PS3 es que aparte de ser una arquitectura heterogénea los SPEs son algo parecido a los stream processors de una GPU, lo que significa que para hacer código de propósito general es bastante mierda. Y por eso casi siempre los problemas de rendimiento están en PS3 cuando se trata de hacer un título multiplataforma (véase la Orange Box por ejemplo). Requiere mucho esfuerzo adicional que las productoras de videojuegos no quieren hacer cuando tienen el mercado de PC y Xbox 360.
Otro ejemplo es el nuevo MMORPG del Final Fantasy que llegará en septiembre a PC y en marzo del año que viene a PS3. Normalmente los retrasos suelen ser por desarrollo, más que decisiones estratégicas.

#9
OpenCL es un wrapper para facilitar un poco la tarea de ejecutar código de proposito general en procesadores totalmente paralelos (las GPUs).

D

#26
Normalmente los retrasos suelen ser por desarrollo, más que decisiones estratégicas.

Me explico: dan más tiempo a PS3 porque requiere más tiempo de desarrollo, y no porque sea una decisión estratégica para sacar primero toda la pasta posible en PC (al fin y al cabo el PC es el rey del online).

Stilgarin

Vale #9 entonces, si en las universidades no vale lo que te enseñan sobre tecnología, que hacemos? Voy a mandar una carta al gobierno para que quiten ese tipo de estudios de las universidades, porque no sirven para nada!!! Donde hemos ido a parar eh... Habrá que avisar a los miles de estudiantes españoles de informática, electrónica y demás carreras tecnológicas!! Que están tirando los días de su vida a la basura!!

Menudo argumento muchacho... Que no estén actualizados los cursos a diario es lo más normal del mundo, el plan de estudios de toda una carrera no puede estar renovándose cada día, es algo simplemente imposible... Otra cosa es que los profesores y alumnos estén al día en cuanto a noticias, avances, etc.. y se comenten allí, que es lo normal no?

llamamepanete

#38 Mi argumento, que por cierto, no sé muy bien de donde estimas que soy un muchacho, y no una muchacha o un perro con lunares, exclusivamente hace referencia a una apreciación del comentario #5, en la cual un alumno de una universidad comenta sobre su saber universitario entorno tecnología GPGPU. Y simplemente le matizo que el uso de la GPU tiene aplicaciones más allá del puro "procesamiento gráfico 3D" y que poco a poco aparecen tecnologías como openCL que permiten la integración de GPU/CPU, algo que a poco que estudiase "tecnología de computadores" hace 2 años, es posible que ni haya visto.

Por último, tu sarcasmo, no sé muy bien a cuento de qué, parece que intenta hacer por natural un hecho que a mi personalmente me parece nefasto: el docente español de una asignatura donde se ve tecnología aplicada, prefiere, en un número elevado de casos, reelaborar el temario cada 5 años, que actualizarlo y completarlo año a año, transmitiendo a su alumnado avances y mejoras, y descartando tecnologías obsoletas ( nunca, desde luego, principios básicos y fundamentales ).

Por ello una carrera debe tener, sin duda, un nucleo teórico sobre el que descansen los conceptos aplicados, pero desde luego, a mi nunca me parecerá de recibo que asignaturas aplicadas, como puedan ser redes, sistemas operativos, tecnología de computadores o ingeniería del software, por citar algunas, hayan seguido impartiendo cosas tan interesantes como "la norma v.34", "la arquitectura de un sistema operativo en modo real: msdos", "el ensamblador del 8086" o "métrica 2", hasta que Bolonia les ha obligado a cambiar planes y temarios.

Espero que al menos, tras este cambio, realmente cambie el espíritu de la universidad y sobre todo el grueso del profesorado universitario entienda la importancia del trabajo diario ( el mismo que van a exigir a sus alumnos ) y que dejen de una vez por todas de justificar que fuera de los principios teóricos tiene cabida mantener un temario sin actualizar durante 4, 5 o incluso 10 años.

osiris

#42 enseñan eso por que es lo más fácil didácticamente hablando.
De dónde viene la pila, el código ensamblador x86 (sin historias de SSE ni cosas raras), etc etc...

Justamente en la universidad no te enseñarán nada inmediatamente práctico. PAra eso está la FP donde te enseñan a programar en un lenguaje concreto o a administrar un sistema.

En la universidad te dan la base teórica a partir de la cúal deberías ser capaz de aprender cualquier cosa que esté basado en ello.

Es por eso por ejemplo que en los exámenes te dejan tener apuntes: te plantean un problema que tienes que resolver con las bases teóricas aprendidas. No tienes que memorizar como un loro.

Aunque luego está el profe que no cambia el temario porque le supone "demasiado" trabajo, pero bueno, ese es otro tema...

A mí por ejemplo me explicaron la estructura del 8086. Luego me mandaron un trabajo comparativo del Opteron contra el Xeon y luego un estudio del cambio de paradigma del Itanium.

saludos.

D

#43
Es por eso por ejemplo que en los exámenes te dejan tener apuntes: te plantean un problema que tienes que resolver con las bases teóricas aprendidas. No tienes que memorizar como un loro.

Oye, are you sure?

Hablando del tema, lo que yo he visto en mi facultad por norma general está bastante actualizado y cada año siempre andan modificando transparencias o añadiendo cosas nuevas (al menos en las asignaturas que tienen que ver más con el hardware).

Stilgarin

#42 Pues bueno, si alguien de nick llamamepanete , que al menos de momento soy capaz de diseccionarlo y separarlo en "Llámame Panete",y me dicen que es mujer, o un perro con lunares que escribe en Internet, desde luego me sorprendería, no se a ti, y si eres lo segundo, me interesa conocerte más, creo que serías una rareza
Luego, sé perfectamente a que te referías con lo de responderle a #5, por eso te he contestado citándote, y como tengo una opinión diferente, pues la he expuesto, a demás de que sigo opinando igual. Y el sarcasmo venía por lo de que las universidades "se supone" que son el conocimiento, si no aprendes allí...

Kachinvo

Al final va a resultar ser otro "profesor de una universidad valenciana del que ya no recuerdo el nombre". Fuckowski ya llevaba tiempo advirtiéndonos sobre este tipo: http://www.perspicalia.com/post/mobuzz-dans-y-la-economia-de-la-cancamusa