Noticias de ciencia y lo que la rodea
248 meneos
565 clics
Un algoritmo chino podría aumentar el rendimiento de la GPU de Nvidia hasta 800 veces para aplicaciones científicas avanzadas (EN)

Un algoritmo chino podría aumentar el rendimiento de la GPU de Nvidia hasta 800 veces para aplicaciones científicas avanzadas (EN)

Investigadores de la Universidad Estatal de Moscú-BIT de Shenzhen, una colaboración entre la Universidad Estatal de Moscú Lomonosov y el Instituto de Tecnología de Pekín, han desarrollado un nuevo algoritmo computacional que puede mejorar significativamente la eficiencia de la peridinámica (PD), una teoría no local utilizada para modelar fracturas y daños materiales. El nuevo método aumenta el rendimiento hasta 800 veces, mejorando drásticamente la velocidad de las simulaciones de materiales a gran escala.

| etiquetas: china , nvidia , algoritmo
104 144 6 K 200
104 144 6 K 200
Comentarios destacados:              
#5 Una puntualización para los que no leen la noticia, la mayor parte de las LLM y otras "IA"s están limitadas por el ancho de banda de la memoria, no la capacidad de computo
Esto es para simulaciones numéricas de fractura de los materiales y similares
javibaz #1 javibaz 04/02 14:36
Habrá que prohibir el uso de ese algoritmo ruso-chino.
io1976 #8 io1976 04/02 14:53
#1 y aranceles, muchos aranceles.
MorrosDeNutria #59 MorrosDeNutria 05/02 09:26
#8 Aranceles a los bits ya !!!! :-D
joffer #46 joffer 04/02 21:07 *
#1 antes todos los avances de este tipo venían de EEUU. Ahora no digo que no los haya, si no quedan ocultos entre la política exterior de la última década.
Alakrán_ #2 Alakrán_ 04/02 14:40 *
Una mejora de rendimiento de 800 veces superior.
No sé rick... A ver si va a ser como la IA de 6 millones...  media
#26 Abril_2025 04/02 19:52 *
#2 Es que es falso. El artículo dice que las GPU son 800 veces más rápidas que la CPU.

No han acelerado nada.

Mas discusión y debate en reddit, con enlace al paper original en el segundo mensaje.
www.reddit.com/r/technology/s/mf6i2XTBE5
#40 EDD88 04/02 20:17 *
#5 en reddit fueron un poco más allá y leyeron el paper del que sacaron la noticia, y es entre errónea o sensacionalista:

OpenMP is for parallelizing across multiprocessors. So they’re comparing CPU- and GPU-implementations and concluding that GPU-implementations are faster for very parallelizable workloads. They have not ”boosted Nvidia GPU performance”. They have utilized GPU acceleration for a scientific simulation. The GPU in question is neither faster nor slower than before. Clickbait title. It should be:

”Chinese scientists utilize GPU acceleration to speed up simulation time by 800x”.

Es decir que en vez de usar CPUs usaron GPUs en paralelo.

Edito, lo comenta #26
blockchain #4 blockchain 04/02 14:43
#2 a ver si dijeron pochocientas así en plan exagerado y transcribieron mal....
#29 AlbertoGar1870 04/02 19:57 *
#2 aquí comenté yo hace unos días que lo deepseek me olía a humo y algunos "fanboys de no se qué" que se fueron por la parte técnica me acribillaron a negativos. Como si yo defendiera a lo americano o estuviera en contra de lo chino. Lo decía por esto precisamente y por la repercusión que había tenido en bolsa. Me escamaba tan "bajo" coste.

Aparte eso de que va tan bien ni esa ni la de Alibabá. ¿Le habéis preguntado quién es el presidente de los Estados Unidos? Para estas…  media   » ver todo el comentario
#33 Abril_2025 04/02 20:03
#29 Hay cosas malas de Deepseek que no se dicen. Como que está poco escalado y puedes tardar una vida en que te responda. Si lo hace.

Pero como producto es la leche. Está al nivel de Chatgpt en texto.

Pero claro, es que igual usamos el español y resulta que nos sirve tanto como Chatgpt o Deepseek pero como es español lo ninguneamos.
#34 AlbertoGar1870 04/02 20:04
#33 no he entendido bien a lo que te refieres con lo de "español", disculpa.
#36 Abril_2025 04/02 20:09
#34 Hay chatbots creados en España pero no con tanta pompa. Los tengo en una carpeta del pc, perdona, pero sí que recuerdo chatfaq

openexpoeurope.com/es/una-ia-conversacional-espanola-abierta-y-eficaz-
#38 AlbertoGar1870 04/02 20:11
#36 ah vale, ahora entendí. Gracias!
cenutrios_unidos #3 cenutrios_unidos 04/02 14:42
Podría, pero ya os digo yo que 800 veces ni de coña.
#16 PerritaPiloto 04/02 17:48
#3 Puede ser que danie se hubiese dedicado a modelar en serio ese fenómeno o que "simplemente" lo hayan simplificado porque les vale con un resultado aproximado y eso hace que las simulaciones casi sea tres ordenes de magnitud más rápidas. Pero como siempre, falta saber sobre qué están comparando y en qué condiciones.
#44 Lugolo 04/02 20:39
#3 ¿cuál es tu formación o conocimiento sobre la investigación para afirmar eso tan rotundamente?
cenutrios_unidos #45 cenutrios_unidos 04/02 20:39
#44 Algo conozco.
Nadieenespecial #5 Nadieenespecial 04/02 14:43
Una puntualización para los que no leen la noticia, la mayor parte de las LLM y otras "IA"s están limitadas por el ancho de banda de la memoria, no la capacidad de computo
Esto es para simulaciones numéricas de fractura de los materiales y similares
HeilHynkel #11 HeilHynkel 04/02 15:05
#5

Asín desde la ignoracia de las tripas de la IA. Eso que indicas ¿quiere decir que precisas procesar una burrada de información pero que los cálculos que se hacen son triviales o al menos, no muy complejos?
#20 varios 04/02 19:47 *
#11 para hacer un calculo de algo necesitas un algoritmo y datos. Puede ser que el algoritmo sea muy rápido pero no tenga datos. Más o menos, ejemplo sería que la suma en una calculadora puede ser muy rápida, pero lo que te cuesta es teclear los números.

Entonces para acelerar los cálculos no necesitas mejor el algoritmo ni el procesador sino tener memoria más rápida o más memoria caché para almacenar los datos ... O que no hagan falta tantos datos para sacar más o menos los mismos resultados. Por ejemplo eliminando decimales.
#43 flixter 04/02 20:37
#11 la respuesta correcta es "depende". Me explico: mirando desde dentro del procesador hacia fuera, los almacenes de datos que tienes son: registros, caches L1, L2 y L3, memoria principal, SSD y sistemas de ficheros en red. La velocidad a la que tu calculo se realiza depende de dos factores: el numero de operaciones que se calculan y la cantidad de calculos necesaria para llevarlas a cabo. Si necesitas muy pocos datos y los reusas mucho (imagina una multiplicacion de matrices) lo que…   » ver todo el comentario
BARCEL0NÍ #12 BARCEL0NÍ 04/02 15:16
#11 entiendo que es eso, conozco algo de HPC y para determinados cálkculos usan GPUs por eso mismo. Entiendo que para IA es la misma solucion para un problema parecido.
HeilHynkel #13 HeilHynkel 04/02 15:22
#12

Por eso las tarjetas de gama alta son "baratas" para IA, ya que traen un montón de memoria.

Gracias.
BARCEL0NÍ #14 BARCEL0NÍ 04/02 15:26
#13 Ojo, que si metes la variable precio las de gamign muchas veces salen ganadoras

www.reddit.com/r/LocalLLaMA/comments/1i69dhz/deepseek_r1_ollama_hardwa

Aqui dicen que son mejores para deepseek para propmpt determinados. No sé, es un tema complejo pero no es tan straightforward el tema
HeilHynkel #41 HeilHynkel 04/02 20:19
#14

a ver si un día me pongo con cosas de IA y me entero por donde me da el aire ...
carademalo #49 carademalo 04/02 22:28
#14 "pero no es tan straightforward el tema"

En español tienes una forma de decir straightforward de manera sencilla: "sencillo".

:palm:
BARCEL0NÍ #58 BARCEL0NÍ 05/02 08:10
#49 Puedo usar el término que me dé la gana, o debo usar el que te guste a ti? By the way :-D , sencillo no sería idéntico a straightforward, tiene otro significado.
carademalo #65 carademalo 05/02 11:30
#58 Puedes usar el que te dé la gana, pero los anglicismos innecesarios dan un poco de cringe vergüenza ajena o son señal de esnobismo pedantería. No lo digo yo, lo dice la RAE.

Y no, straightforward no es idéntico a "sencillo" (yo no he dicho éso). Puedes usar simple, directo... pero si quieres ajustar el significado, tienes que cambiar la sentencia completa y decir "es un tema complejo porque existen varias posibilidades". Que, oye, habla y escribe como te apetezca, pero no hay color entre una y otra forma de expresarte. :-D
BARCEL0NÍ #66 BARCEL0NÍ 05/02 12:58
#65 No te ofendas hombre, más se perdió en Cuba!
#42 giputxilandes 04/02 20:19
#11 en esencia, las neuronas, son regresiones lineales con umbrales de activación, así que sí.
#22 JVF 04/02 19:49
#11 Dice que precisa procesar preciosos procesos para cálculos precisos. O algo así, no sé. Creo que me he liado {0x1f605}
WcPC #9 WcPC 04/02 14:54 *
#5 Por algo al paper de Google lo llamaron "Memory is all you need"
apetor #39 apetor 04/02 20:14
#9 Supongo que es sarcasmo... Attention, attention is all you need.
WcPC #50 WcPC 05/02 02:03
#39 Era un chiste, malo, pero chiste xD
#6 CrudaVerdad 04/02 14:45 *
Es QuickSort :-D a veces creo que Nvidia adrede pone algoritmos mal optimizados en sus GPU para irlos cambiando en cada generación y así mostrar grandes mejoras de modelo a modelo y la gente soltando pasta :tinfoil:
io1976 #10 io1976 04/02 14:54
#6 No tengo pruebas, pero tampoco dudas que de que es así.
cdya #15 cdya 04/02 16:00
#6 Los de DeepSeek ya dijeron que pasaron de CUDA y se habían hecho su plataforma de computación programado en Assembler, pero esto de aumento de 800 veces se me escapa de mi entendimiento.
#35 Abril_2025 04/02 20:05
#15 Porque no es cierto.

La propaganda del partido ha encontrado un paper sin entenderlo muy bien y le han dado publicidad.
frg #7 frg 04/02 14:52
#6 Se ve que trabajas para Nvidia. Te conoces todos los trucos ...
#17 Grahml 04/02 19:37
Joer, qué Nvidia.



Perdón, no volverá a pasar :foreveralone:
DarthAcan #19 DarthAcan 04/02 19:47
Este es el año de los algoritmos chinos en el escritorio xD xD xD
#21 oscarcr80 04/02 19:48
Va a ir chino chano...


Vale, cierro al salir.
#23 Abril_2025 04/02 19:49 *
-- borrar ---
ronko #30 ronko 04/02 19:58
¿Y para juegos? Por ejemplo Minecraft :troll:
tommyx #32 tommyx 04/02 20:00
Podría...
#37 endy 04/02 20:11
#47 coyotito_84 04/02 21:14
Han descubierto algo público y notorio, incluso demostrado en Mythbusters hace 15 años.
#48 carlosuyate 04/02 21:35
Como lo dicen los chinos, verdad ha de ser.
U5u4r10 #51 U5u4r10 05/02 05:44
La pregunta es: ¿estando China tan avanzada por qué siguen vendiendo productos de mierda? Ni un reloj que de la hora bien puedes comprar con garantías.
tonibaz #64 tonibaz 05/02 11:12
#51 no me digas más, tu pelucazo de 1,87€ de Aliexpress con envío incluído resulta que no funciona ...
U5u4r10 #68 U5u4r10 05/02 16:20
#64 xD

No, más bien el despertador que compré en la tienda del chino después de haberme jurado no comprarle ningún producto electrónico y darle una oportunidad porque aparentemente no parecía una tecnología complicada.
comentarios cerrados

menéame