@Senaibur Condones, clínicas de desintoxicación, antibióticos. . .
@OniNoNeko_Levossian @Zoidborg
Portada
mis comunidades
otras secciones
#18 Yo no estoy muy puesto en el tema de de CPU vs GPU pero por lo poco que se en 3D generalmente los Denoiser son muy propensos a aplicar Blur y se pierden mucho detalle. Pasa exactamente lo mismo con la astro fotografía.
Y con respecto al tiempo no es lo mismo trabajar con 16/32/64 hilos en paralelo de una CPU para procesar una imagen que sectores grandes como 512K o 256k en la que una GPU está fabricada con ese propósito.
Por ejemplo: en Blender 3D un Threadripper de 96 cores tiene una puntuación de menos de 2500 y un Nvidia 4090 mas de 10000. Por lo que calculamos que en GPU va a tardar un 25% del tiempo de la CPU. Antiguamente el renderizado en GPU no soportaba las mismas características que las CPU, por ejemplo las cáusticas, volumétricas básicamente las GPU son malas con operaciones de coma flotante relacionadas como simulaciones.
Al final la cpu trabaja en serie y la gpu en paralelo. La cpu es un trabajador que repite una y otra vez el mismo trabajo sin importar en que punto esta y la GPU trabaja en paralelo grandes bloques de información en los que muchas veces en aras a aumentar la velocidad de proceso sus algoritmos suelen tomar atajos. Que no digo que sea malo, la verdad es que sin las GPU estaríamos en la edad de piedra.
Al final, todo depende del monitor que estás usando, yo en mi Dell 4K Led de 32” no veo ni de cerca los mismos bloques pixelados que en mi LG 55 Oled . Osea que intentó que el origen de un RiP de una película que me interesa mucho sea la mejor calidad posible de la que podamos partir. Para todo lo demás, la perspectiva personal de cada persona es lo mas importante. Yo en el año 2001 ripeaba con xvid en 700mb y tenías que meter dos pasadas si o sí. Y en aquella época había películas ripeadas en Internet con 700mb que eran de una calidad brutal (aún las tengo en CDs) y si las pusiera ahora en una TV 55 Oled igual se ven de verdadera pena.