cultura y tecnología
101 meneos
1111 clics
Micron, Samsung y SK Hynix se tambalean: Google encuentra una forma de reducir el uso de memoria para IA

Micron, Samsung y SK Hynix se tambalean: Google encuentra una forma de reducir el uso de memoria para IA

TurboQuant, de Google Research, permite ahorrar hasta 6 veces memoria en IA, lo que ha desencadenado una caída en bolsa de Micron.

| etiquetas: turboquant , google , ia
Pues que comiencen por Chrome...
#1 Chrome no puede rebajar el uso de la memoria porque ese uso es para espiarte y robarte todos tus datos de navegación :troll:
#1 no abras tantas pestañas
#9 Unos 14GB de RAM. Y eso que una de las pestañas es Google.com :troll:
#10 Si, pero la otra pestaña es TikTok y lleva doomscroleando desde Septiembre. A ver si entre todos conseguimos enseñar a los usuarios medios que A) el bookmark existe, B) no hace falta tener setenta y ocho pestañas abiertas por ventana, porque "si la cierro igual me olvido de esa pagina", C) una web con scroll infinito cuenta por X paginas, dependiendo de cuanto sigas bajando...
#29 yo tengo una sola pestaña abierta en cada ventana, pero 78 ventanas abiertas
#30 Tal y como está programado Chrome, es casi casi lo mismo. Venga threads, venga memoria encapsulada...
#8 Todas las pestañas son necesarias
#1 Chrome en cuanto lo desinstalas ocupa cero memoria.
#1 Utiliza linux
Emplearán modelos 6 veces mayores...
#4#2



hola
Estoy de la IA hasta los cojones. IA en el sistema operativo, en los resultados de búsqueda, en todas las RRSS en forma de vídeos de mierda, en los plastas que no paran de decir que los programadores están acabados, en los teléfonos, relojes y hasta en la puta madre que los parió a todos. No quiero IA, metérosla por el ojete, enterita.
#15 cabronazo :peineta: :peineta:
#15 ostia cabrón! No sabes lo que me he reído por tu culpa que me duele hasta la tripa xD xD xD xD :ffu:
#14 Nos la vamos a comer todos con patatas, nos guste o no.
Vamos, que la burbuja se tambalea y toca ajustar los números con trucos de diversa índole...

Ok, entendido.
#6 a eso venía, cuando les empieza a faltar pasta, de repente saben optimizar recursos.
se puede dar la paradoja de jevons
#2 Interesante
Pero también deja claro que hablamos de una técnica aplicada a casos concretos de compresión y búsqueda vectorial; . Por lo que quizás es muy pronto para hablar que la demanda de memoria DRAM o HBM se desplome de inmediato.
Noticia de distracción del foco, para no admitir que la falta de Helio está haciendo que la industria de semiconductores se tambalee.

www.meneame.net/story/cierre-planta-helio-catar-deja-cadena-suministro
#16 lo del Helio es una burbuja
#27 lo del helio es un globo sonda :troll:
Personalmente creo que esta noticia no cambia nada en el ámbito de la crisis de electrónica para uso doméstico. La buena noticia es que se podrá hacer uso de modelos más grandes con menos memoria, que en algún año remoto volverá a ser accesible al populacho supongo...
#18 no se si bajarán los precios o habilitarán más IAs
Estrategias de entrenamiento o de producción gastando menos memoria manteniendo la calidad sería el invento del año.

Actualmente la cantidad de memoria que necesitan para cualquier cosa es tan alta que no sale muchas veces rentable hacer proyectos adhoc a clientes.
a ver si miran algo pa las gpus también
Bien, con suerte se meten tal rijostrio que aprenden la lección. Y con algo más de suerte, la siguiente en bajar en bolsa es Nvidia
Noticia redactada desde la ignorancia. La optimización reduce el tamaño de la caché KV en inferencia, que es una parte mínima de la memoria que usa el modelo, la mayoría está en los pesos.

Aparte de que aunque lo hayan publicado ahora eso lleva en uso al menos un año.

No sé por qué "se tambalean" los fabricantes pero no es por eso.

menéame