edición general
DiThi

DiThi

En menéame desde abril de 2006

8,87 Karma
3.681 Ranking
7 Enviadas
2 Publicadas
1.297 Comentarios
8 Notas

ChatGPT y el resto de IAs podrían ser un espejismo demasiado caro para sostenerse: “Las grandes compañías de inteligencia artificial enfrentan un déficit de ingresos de 800.000 millones de dólares” [118]

  1. #113 Para generación de imágenes no hay MoEs

    No sé por qué, pero lo sospechaba... xD

    Sobre Qwen y Deepseek sí he leído alguna cosa, pero no tengo claro que tenga potencia para instalarlos. Con Llama hay modelos que pueden ejecutarse en local, y de ahí mi interés. Obviamente no funcionará igual que los otros, que requieren mucha más potencia para levantar el modelo, pero es normal.

    Gracias de nuevo por la info.
  1. #107 Muchas gracias, le echaré un vistazo al concepto, aunque de momento donde me falta gráfica es para modelos de imagen ( SD ), que no sé si tendrán algún MoE parecido, pero le echo un vistazo.

    Siempre pensé que faltaba algo así, para poder extender un poco la capacidad de la GPU ( aunque obviamente no sea lo mismo, algo ayudará ).

    Igualmente me quedo con la recomendación para llama, aún no la he probado, pero seguramente lo haga pronto :-)
  1. #81 ¿ Y eso cómo va ? Mi gráfica no es muy grande, pero RAM me sobra.
  1. #80 Cierto, aunque distribuir los datos de entrenamiento es prácticamente imposible a nivel legal salvo que se usen exclusivamente datos sintéticos. Legalmente la mayoría de la información cubre el ser usada para entrenar pero no para distrubir.

La IA obliga a cambiar los trabajos escolares: los profesores piden ahora reflexión sobre las tareas y vuelven a la oralidad [106]

  1. #101 Por supuesto. Que esto es curso universitario. Si no tienen una buena bibliografía, y citada correctamente, se les penaliza.
    Pero la IA también te da citas si se las pides.

Los creadores de DeepSeek, la IA china que noqueó a Silicon Valley, desvelan sus secretos [75]

  1. #70 Mira los encoders. Ellos mismos reconocieron que simplifican la arquitectura de los de Google, pero que la perdida de precision es "aceptable". DeepSeek tiene un papers donde los explica y hace referencia a esto exactamente.
  1. #32 No, que el modelo es mas barato. No usan un feedback que hace que los modelos de Google sean mas caros de entrenar. Admitidos por ellos mismos.

    Lo cual lleva a una probabildad de fallo mayor.
  1. #8 Pero creo que es porque usan un modelo mas barato.

Chat Control 2.0: el plan de vigilancia masiva que quiere implementar la Unión Europea [134]

  1. #94 De acuerdo en la invasión de la privacidad, me parece una barbaridad, cierto. Mi tesis es que los que quieran permanecer en las sombras, los "malos", lo harán. Y ya puedes vigilar a todo el mundo todo el tiempo, que lo conseguirán, es lo de leones y gacelas de toda la vida. Es tirar dinero a la basura y por otro lado una intromisión en la vida privada de la gran mayoría de personas que no son los "malos de la película".

Los datos que desmienten a Vox: España tiene el doble de extranjeros que en 2005 y una tasa de delincuencia más baja [129]

  1. #102 Cierto. También es una variable a considerar: cada vez se tiende a denunciar más lo que antes se callaba por vergüenza.

Una experta en seguridad alimentaria avisa: "los ultraprocesados están diseñados para crear adicción, y lo consiguen" [53]

  1. #40 #34 para que la adicción sea como el cuadro clínico de la cocaína y el alcohol, si necesitas que sea psicoactivo más allá de activar mecanismos de recompensa en el cerebro. Y por eso la comparación creo que es muy desafortunada.

    La "adicción" al azúcar, sal, glutamato, grasa... No comparte con la adicción a la cocaína y el alcohol la generación de tolerancia ni los síndromes de abstinencia que estos tienen (sobretodo el del alcohol, que puede ser mortal). Y no sé llega a eso porque no son sustancias psicoactivas.

    Por ello me parece muy desafortunada la comparación

Investigadores descubren que la reducción de la contaminación del aire en Asia Oriental, especialmente en China, ha acelerado el calentamiento global [98]

  1. #88 tú eres el que se quejaba de que la gráfica llegaba solo hasta 2023. Yo te actualizo con los datos entre 2023 y 2025. Que muestran que China ha aumentado sus emisiones. No sólo eso: las ha aumentado mientras que el resto del mundo industrializado las ha disminuido.
  1. #77 De donde sacas que "contamina cada vez más"? Mira #88
  1. #84 Entre 2023 y 2025 china ha aumentado sus emisiones de CO2 en un +1.5%. La U.E. las ha bajado en aproximadamente un -10% y EE.UU. un -3.5%

    Me hace gracia el mantra de "lo bien que lo está haciendo China". Sí... ¡estupendamente!

DeepSeek colapsa tras saltar a la fama: se queda sin capacidad ante la fuerte demanda y paraliza uno de sus servicios [45]

  1. #42 Gracias por la info. :-*
  1. #42 el #31 se me ha colado ahí sin querer poniendo el mensaje en otro sitio
  1. #30 Pues dime alguna, que de momento no las he encontrado ...
  1. #29 Pues yo lo que leo es que la completa necesita eso y quantizada la cuarta parte (386GB), aunque me intriga mucho la diferencia entre ejecutar una IA en GPU o en DDR5 porque si la diferencia no es "mucha" a nivel domestico entonces podría merecer la pena, o al menos ser viable, comprar cantidades ingentes de RAM ¿Se pueden combinar ambas memorias o el modelo tiene estar si o si en una sola?

Italia elimina el chatbot de DeepSeek de las tiendas de aplicaciones [115]

  1. #89 ¿En tu propio ordenador o en otra web? Si es otra web, dónde puedo probarlo?

Qwen2.5-Max: Explorando la inteligencia del modelo MoE a gran escala [54]

  1. Edit #50. #49. "...NVIDIA H100: Es la siguiente generación después del A100, también disponible con 80 GB de memoria (y versiones con más memoria). Ofrece aún más rendimiento gracias a la arquitectura Hopper. Si estás buscando ejecutar modelos de IA complejos o trabajar en proyectos de investigación avanzados, tanto el A100 como el H100 son opciones líderes en el mercado.
    Nota: Estas tarjetas gráficas no están diseñadas para consumidores finales ni para gaming, sino para entornos profesionales y científicos donde el rendimiento y la capacidad de memoria son críticos
    ..."

    Es parte de una respuesta de la propia IA que enlaza este meneo.
  1. #49. Tampoco podrias hacerlo, esta misma versión me respondió a esa cuestión. Para ejecutar esta versión completa de IA en tú propio PC de forma local necesitarias desempolvar entre 15.000 y 20.000 euros en hardware dedicado. Entre ese hardware se requiere al menos una tarjeta de IA de nVidia dedicada, modelo "NVIDIA A100", con 80 GB de memoria GDDR6 instalada. Y eso si te permiten comprar una de esas tarjetas para IA dedicadas. Se trata de las mismas tarjetas y procesadores de IA que supuestamente hoy ya están restringidas en el mercado chino.

De "imposible" a inevitable: cómo DeepSeek dejó a Sam Altman mordiéndose la lengua [47]

  1. #17 Gracias! Es complicado estar al día...

Cómo instalar DeepSeek para usarlo de forma local en tu ordenador Windows, macOS o GNU/Linux [97]

  1. #58 Ok, gracias. ¿Puedes darme más información del segundo punto? Me interesa.

La IA DeepSeek funciona de forma local en PC, el fin de ChatGPT [84]

  1. #63 Toda la razón, de 32GB nada :'(
« anterior1234512

menéame