Hace 24 minutos | Por blodhemn a eldiario.es
Publicado hace 24 minutos por blodhemn a eldiario.es

Un estudio publicado en Nature avisa de que los sistemas entrenados por contenidos generados por otras inteligencias artificiales "pierden la percepción de la realidad". El problema es que se sabe que empresas como OpenAI ya han utilizado todos los datos de alta calidad disponibles de forma pública en la red para entrenar modelos como ChatGPT. Su necesidad de seguir suministrando información a su máquina para que esta sigan mejorando ha provocado que recurra a datos de menos calidad, como lo de las redes sociales...

Comentarios

JungSpinoza

#1 Veras las risas cuando ChatGPT nos meta en las capsulas con tubos en nuestros hipotalamos solo para seguir entrenando los modelos. Aprende MLOps sera divertido, decian.

.

Elektr0

#8 mis dieses shurmano. Respuesta de IA forocochera

WcPC

Creo que es "relacionada"
Se basa en el paper:
Los modelos de IA colapsan cuando se entrenan con datos generados recursivamente [EN]

Hace 3 días | Por dmeijide a nature.com

Pero explica un poco ya que ese era un enlace al paper y en castellano.
Yo no lo veo duplicado.

G

De ahí lo de "artificial".

Gry

Mira tú para que necesitaba Matrix a los humanos.:-D

O

#6 En el guión original: para hacer de computadoras donde correr la propia matrix.

A

Eso ya lo pensé yo, no hace falta que lo publique Nature

c

Pero todo esto está dicho desde el principio. Una red neuronal no es más que una base de datos. Solo puede repetir los datos de sus entradas. Lo hará de formas curiosas, pero lo que no puede hacer es inventar ni deducir nada.

No input, no output.

JungSpinoza

#5 >> no puede hacer es inventar ni deducir nada.

Para hacer esa afirmación de forma tan categórica necesitas defini que es inventar y deducir para ti.

Por ejemplo, AlphaFold es capaz de inventar/deducir la estructura de proteínas que los humanos no hemos visto nunca y cuáles serán sus propiedades.

l

#7 es capaz de inferir basándose en un conjunto de datos previo. Es decir, simplificando, si tu le dices que en enero la temperatura media es 10 y en marzo 20, puede deducir que febero es 15 (lo estoy hipersimplificando)

Es decir, basado en datos anteriores puede sacar información nueva cuando hay muchas variables y la cosa es mucho más compleja que lo de arriba, pero basa todo en el conjunto de datos de entrada. Un humano puede buscar como conseguir más información

r

#7 Predice la estructura tridimensional partiendo de la secuencia de aminoácidos que forman la proteína, que parece que das a entender que inventa proteínas.

H

Si con todo lo que hay publicado en internet "de alta calidad", no tienen suficiente, perdón por la expresión, estas IA son una mierda.