Hace 1 hora | Por blodhemn a eldiario.es
Publicado hace 1 hora por blodhemn a eldiario.es

Un estudio publicado en Nature avisa de que los sistemas entrenados por contenidos generados por otras inteligencias artificiales "pierden la percepción de la realidad". El problema es que se sabe que empresas como OpenAI ya han utilizado todos los datos de alta calidad disponibles de forma pública en la red para entrenar modelos como ChatGPT. Su necesidad de seguir suministrando información a su máquina para que esta sigan mejorando ha provocado que recurra a datos de menos calidad, como lo de las redes sociales...

Comentarios

Elektr0

#8 mis dieses shurmano. Respuesta de IA forocochera

Wajahpantat

#8 yo estoy deseando que usen Menéame para que cualquier respuesta sea "Ayuso mataviejos" o "Carapolla"

VotaAotros

#18 O respondan con frases hechas "te enseño la luna y miras el dedo". "Cuando el tonto coge una linde..." "atado y bien atado"
Si pregunta una mujer, le dirá la IA: "brava".
Le preguntas algo sobre ciencia: "la respuesta siempre será grafeno".
O cuando la IA colapse cuando le pregunte alguien si la tortilla de patata con cebolla o sin cebolla.
Si le dices a la IA algo que no le mola, se chivará a@admin
Y si le hablas sobre una noticia que no le gusta, intentará cancelarla.
Eso sí, o estás de acuerdo al 100% con la IA, o serás un misógino, machista y fascista, amigo de bocs.
Si le haces a la IA una pregunta que ya le ha hecho alguien, te dirá que "duplicada"
La IA, siempre te responderá con algún tipo de falacia lógica.
Si la pones en evidencia, te ignorará.
Por supuesto, te mostrará su superioridad moral en todo momento.

Y podía seguir y seguir...

Wajahpantat

#21 Claramente tu IA es un modelo mucho más avanzado que el mío lol

balancin

#21 estás poniendo en evidencia nuestro masoquismo colectivo lol

patchgirl

#21 Te falta la de puño de acero, mandíbula de cristal

VotaAotros

#68 O la de te strikeo por bulo por dar una opinión. Esa es muy típica.

j

#18 si coge datos antiguos, las respuestas serán "como en cubazuela", "eso es eta" y "casoplón".

erperisv

#1 Cuando pase por menéame empezará a llamar facha, racista, machista, voxero... de manera indiscriminada.

l

#16 no. Un humano puede decidir que tiene que crear nuevos instrumentos o nuevos experimentos para llegar a conclusiones cuando considera que no tiene datos suficientes para llegar a una conclusión. No quero generalizar pero en general la ia te dirá cualquier cosa que le parezca que tiene sentido.

Por ejemplo, a chatgpt le dices que te saque la letra de una canción y si no la tiene se inventa la letra. Una IA puede usar muchos mecanismos para llegar a su conclusión, pero suelen ser métodos estadísticos y no llega a esas conclusiones

c

#22 Una IA no sabe si lo que dice tiene sentido. Solo saca la media y te la da.

N

#28 Lo que "sabemos" los seres humanos es simplemente el resultado que "sacan" los algortmos con los que trabaja nuestro cerebro, al igual que hace la IA.

Sí coincido con que las IAs generalistas actuales son muy imperfectas en comparación, e incluso es posible que la base tecnológica que estamos usando ahora mismo tenga limitaciones matemáticas insalvables y en algún momento haya que empezar de 0 con algoritmos completamente diferentes.

Pero en qualquier caso, el "saber" de los seres humanos no es algo místico que marque una diferencia con las computadoras artificiales: en ambos casos se trata de reconocimiento de patrones, predicción, y evaluación de resultados posibles (solo que uno tiene una base biológica y algoritmos que todavía no conocemos del todo, y otro una base sintética con algoritmos bien conocidos).

c

#42 Que sí. No hay ninguna diferencia fundamental entre un robot y un animal. Ambos son autómatas deterministas. Si parecen tan distintos es debido a la enorme diferencia en complejidad.

Pero yo me refería concretamente a las redes neuronales como las que se desarrollan actualmente. Hay que interpretar las frases dentro de su contexto porque sino sería imposible comunicarse. Es obligación del lector el hacer este trabajo.

sauron34_1

#42 no, no, no. Un humano no trabaja en base a algoritmos, no somos autómatas. Para empezar el cerebro es plástico, un programa no.

f

#22 Exactamente lo que digo a todo el que me saca el temita de la IA, que hasta que no sepa que no sabe, hasta que no sepa que lo que está diciendo es una soplapollez porque le faltan datos no será medianamente inteligente. Y ahora mismo por más que le digas "oye, que no, que no tienes ni puta idea, que eso está mal, ellas siguen erre que erre"

Muy buenas herramientas pero lo de llamarlo Inteligencia creo que fue una estrategia de marketing del copón, y lo peor es que les ha resultado

E

#37 Te refieres a John McCarthy en el año 55? https://en.wikipedia.org/wiki/John_McCarthy_(computer_scientist)
Sí, seguro que estaba pensando en el marketing.

sauron34_1

#16 pues no y me frustra mucho que muchos sigáis pensando eso. No se ha aprendido nada del fracaso del conductismo? No has visto La naranja mecánica?
Los humanos NO somos autómatas, esto está demostrado desde los años 60. Las IA, como cualquier programa humano, son maquinas de Turing, es decir, autómatas.

black_spider

#55 por? Te refieres a fenómenos cuánticos en el cerebro?

Gry

Mira tú para que necesitaba Matrix a los humanos.:-D

M

#6 #10 El gran problema: mientras esté la puerta abierta siempre habrá alguien ahí dando de comer al monstruo.

kmon

#10 tremenda pifia lo de los humanos como pilas, me dejó jodido durante mucho tiempo por no poder entenderlo

thalonius

Creo que ya se ha lanzado algún modelo que era superior a otros con los mismos o menos datos de entrenamiento pero con un mejor fine tunning.

Y me suena ya haber escuchado sobre esto, que el próximo paso no es darle más datos, sino mejorar la forma en que trabaja con esos datos.

Sobre todo a partir de un paper de Anthropic en el que habían empezado a descubrir de qué forma trabajaba la "caja negra" (hay un vídeo de DotCSV que se llama algo del puente de San Francisco).

WcPC

Creo que es "relacionada"
Se basa en el paper:
Los modelos de IA colapsan cuando se entrenan con datos generados recursivamente [EN]

Hace 3 días | Por dmeijide a nature.com

Pero explica un poco ya que ese era un enlace al paper y en castellano.
Yo no lo veo duplicado.

Boleteria

#3 Al igual que los suplementos, esto de la inteligencia artificial solo sirve para suplir lo que nos falta.

Más darle al coco y menos utilizar estas tecnologías que solo se están creando para intentar reemplazar al trabajador y hacer que los de siempre ganen más.

WcPC

#61 El problema viene a ser lo mismo, lo importante no es informar con un artículo (o enseñar y entretener con un libro, o disfrutar creando un poema) lo importante es obtener el mayor beneficio económico.
Entonces no hace falta que lo que escriba en el artículo sea verdad o informe, simplemente importa que, por un costo menor, atraiga la atención de la gente , la diferencia es dinero...
Estamos en ese mundo, lo de "darle al coco" es poco eficiente desde el punto de vista económico.

F

Cuando hablo con gente sobre IA y les digo que el techo prácticamente ya se ha alcanzado me tratan poco menos que de gilipollas, y voilà, aquí está la prueba. Desde hace meses que OpenAI se está dedicando a mejorar la velocidad o la multimodalidad, pero poco más se puede rascar ya de la "inteligencia" en si. Habría que cambiar totalmente la tecnología base para seguir mejorando la IA, el modelo actual es mas y mas datos, y los datos y la capacidad de computación son finitos.

orangutan

#35 Con el 286 la ram y los procesadores ya tenían la misma base teórica que la que se usa actualmente, el modelo de von Newmann.
Por tanto, con el 286 se ha alcanzado el techo prácticamente de la computación.

j

#35 "la capacidad de computación son finitos". La capacidad de computación (cómputo que puedes realizar por un dolar) lleva duplicándose cada dos años de forma sistemática desde hace más de 50 años. Todo es finito, claro, pero el crecimiento sigue siendo exponencial, cosa que nuestro cerebro biológico nunca va a ser. Lo jodido de las exponenciales es eso, que un segundo antes de que te reviente la ola aún te pilla riéndote de ella porque es pequeñita.

sauron34_1

#46 no tío. Eso hace tiempo que no es así.

sauron34_1

#35 el problema no es de hardware, sino de soft. Con lenguajes deterministas poco más se puede simular inteligencia. Y nadie es capaz ni de acercarse a programación no determinista, es decir, a programar algoritmos, autómatas.
Ese es el verdadero problema.

redscare

#35 Creo que es increiblemente aventurado decir lo que estas diciendo. Ni los propios cientificos que hablan del "model collapse" lo tienen claro. La pregunta que suelen hacerse es mas bien si el siguiente "gran paso" pueda costar 10 o 100 veces mas, no que sea imposible darlo.

Y en cualquier caso, incluso las IAs actuales serán increíblemente útiles cuando se integren en multitud de sistemas informáticos. Por ejemplo que yo pueda definir en lenguaje natural el informe que quiero generar y la IA me haga las queries. Incluso si tengo que revisar que este bien, ahorra mucho tiempo.

En mi curro por ejemplo tenemos un chocho montao en salesforce de tres pares de cojones porque los usuarios son medio mongers. Un chatgpt al que le pudiera pedir que me revise ciertas cosas nos ayudaría infinitamente a mejorar la calidad de los datos.

A

Eso ya lo pensé yo, no hace falta que lo publique Nature

cosmonauta

#9 Nature, además de pensarlo como tu, publica un estudio que lo demuestra.

M

"los sistemas entrenados por contenidos generados por otras inteligencias artificiales “pierden la percepción de la realidad”"

Empezamos mal.

Para percibir hay que sentir (a través de los sentidos), y una IA sólo es un concepto, ya que en realidad no es más que una calculadora. No siente y por ende tampoco percibe, sólo calcula.

G

De ahí lo de "artificial".

T

#4 De ahí lo de 'intelegencia', en comillas.

MorrosDeNutria

#24 Eso es, solo dan una respuesta estadística de lo que han copiado... si no hay nada que copiar no hay nada relevante que responder.

T

#53 Bueno en realidad, en su forma más básica, es entrenar a un algoritmo, una red neuronal para que reconozca patrones, cuanto más grande sea el conjunto de entrenamiento, mejor será el reconocimiento de casos similares a los de ese conjunto. En sistema acotados de lo que te puedes encotrar funciona muy bien, pero no ante una variante, algo fuera de su 'experiencia' de entrenamiento.

Eso en reconocimento de patrones, pero vamos, crear ilustraciones o textos, aumentará en complejidad, pero se basa en lo mismo.

MorrosDeNutria

#66 Imagino que los problemas vienen cuando no hay datos o datos de calidad para entrenar a la red neuronal para que reconozca patrones.

Crees que esto podría causar un incremento en el número de "alucinaciones" ?

T

#71 Claro en el reconocimiento de patrones, solo te va a decir que esa imagen o letra es tal. Es algo absoluto y puedes ver el porcentaje de error. En el caso de creación de textos, te puede soltar cualquier milonga, porque ahí ya no hay un respuesta correcta, puede haber muchas correctas. Pero supongo que a nivel de consumo, con IA gratuitas, les puede interesar relajar el sistema, y que siempre te responda algo aparentemente coherente, aunque sea incorrecto, ántes que te diga que no puede responder, como ese ejemplo de hacer un resumen de un artículo de un periódico inexistente, que sale en la wiki.

H

Si con todo lo que hay publicado en internet "de alta calidad", no tienen suficiente, perdón por la expresión, estas IA son una mierda.

sauron34_1

MataGigantesMataGigantes esto te parece razonar? Si empiezan a alimentarse de contenido generado por ellas mismas, colapsan. No parece muy razonable.

Tieso

Y si pagan por los datos no es rentable... vaya.

j

#48 Sí, no entremos en lo semántico. El cerebro humano también es una caja con unas entradas.

Sadalsuud

Idiocracia Meets Terminator...

c

Pero todo esto está dicho desde el principio. Una red neuronal no es más que una base de datos. Solo puede repetir los datos de sus entradas. Lo hará de formas curiosas, pero lo que no puede hacer es inventar ni deducir nada.

No input, no output.

l

#7 es capaz de inferir basándose en un conjunto de datos previo. Es decir, simplificando, si tu le dices que en enero la temperatura media es 10 y en marzo 20, puede deducir que febero es 15 (lo estoy hipersimplificando)

Es decir, basado en datos anteriores puede sacar información nueva cuando hay muchas variables y la cosa es mucho más compleja que lo de arriba, pero basa todo en el conjunto de datos de entrada. Un humano puede buscar como conseguir más información

MataGigantes

#12 Es que así es como debe de ser una IA segura que sirva a los humanos. Si tiene iniciativa para desarrollar y explorar por sí sola sin ningún límite eso podría acarrear muchísimos problemas de seguridad de todo tipo. Hay que ponerla en vereda.

c

#17 En realidad no, porque no puede tener iniciativa para hacer nada por sí sola. Los animales sí que lo hacemos porque seguimos unas instrucciones que se llaman instintos.

MataGigantes

#29 claro, por eso se le denomina precisamente artificial. No es un ser vivo.
Que se mueva dentro de los parámetros que le marquemos los humanos es como debe de ser.
La iniciativa que pueda tener también debe de ser pautada.

r

#7 Predice la estructura tridimensional partiendo de la secuencia de aminoácidos que forman la proteína, que parece que das a entender que inventa proteínas.

c

#14 Predice, que es distinto de acertar.

c

#7 Lo que hace es aplicar los mecanismos de pliegue conocidos a proteinas nuevas. Es decir, la pliega como las otras. Si la protreina nueva se plegara de una forma no vista antes, será completamente incapaz de deducir nada de eso.

JovenCarcamal

#26

c

#33

sauron34_1

#7 no, AlphaFold aplica las reglas que le han introducido los humanos para “predecir” en base a ellas las estructuras proteínicas a toda leche, pero las IA no dejan de ser calculadoras. Ningún programa humano ha dejado nunca de serlo.

JovenCarcamal

#7 Me da que tiene poco conocimiento de lo que subyace por debajo de uno de estos sistemas. Habla de oídas

JovenCarcamal

#5 Por desgracia, para muchos, las IA's actuales muestran unos niveles de creatividad acojonantes. Creeme, llevo desde 2019, con GTP2, intentando generar texto literario de calidad y nunca lo había conseguido, hasta hace pocos días. Con estas indicaciones: "Siguiendo las directrices del documento sobre la creación de personajes, escribe un microrrelato de un gato al que se le ha muerto su dueño. Estilo Foster Wallace." generó esta maravilla:

"Schrödinger's Human"
El gato[1] observaba la urna sobre la repisa, su cola moviéndose en patrones fractales de inquietud. La paradoja de su existencia actual[2] le resultaba insoportablemente fascinante: ¿estaba su humano realmente muerto si él, el gato, no había presenciado el cese de sus funciones vitales? La incertidumbre cuántica de la situación lo estaba volviendo loco[3]. Decidió que la única solución lógica era derribar la urna. Ya sea que las cenizas se esparcieran o no, al menos tendría una respuesta definitiva sobre el estado de la materia dentro del recipiente. Con determinación felina, saltó hacia la repisa, ignorando la voz del humano que gritaba "¡No, Whiskers!", porque claramente esa voz solo podía ser un producto de su imaginación sobrecargada de atún y culpa[4].
[1] Un Maine Coon de 7 años, 3 meses y 12 días, para ser precisos.
[2] Post-humano, pre-adopción, cuasi-huérfano.
[3] Más de lo habitual para un felino doméstico promedio.
[4] La culpa derivada de haber ignorado los últimos deseos de su humano de "no comerse las plantas" y "no arañar el sofá nuevo", no necesariamente en ese orden.

c

#36 Todo lo que saca una máquina de estas proviene de sus entradas. Habrá creatividad ahí, pero lo que ha hecho la máquina es copiar.

JovenCarcamal

#56 Cualquiera de estas: combinar, componer, acoplar, agregar, compaginar, conjuntar, juntar, unir, casar te la compro.
Pero copiar. No. Hay una cosa que se llama overfitting y que se evita, justo para que no copie.

c

#72 Te refieres a la copia literal. Yo, no.

woopi

#36 Me encantó el relato! El humano de Schrödinger Una vuelta de tuerca a un tema sobado. Lo veo bastante humano, y hasta tiene una dosis de mala leche...

j

#5 El cerebro humano también es una red neuronal con unas entradas.

c

#44 Una red neuronal es una palabra usada para designar un cierto tipo de máquina que no tiene absolutamente nada que ver con como funciona un cerebro humano.

Es un mal nombre.

Kyoko
Black_Phillip

Por ahora. En unos años meses será alreves, los humanos colapsaremos sin IA porque no seremos capaces de hacer nada sin recurrir a ella.

JovenCarcamal

Hay una cuestión, que nada tiene que ver con la parte técnica de la IA, sino con la parte económica. Hasta ahora el contenido generado artificialmente no tiene marca de agua o algún mecanismo para diferenciarlo, aunque los artistas se estaban quejando a las empresas no les interesaba. Ahora con esto, simplemente les interesa tener un mecanismo de no retroalimentación. Y, hasta te lo pueden vender como algo bueno para detectar fakes y cosas así.

Vamos que si esto del colapso es verdad, OpenAI, Meta, Google, empiezan a meter marcas de aguas por su propio interés en 3, 2, 1...

Procurador

Las cuestiones que me ha "resuelto" la IA al final no son sino pastiches de la wiki mezclados con algo más y sin ningún tipo de moderación, originalidad, ... por no hablar de la creatividad ... un cero ...

c

Me ha encantado la parte de que E. Musk va a usar su propia red social para hacer aprender a su IA. Qué puede salir mal si aprende de X.
Fiel a la realidad

j

La ia por fuerza bruta sí ha alcanzado techo, aunque la forma de monetizarla aún puede dar mucho de sí.

Me hace gracia lo de datos disponible de forma pública. No hay ia que pase una auditoría de datos de entrenamiento. Habrán soltado un dineral a sgaes y similares para que se queden calladitos.

Una ia debería tener la capacidad para deducir cosas por sí misma mediante observación. Por ejemplo, recibe como entrada un vídeo donde cae una manzana de un árbol y un usuario le pregunta cosas como por qué cae la manzana, entonces, mediante capacidad de cálculo y de análisis, reconociendo el árbol, el terreno, la fruta, analizando la rama, el clima, etc debería ser capaz de generar sus propias respuestas.

Por ejemplo, con datos limitados si la manzana que cae es más oscura que el resto, podría ser una respuesta. Después analizando manzanas podría deducir que estaba muy madura. O que la rama estaba podrida o rota. Y ya para rizarlo podría hablar de la fuerza de la gravedad y de un peso estimado de la msnzana suficiente para romper el tallo, cuya resistencia podría deducir en base al grosor y otras variables.

Si se limitase a modelos estadísticos como hasta ahora, el output podría ser porque dios lo ha querido así

AntiTankie

La humanidad colapsa si dejan de enseñar en las rscuelas y nadie aprende nada

AntiTankie

Parece que bastante gente esta entrando en panico y quiren negar lo que viene encima en un par de años

AntiTankie

Me recueda a todos aquellis comentarios del pasado sobre tecnologia