Tecnología, Internet y juegos
240 meneos
933 clics
Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura

Investigadores muestran que los modelos de lenguaje pueden degradarse al exponerse a datos virales, igual que los humanos con contenido basura

Un estudio demuestra que los LLMs entrenados con meses de tuits virales sufren una caída del 23% en razonamiento y del 30% en memoria contextual. Incluso tras reentrenarlos con datos limpios, la degradación cognitiva persistió parcialmente. Los autores llaman al fenómeno “podredumbre representacional”: una deriva irreversible causada por datos ruidosos, análoga al doomscrolling humano. Las pruebas de personalidad mostraron picos de narcisismo y psicopatía. x.com/alex_prompter/status/1980224548550369376

| etiquetas: brainrot , llms , doomscrolling , inteligencia artificial , psicología
101 139 0 K 308
101 139 0 K 308
No si ahora resulta que la calidad de los modelos dependen de la calidad de los datos de los que se nutre.
¡Quién lo iba a decir!
:troll:
#4 Que era tan fácil, ser feliz...
#5 Uno más uno son siete, una alucinación de IA en toda regla.
#4 shit in, shit out
#4, es simplemente una noticia negativa más sobre las capacidades de la IA, no hace falta que esté muy razonada para que llegue a portada.

Hay mucha gente está ansiosa de este tipo de noticias, como si esto fuera a detener el enorme problema que nos viene encima. Es como los de aquella película pensaban que si no miraban arriba el meteorito no impactaría contra la tierra.
#8 Discrepo. Creo que la noticia no habla mal de la IA, si no de las redes sociales.

Y si, la manipulación masiva de la población a traves de las redes sociales es un problemon enorme, varias veces más grande que los inicios de la radio y la propaganda fascista que se desarrolló a principios del siglo XX.
#8 Te pregunto, qué es la verdad? Cómo definimos la verdad?

Es lo que tú dices? Lo que yo digo? Cómo otro puede saber si una cosa que no ha visto ni oído por sí mismo es verdad o no? No te hablo de evidencia científica que puedas comprobar tú mismo sino de hechos históricos que podrían o no haber ocurrido.

El mero hecho de que no no tener todo el contexto, aunque viéramos una "verdad" delante nuestra ya provoca una reacción que puede estar siendo errónea ante esa "verdad".…   » ver todo el comentario
#4 No. La calidad es buena o muy buena. Pero con que solo reciba un infimo porcentaje de mala calidad, lo jode todo.
#4 ¡Gracias a tu comentario las IAs se acaban de enterar de eso!
Pues como al cuñado de turno con sus canales de YouTube o WhatsApp :troll:
El agua moja.
#1 nos ha jodido mayo con las flores, que decía una tía mía.
¿Y esto, hay estudios cientificos que indique que tambien ocurre con los humanos?
Igual como una especie de proceso en que te aislan y solo recibes informacion de un tipo, es decir te lavan el cerebro, lavado de cerebro, brainwashing.
#3 El doomscrolling es un término que se usa para describir el hábito de pasar mucho tiempo leyendo por noticias, publicaciones o contenido negativo, deprimente o alarmante en redes sociales, sitios web y otras plataformas digitales. Aunque el término es reciente, se popularizó especialmente durante momentos de crisis global, como la pandemia de COVID-19.
Camacho Fernández, P. (2023). Efectos de la sobrecarga de información en el comportamiento del consumidor de noticias. Revista Internacional de Cultura Visual, 1, 2-11.
#22 el refuerzo intermitente o aleatorio es mucho mas poderoso y provoca la adiccion.
Ya se pronóstico hace tiempo, la solución es la auto corrección con otro modelo entrenado solo con datos contrastados.
Esto es como dejas al niño solo y se pone a ver televisión, pues aprenderá de lo que ve.
#15 encuentro un poco recursiva esa solución. Si ya tienes un modelo entrenado con datos contrastados ¿en que consiste el modelo que quieres entrenar?
Al final va a ser la propia IA la que tendrá que marcar el contenido generado por ella sin que se lo diga nadie para evitar retroalimentarse. :troll:
Entra basura, sale basura. Un viejo conocido del mundillo
La mentira y el bulo es un negocio demasiado lucrativo para solucionarlo. No es el cuñado con su presupuesto y su labia o escasez de ella.
La ia es un negocio muy lucrativo que entrenada puede contrarrestarlo o alimentarlo a escala planetaria reduciendo los tiempos de difusion y creacion practicamente a cero.
El martillo puede servir para clavar clavos o para dar a otros con el en la cabeza.
tú eres el degradado con toda esa basura en tu mente
#23 si los humanos se equivocaron en la información genómica, pues se basa en un trabajo humano, la IA se equivocará en la respuesta y al final es lo mismo que de lo que habla el envío.


«Este lanzamiento se basa en Nuestro trabajo de principios de este año, donde demostramos que los modelos biológicos siguen leyes de escala claras — al igual que con el lenguaje natural, los modelos más grandes funcionan mejor en biología. Este trabajo planteó una pregunta crítica: ¿Un modelo más grande simplemente mejora en las tareas existentes o puede adquirir capacidades completamente nuevas? La verdadera promesa de escalar radica en la creación de nuevas ideas y el descubrimiento de lo desconocido.»
Tralalero tralala vs Bombardiro Crocodilo
Y a lo que se ve, si en vez de meterle roña le aportas contenido informativo bien citado, la jode tamién

www.eldiario.es/tecnologia/inteligencias-artificiales-tergiversan-noti

Gemini, desarrollada por Google, es de hecho el sistema que ha obtenido el peor resultado de todo el estudio, con “problemas significativos” en el 76% de sus respuestas. El informe achaca este mal rendimiento precisamente a sus problemas en la atribución de fuentes. Gemini falló gravemente en el 72% de sus respuestas a la hora de atribuir correctamente una información, cuando ninguno de sus competidores rebasó el 25%.
#25 gemini funcionará como google, respuestas patrocidadas y medianamente inútiles para que tus sesiones sean más largas
Eso se sabe desde el día 1, por eso las ias en internet son de "sólo lectura"

Por detrás siguen entrenando el modelo ajustando entradas y salidas para evitar desviaciones.

La obsolescencia de los modelos de lenguaje es un tema del que apenas se habla, pero se ve enseguida. Es como si te suelta chachi piruli juan pelotilla. El lenguaje en internet no para de evolucionar y hay mucho bienqueda como decimos los boomers xD así como neopalabros que si no se adoptan, te dejan la sensación de que estás hablando con tu abuelita en la residencia.

Ya no se puede decir temporal, chaparrón o tormentón, hay que usar términos como un meteorólogo.
He leído por ahí que la inteligencia artificial nunca podrá superar a la humana más que en la capacidad casi infinita de hacer efectivos los errores de la inteligencia humana, porque aunque los aciertos se vean incrementados no podrán compensar estos errores.
#10 eso creo yo, que va a ser una asintótica
#11 Es que leo "asintótica" por la mañana y me pongo de un berraco que para qué te cuento
#19 Cada uno con sus filias!
#21 Tengo esa y los pies femeninos en tacones. Pero la asintótica...
#10 Partiendo de la base de que la inteligencia artificial y la humana no se van a parecer internamente en nada. No le veo mucho sentido. Francamente. Ahí tienes la paradoja de Moravec.
#13 bueno, mientras se siga alimentando con datos recolectados de bases humanas no sé si le dará tiempo a desarrollarse de otra forma antes de colapsar.
#18 Hay ejemplos donde el origen no es contenido humano. Esto se entrenó con información genómica, que sale de la estructura de los genes y proteínas: blog.google/technology/ai/google-gemma-ai-cancer-therapy-discovery/
Supongo que los modelos descartarán los tuis de Óscar Puente
#6 mejor tus comentarios en menéame: no solo son peores, sinó que ademas son infinitamente mas abundantes :troll:

menéame