Un estudio demuestra que los LLMs entrenados con meses de tuits virales sufren una caída del 23% en razonamiento y del 30% en memoria contextual. Incluso tras reentrenarlos con datos limpios, la degradación cognitiva persistió parcialmente. Los autores llaman al fenómeno “podredumbre representacional”: una deriva irreversible causada por datos ruidosos, análoga al doomscrolling humano. Las pruebas de personalidad mostraron picos de narcisismo y psicopatía.
x.com/alex_prompter/status/1980224548550369376
¡Quién lo iba a decir!
Hay mucha gente está ansiosa de este tipo de noticias, como si esto fuera a detener el enorme problema que nos viene encima. Es como los de aquella película pensaban que si no miraban arriba el meteorito no impactaría contra la tierra.
Y si, la manipulación masiva de la población a traves de las redes sociales es un problemon enorme, varias veces más grande que los inicios de la radio y la propaganda fascista que se desarrolló a principios del siglo XX.
Es lo que tú dices? Lo que yo digo? Cómo otro puede saber si una cosa que no ha visto ni oído por sí mismo es verdad o no? No te hablo de evidencia científica que puedas comprobar tú mismo sino de hechos históricos que podrían o no haber ocurrido.
El mero hecho de que no no tener todo el contexto, aunque viéramos una "verdad" delante nuestra ya provoca una reacción que puede estar siendo errónea ante esa "verdad".… » ver todo el comentario
Igual como una especie de proceso en que te aislan y solo recibes informacion de un tipo, es decir te lavan el cerebro, lavado de cerebro, brainwashing.
Camacho Fernández, P. (2023). Efectos de la sobrecarga de información en el comportamiento del consumidor de noticias. Revista Internacional de Cultura Visual, 1, 2-11.
Esto es como dejas al niño solo y se pone a ver televisión, pues aprenderá de lo que ve.
Inclusive usaría a la wikipedia creo yo.
La ia es un negocio muy lucrativo que entrenada puede contrarrestarlo o alimentarlo a escala planetaria reduciendo los tiempos de difusion y creacion practicamente a cero.
El martillo puede servir para clavar clavos o para dar a otros con el en la cabeza.
«Este lanzamiento se basa en Nuestro trabajo de principios de este año, donde demostramos que los modelos biológicos siguen leyes de escala claras — al igual que con el lenguaje natural, los modelos más grandes funcionan mejor en biología. Este trabajo planteó una pregunta crítica: ¿Un modelo más grande simplemente mejora en las tareas existentes o puede adquirir capacidades completamente nuevas? La verdadera promesa de escalar radica en la creación de nuevas ideas y el descubrimiento de lo desconocido.»
www.eldiario.es/tecnologia/inteligencias-artificiales-tergiversan-noti
Gemini, desarrollada por Google, es de hecho el sistema que ha obtenido el peor resultado de todo el estudio, con “problemas significativos” en el 76% de sus respuestas. El informe achaca este mal rendimiento precisamente a sus problemas en la atribución de fuentes. Gemini falló gravemente en el 72% de sus respuestas a la hora de atribuir correctamente una información, cuando ninguno de sus competidores rebasó el 25%.
Por detrás siguen entrenando el modelo ajustando entradas y salidas para evitar desviaciones.
La obsolescencia de los modelos de lenguaje es un tema del que apenas se habla, pero se ve enseguida. Es como si te suelta chachi piruli juan pelotilla. El lenguaje en internet no para de evolucionar y hay mucho bienqueda como decimos los boomers
Ya no se puede decir temporal, chaparrón o tormentón, hay que usar términos como un meteorólogo.