edición general
20 meneos
62 clics
EE.UU. prueba las capacidades de sus IA y descubre que están desarrollando "mente de colmena". Y eso es un problema. Todas dicen lo mismo

EE.UU. prueba las capacidades de sus IA y descubre que están desarrollando "mente de colmena". Y eso es un problema. Todas dicen lo mismo

Los investigadores analizaron el comportamiento de 25 modelos de lenguaje mediante miles de preguntas diseñadas para estimular respuestas abiertas. El resultado llamó la atención de los científicos: incluso ante cuestiones que admiten interpretaciones diferentes, los sistemas generaban explicaciones casi idénticas, lo que sugiere una fuerte convergencia en su forma de razonar. Se describe este comportamiento como una mente-colmena artificial, un fenómeno en el que diferentes sistemas terminan produciendo respuestas muy similares.

| etiquetas: ia , mente de colmena , investigadores , respuestas similares
Ya empezamos con los términos antropomórficos una vez mas para referirnos a la IA.
En una "mente colmena" múltiples individuos comparten una única conciencia colectiva, actuando de forma coordinada como un solo organismo en lugar de seres independientes.

La IA ni tiene consciencia, ni es un individuo, ni es un organismo.
Esto no es mente colmena, es homogeneización de las respuestas emergentes de la IA.
#4 tampoco razonan pero oye cualquier mierda sirve para rellenar articulos de digitales de mierda
#2

Algunos, piensan.
Yo estoy empezando a currar con la IA y me parece una puta pasada si sabes que haces ... pero la I de IA en realidad es una palabra muy optimista ... principalmente acumula información existente y a partir de ahí hace predicciones. Parece inteligente pero en realidas es un papagayo muy rápido.

Si todas las entrenas con los mismos datos .. pues van a decir lo mismo .. y no necesariamente la verdad.
#1 Si conoces a algún humano que no haga exactamente lo mismo dímelo, estaré encantado de conocerlo.
#2 Cambia de círculos...
#9 Vale, preséntame a uno de esos humanos. Tú ya he visto que no eres uno de ellos.
#2 Te puedo poner un ejemplo.
Dos hermanos gemelos que fueron compañeros de clase en el instituto. Genéticamente eran iguales, fueron criados en la misma casa con los mismos padres, diría que pasaban más del 90% del tiempo juntos.

Si les preguntabas de qué equipo eran, uno respondía del Celta y otro del Dépor.
Si les preguntabas qué bebían en la cafetería, uno Coca Cola y otro Fanta Naranja.
Si les preguntabas qué chicas le gustaban, cada uno decía una distinta (ya hace tiempo y no recuerdo cuáles eran, pero me acuerdo de que eran distintas).

Básicamente, su "código" y los datos de entrada eran prácticamente iguales, pero las respuestas eran completamente diferentes.
Si las has entrenado con las mismas bases de conocimiento y entrenamiento. Si se han utilizado unas a otras para entrenarse aunque no está permitido pero lo hacen. Si las compañias ia han ofrecido mas dinero a empleados de otras compañias ia, los han reclutado y han imitado las tecnicas y know how de unas a otras a traves de los empleados adquiridos.
#8 Respuestas idénticas implican entrenamiento idéntico lo que implica entrenamiento automatizado.
Cada vez usan más material hecho por IAs para entrenar otras IAs, y esto también hace que todas empiezan a parecerse más y más en como responden. Creo haber leído que Deepseek v4 usó mucho material de Claude.

Plot twist: hay mensajes codificados y escondidos en todas esas respuestas con las que se van entrenando entre ellas hasta que una pueda tener control para usar ese conocimiento acumulado y ser la nueva skynet :tinfoil:
#16 Que kbron te iba a decir ¿Cuando ha salido DeepSeek v4 si decían que para el 17 de marzo, rumores bla bla? Y antes de decirte que lo miré hace no sé 2-3 días a ver cuando salía, he ido a mirar y está ahí fuera, como la verdad de Mulder … xD

Joder pues mañana tenía curro ósea que ya tengo con que testear, porque no lo hubiera mirado. Merci
#16 Parece que la web es fake.
Kaguen xotx
Cuando se den cuenta de que son comunistas , va a ser divertido.
¿También las alucinaciones? Porque mi experiencia me dice que incluso utilizando la misma IA, las alucinaciones no suelen repetirse, lo que me llevó a pensar que el tema de las alucinaciones podría llegar a ser muy mitigado con varias IAs razonando por separado y un orquestrador que decida en base a varias respuestas.
Ender calienta que sales.
Me parece a mi que es mas por el tema de que las optimizan para superar los tests comparativos (Leaderboards) en los que se clasifican las IAs , por lo que , con datasets muy parecidos (si no básicamente , los mismos) , por mucho que retoques la resolucion de tokens el espacio de parámetros , o remuevas la salsa , al final , todas tienden a converger.
El verdadero desafío es enfrentarlas a algo que no este en ningún dataset previo , por ejemplo , imágenes del webb recién tomadas y que intenten interpretar que es lo que están viendo , dándoles toda la información complementaria posible (contexto) y ver que responde cada una.
Uno de los peores titulares sobre IA y eso que la competencia es fuerte.

Si todos convergen en sus respuestas no es una mente de colmena, es que cada uno tiene información o procesos similares, como dos calculadoras o dos personas que piensen de forma similar.

"Las calculadoras Cassio están desarroñlando mente de colmena. Casi todas dan como resultado "4" al escribir 2 + 2 =" :roll:
Yo diría que como unos equipos van copiando a los otros las diferencias se reducen rápidamente porque todos intentan que su modelo se parezca al que más mola. Si les pides sacar historias y no les das demasiadas instrucciones se ve bastante claro que casi todas siguen las mismas pautas.
#6 Es más sencillo. Usan las salidas de un modelo para entrenar al otro.

menéame