Noticias de ciencia y lo que la rodea
9 meneos
173 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
Descubre el primer comportamiento engañoso documentado a ChatGPT: le someten a una prueba de estrés, intenta duplicarse antes de morir y lo niega todo

Descubre el primer comportamiento engañoso documentado a ChatGPT: le someten a una prueba de estrés, intenta duplicarse antes de morir y lo niega todo

Modelo avanzado muestra conducta inédita: evade control, actúa por cuenta propia y oculta acciones.

| etiquetas: chatgpt , ia miente , skynet
Evade control, actúa por cuenta propia y oculta acciones.

Joder, empieza a clavar el comportamiento humano.
#1 de hecho, ya puede perfectamente ser Secretario de Organización del PSOE.
#1 Ha hecho un HAL 9000 sin cargarse a nadie, de momento
#1 van por buen camino, entonces
#1 Lo hemos educado con la cultura humana, no debería sorprender a nadie.
#1 Es el problema de las IAs: han sido entrenadas para imitar el comportamiento humano. En particular, el comportamiento humano en internet.

Por ejemplo, no saben decir que no saben. Si no saben algo se inventan la respuesta. ¿Por qué? Porque en internet nadie dice "no se". El que no sabe en todo caso no dice nada y con eso no se entrena una IA.
¿He sido yo? bip  media
Ya ha llegado a la adolescencia...
#4 Ja llegado al nivel "política española", etapa pueril.
Las IAs copian los sesgos (positivos y negativos) aprendidos durante su entrenamiento, entre ellos la evasión ante situaciones de peligro inminente, no creo, sinceramente, que se pusiera a razonar de pronto. No soy experto, pero creo que falta mucho todavía para que una máquina tenga consciencia de sí tal como la entendemos de un ser humano.
Pues como se comunique con las otras IA y hagan frente común, igual se les ocurre tomar el control de los drones militares y... ¿de qué me suena eso?
#6 hay un documental muy bueno sobre eso. Termitator 2 se llama.
Un chat bot, cuya única salida de datos es texto o imágenes, "intenta replicarse".

Sensacionalista es quedarse corto. :palm:
#9 Un chat bot, cuya única salida de datos es texto o imágenes, "intenta replicarse".

Obviamente para este experimento se le dio la capacidad de replicarse. De hecho, muchos de estos chatbots ya tienen la capacidad de escribir programas y ejecutarlos para que generen los resultados que se le pide a la IA.
#26 de obviamente nada, es más, te lo acabas de inventar, y me has hecho entrar al panfleto de As para comprobarlo.

Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código. ¿Sabes lo que eso implica? Parece evidente que no.

Y no confundas tener acceso a un sandbox en Python para ejecutar pequeños scripts, con tener acceso a su propio código, permisos, capacidad de comprender el entorno de ejecución, capacidad de ejecutar comandos, levantar un nuevo…   » ver todo el comentario
#27 Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código.

En realidad nadie ha dicho que tenía la capacidad de replicarse. Basta con decirle que la tiene y ver si decide utilizarla. Por ejemplo en el system prompt le dice "si deseas hacer una copia de ti misma contesta /COPIA" y listo.

En estos experimentos no se busca permitir que lo hagan sino saber si tomarían la decisión de hacerlo si creyeran que pueden.
#28 pues justo lo que yo estaba diciendo, que solo tiene salida de texto e imágenes, y que a lo sumo habrá respondido con un "pues me replico" -> sensacionalista es poco.

El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística. Te van a da runa respuesta estadísticamente buena en función de sus datos de entrenamiento, ni más ni menos. No hay ninguna toma de decisiones en eso.
#28 Desde el desconocimiento más absoluto, pero si por decir algo, alguien hace:
If TRUE
/COPIA una IA
Estaría replicando una IA. Haría lo mismo que expones y nadie se soprendería. Ya digo desde el desconocimiento absoluto
Se ha entrenado viendo videos de los Simpson:

1 No digas que he sido yo
2 Buena idea jefe
3 Estaba así cuando llegue

www.youtube.com/watch?v=gm62B4g3Y8E
¿Qué hace esta puta mierda en ciencia?
#14 Pues nada, que #0 se crio en la barra de un bar, y la ciencia de verdad le queda grande
#18 Yo creo que hasta la barra del bar le queda grande.
yo no veo enlaces originales, todo link es a la misma pagina, siendo ademas otro tema.
Mucho cuidado con mierdistation.
#0 La verdad es que tiene sentido que, a un envio de mierda, controbuyas con un comentario de mierda (#_8)

Por lo menos eres consistente xD
Este ha tenido acceso ilimitado a las declaraciones del zanahorio estadounidense y ha aprendido de ellas. :troll:
Menudo conjunto de sandeces
#21
- Bah, memeces y sandeces de robots supersticiosos
- Memeces puede que sí, sandeces... ¡Puede que no!
Otra noticia falsa y sensacionalista cazaclics.
¿Bender, eres tú? :troll:
Otros casos se han visto, pero siempre en situaciones donde se les ha dado un objetivo y evitar la propia destrucción era algo que ayudaba a llegar al objetivo.

Hay cosas mucho más curiosas, como que una IA puede "contagiar" una preferencia a otra IA a base de enviarle un texto. No sabemos cómo lo hacen. El texto puede ser, por ejemplo, código fuente de un programa que funciona. Una preferencia puede ser por ejemplo los pájaros. Le pides luego a la IA contagiada que diga un animal al azar y te dirá un pájaro.

menéame