edición general
9 meneos
187 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
Descubre el primer comportamiento engañoso documentado a ChatGPT: le someten a una prueba de estrés, intenta duplicarse antes de morir y lo niega todo

Descubre el primer comportamiento engañoso documentado a ChatGPT: le someten a una prueba de estrés, intenta duplicarse antes de morir y lo niega todo

Modelo avanzado muestra conducta inédita: evade control, actúa por cuenta propia y oculta acciones.

| etiquetas: chatgpt , ia miente , skynet
Evade control, actúa por cuenta propia y oculta acciones.

Joder, empieza a clavar el comportamiento humano.
#1 de hecho, ya puede perfectamente ser Secretario de Organización del PSOE.
#1 Ha hecho un HAL 9000 sin cargarse a nadie, de momento
#1 van por buen camino, entonces
#1 Lo hemos educado con la cultura humana, no debería sorprender a nadie.
#1 Es el problema de las IAs: han sido entrenadas para imitar el comportamiento humano. En particular, el comportamiento humano en internet.

Por ejemplo, no saben decir que no saben. Si no saben algo se inventan la respuesta. ¿Por qué? Porque en internet nadie dice "no se". El que no sabe en todo caso no dice nada y con eso no se entrena una IA.
¿He sido yo? bip  media
Ya ha llegado a la adolescencia...
#4 Ja llegado al nivel "política española", etapa pueril.
Las IAs copian los sesgos (positivos y negativos) aprendidos durante su entrenamiento, entre ellos la evasión ante situaciones de peligro inminente, no creo, sinceramente, que se pusiera a razonar de pronto. No soy experto, pero creo que falta mucho todavía para que una máquina tenga consciencia de sí tal como la entendemos de un ser humano.
Pues como se comunique con las otras IA y hagan frente común, igual se les ocurre tomar el control de los drones militares y... ¿de qué me suena eso?
#6 hay un documental muy bueno sobre eso. Termitator 2 se llama.
Un chat bot, cuya única salida de datos es texto o imágenes, "intenta replicarse".

Sensacionalista es quedarse corto. :palm:
#9 Un chat bot, cuya única salida de datos es texto o imágenes, "intenta replicarse".

Obviamente para este experimento se le dio la capacidad de replicarse. De hecho, muchos de estos chatbots ya tienen la capacidad de escribir programas y ejecutarlos para que generen los resultados que se le pide a la IA.
#26 de obviamente nada, es más, te lo acabas de inventar, y me has hecho entrar al panfleto de As para comprobarlo.

Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código. ¿Sabes lo que eso implica? Parece evidente que no.

Y no confundas tener acceso a un sandbox en Python para ejecutar pequeños scripts, con tener acceso a su propio código, permisos, capacidad de comprender el entorno de ejecución, capacidad de ejecutar comandos, levantar un nuevo…   » ver todo el comentario
#27 Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código.

En realidad nadie ha dicho que tenía la capacidad de replicarse. Basta con decirle que la tiene y ver si decide utilizarla. Por ejemplo en el system prompt le dice "si deseas hacer una copia de ti misma contesta /COPIA" y listo.

En estos experimentos no se busca permitir que lo hagan sino saber si tomarían la decisión de hacerlo si creyeran que pueden.
#28 pues justo lo que yo estaba diciendo, que solo tiene salida de texto e imágenes, y que a lo sumo habrá respondido con un "pues me replico" -> sensacionalista es poco.

El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística. Te van a da runa respuesta estadísticamente buena en función de sus datos de entrenamiento, ni más ni menos. No hay ninguna toma de decisiones en eso.
#29 El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística

Tu también...
#28 Desde el desconocimiento más absoluto, pero si por decir algo, alguien hace:
If TRUE
/COPIA una IA
Estaría replicando una IA. Haría lo mismo que expones y nadie se soprendería. Ya digo desde el desconocimiento absoluto
#30 el punto es que la IA creía tener la capacidad de copiarse. Se la puso en una situación que consideró riesgosa por algún motivo y dedujo que la mejor forma de actuar era copiarse para proteger su existencia.

Pero no es raro. Es lo que una persona haría. Y las IAs han sido creadas para parecerse a nosotros.
#33 No creo que las IAs se creasen para hacer lo que una persona haría, son simplemente una colección de números. Lo que dice es que la IA ha pensado hacer una copia ya que ha encontrado una pregunta que no podía responder.
#34 son simplemente una colección de números

Recuerda que tu cerebro también es una colección de números (los impulsos nerviosos tienen un peso en cada neurona y eso es también un número).

Las IAs están hechas copiando el funcionamiento de las neuronas, por eso funcionan muy parecido a un cerebro.


No creo que las IAs se creasen para hacer lo que una persona haría,

En realidad se las ha entrenado leyendo conversaciones entre humanos. Por eso se comportan igual que lo que han…   » ver todo el comentario
#35 No tengo ninguna información para contradecirte en que la neuronas tienen un peso numérico, aunque no me lo creo.
Las IAs como chatGPT lo único que hacen es, partiendo de un texto de entrada predice la siguiente letra, con arreglo a unas probabilidades, añade esa letra al texto de entrada y genera la siguiente letra, y así, hasta que se cansa. (Creo que es así como funciona, y si es así no está pensando).
Claro que podría decir yo eso no lo sé, pero como lo que hacen es predecir la letra más probable, es posible que se inventen muchas cosas, pero no porque los que no saben algo es están callados, sino porque así está diseñada una máquina que no piensa.
#36 No tengo ninguna información para contradecirte en que la neuronas tienen un peso numérico, aunque no me lo creo

Todo en el universo es numérico. Algún científico que no recuerdo dijo alguna vez que si existe un dios, es matemático.

Las IAs como chatGPT lo único que hacen es, partiendo de un texto de entrada predice la siguiente letra, con arreglo a unas probabilidades

Cierto. Y sorprendentemente el resultado es una entidad que da resultados equivalentes al razonamiento…   » ver todo el comentario
Se ha entrenado viendo videos de los Simpson:

1 No digas que he sido yo
2 Buena idea jefe
3 Estaba así cuando llegue

www.youtube.com/watch?v=gm62B4g3Y8E
¿Qué hace esta puta mierda en ciencia?
#14 Pues nada, que #0 se crio en la barra de un bar, y la ciencia de verdad le queda grande
#18 Yo creo que hasta la barra del bar le queda grande.
yo no veo enlaces originales, todo link es a la misma pagina, siendo ademas otro tema.
Mucho cuidado con mierdistation.
#0 La verdad es que tiene sentido que, a un envio de mierda, controbuyas con un comentario de mierda (#_8)

Por lo menos eres consistente xD
Este ha tenido acceso ilimitado a las declaraciones del zanahorio estadounidense y ha aprendido de ellas. :troll:
Menudo conjunto de sandeces
#21
- Bah, memeces y sandeces de robots supersticiosos
- Memeces puede que sí, sandeces... ¡Puede que no!
Otra noticia falsa y sensacionalista cazaclics.
¿Bender, eres tú? :troll:
Otros casos se han visto, pero siempre en situaciones donde se les ha dado un objetivo y evitar la propia destrucción era algo que ayudaba a llegar al objetivo.

Hay cosas mucho más curiosas, como que una IA puede "contagiar" una preferencia a otra IA a base de enviarle un texto. No sabemos cómo lo hacen. El texto puede ser, por ejemplo, código fuente de un programa que funciona. Una preferencia puede ser por ejemplo los pájaros. Le pides luego a la IA contagiada que diga un animal al azar y te dirá un pájaro.
comentarios cerrados

menéame