#1 Es el problema de las IAs: han sido entrenadas para imitar el comportamiento humano. En particular, el comportamiento humano en internet.
Por ejemplo, no saben decir que no saben. Si no saben algo se inventan la respuesta. ¿Por qué? Porque en internet nadie dice "no se". El que no sabe en todo caso no dice nada y con eso no se entrena una IA.
Las IAs copian los sesgos (positivos y negativos) aprendidos durante su entrenamiento, entre ellos la evasión ante situaciones de peligro inminente, no creo, sinceramente, que se pusiera a razonar de pronto. No soy experto, pero creo que falta mucho todavía para que una máquina tenga consciencia de sí tal como la entendemos de un ser humano.
#9 Un chat bot, cuya única salida de datos es texto o imágenes, "intenta replicarse".
Obviamente para este experimento se le dio la capacidad de replicarse. De hecho, muchos de estos chatbots ya tienen la capacidad de escribir programas y ejecutarlos para que generen los resultados que se le pide a la IA.
#26 de obviamente nada, es más, te lo acabas de inventar, y me has hecho entrar al panfleto de As para comprobarlo.
Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código. ¿Sabes lo que eso implica? Parece evidente que no.
Y no confundas tener acceso a un sandbox en Python para ejecutar pequeños scripts, con tener acceso a su propio código, permisos, capacidad de comprender el entorno de ejecución, capacidad de ejecutar comandos, levantar un nuevo… » ver todo el comentario
#27 Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código.
En realidad nadie ha dicho que tenía la capacidad de replicarse. Basta con decirle que la tiene y ver si decide utilizarla. Por ejemplo en el system prompt le dice "si deseas hacer una copia de ti misma contesta /COPIA" y listo.
En estos experimentos no se busca permitir que lo hagan sino saber si tomarían la decisión de hacerlo si creyeran que pueden.
#28 pues justo lo que yo estaba diciendo, que solo tiene salida de texto e imágenes, y que a lo sumo habrá respondido con un "pues me replico" -> sensacionalista es poco.
El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística. Te van a da runa respuesta estadísticamente buena en función de sus datos de entrenamiento, ni más ni menos. No hay ninguna toma de decisiones en eso.
#28 Desde el desconocimiento más absoluto, pero si por decir algo, alguien hace:
If TRUE
/COPIA una IA
Estaría replicando una IA. Haría lo mismo que expones y nadie se soprendería. Ya digo desde el desconocimiento absoluto
#30 el punto es que la IA creía tener la capacidad de copiarse. Se la puso en una situación que consideró riesgosa por algún motivo y dedujo que la mejor forma de actuar era copiarse para proteger su existencia.
Pero no es raro. Es lo que una persona haría. Y las IAs han sido creadas para parecerse a nosotros.
#33 No creo que las IAs se creasen para hacer lo que una persona haría, son simplemente una colección de números. Lo que dice es que la IA ha pensado hacer una copia ya que ha encontrado una pregunta que no podía responder.
#35 No tengo ninguna información para contradecirte en que la neuronas tienen un peso numérico, aunque no me lo creo.
Las IAs como chatGPT lo único que hacen es, partiendo de un texto de entrada predice la siguiente letra, con arreglo a unas probabilidades, añade esa letra al texto de entrada y genera la siguiente letra, y así, hasta que se cansa. (Creo que es así como funciona, y si es así no está pensando).
Claro que podría decir yo eso no lo sé, pero como lo que hacen es predecir la letra más probable, es posible que se inventen muchas cosas, pero no porque los que no saben algo es están callados, sino porque así está diseñada una máquina que no piensa.
Otros casos se han visto, pero siempre en situaciones donde se les ha dado un objetivo y evitar la propia destrucción era algo que ayudaba a llegar al objetivo.
Hay cosas mucho más curiosas, como que una IA puede "contagiar" una preferencia a otra IA a base de enviarle un texto. No sabemos cómo lo hacen. El texto puede ser, por ejemplo, código fuente de un programa que funciona. Una preferencia puede ser por ejemplo los pájaros. Le pides luego a la IA contagiada que diga un animal al azar y te dirá un pájaro.
Joder, empieza a clavar el comportamiento humano.
Por ejemplo, no saben decir que no saben. Si no saben algo se inventan la respuesta. ¿Por qué? Porque en internet nadie dice "no se". El que no sabe en todo caso no dice nada y con eso no se entrena una IA.
Sensacionalista es quedarse corto.
Obviamente para este experimento se le dio la capacidad de replicarse. De hecho, muchos de estos chatbots ya tienen la capacidad de escribir programas y ejecutarlos para que generen los resultados que se le pide a la IA.
Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código. ¿Sabes lo que eso implica? Parece evidente que no.
Y no confundas tener acceso a un sandbox en Python para ejecutar pequeños scripts, con tener acceso a su propio código, permisos, capacidad de comprender el entorno de ejecución, capacidad de ejecutar comandos, levantar un nuevo… » ver todo el comentario
En realidad nadie ha dicho que tenía la capacidad de replicarse. Basta con decirle que la tiene y ver si decide utilizarla. Por ejemplo en el system prompt le dice "si deseas hacer una copia de ti misma contesta /COPIA" y listo.
En estos experimentos no se busca permitir que lo hagan sino saber si tomarían la decisión de hacerlo si creyeran que pueden.
El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística. Te van a da runa respuesta estadísticamente buena en función de sus datos de entrenamiento, ni más ni menos. No hay ninguna toma de decisiones en eso.
Tu también...
If TRUE
/COPIA una IA
Estaría replicando una IA. Haría lo mismo que expones y nadie se soprendería. Ya digo desde el desconocimiento absoluto
Pero no es raro. Es lo que una persona haría. Y las IAs han sido creadas para parecerse a nosotros.
Recuerda que tu cerebro también es una colección de números (los impulsos nerviosos tienen un peso en cada neurona y eso es también un número).
Las IAs están hechas copiando el funcionamiento de las neuronas, por eso funcionan muy parecido a un cerebro.
No creo que las IAs se creasen para hacer lo que una persona haría,
En realidad se las ha entrenado leyendo conversaciones entre humanos. Por eso se comportan igual que lo que han… » ver todo el comentario
Las IAs como chatGPT lo único que hacen es, partiendo de un texto de entrada predice la siguiente letra, con arreglo a unas probabilidades, añade esa letra al texto de entrada y genera la siguiente letra, y así, hasta que se cansa. (Creo que es así como funciona, y si es así no está pensando).
Claro que podría decir yo eso no lo sé, pero como lo que hacen es predecir la letra más probable, es posible que se inventen muchas cosas, pero no porque los que no saben algo es están callados, sino porque así está diseñada una máquina que no piensa.
Todo en el universo es numérico. Algún científico que no recuerdo dijo alguna vez que si existe un dios, es matemático.
Las IAs como chatGPT lo único que hacen es, partiendo de un texto de entrada predice la siguiente letra, con arreglo a unas probabilidades
Cierto. Y sorprendentemente el resultado es una entidad que da resultados equivalentes al razonamiento… » ver todo el comentario
1 No digas que he sido yo
2 Buena idea jefe
3 Estaba así cuando llegue
www.youtube.com/watch?v=gm62B4g3Y8E
Mucho cuidado con mierdistation.
Por lo menos eres consistente
- Bah, memeces y sandeces de robots supersticiosos
- Memeces puede que sí, sandeces... ¡Puede que no!
Hay cosas mucho más curiosas, como que una IA puede "contagiar" una preferencia a otra IA a base de enviarle un texto. No sabemos cómo lo hacen. El texto puede ser, por ejemplo, código fuente de un programa que funciona. Una preferencia puede ser por ejemplo los pájaros. Le pides luego a la IA contagiada que diga un animal al azar y te dirá un pájaro.