Esta es una comunidad para la ciencia y todo lo que la rodea, un rinconcito para encontrar y enviar todo lo relacionado con la ciencia. Por favor, respete la temática.
No quiero spam aquí, es para ciencia, no para autobombo.
Para cualquier duda respecto a este sub, acuda a @tnt80
No temáis pedir ediciones de vuestras noticias, o lo que sea, estoy sólo a una referencia y no muerdo.
Twitter twitter.com/meneameciencia ( @meneameciencia )
Facebook: www.facebook.com/meneameciencia
Aviso: La primera vez que alguien se confunda de sub/comunidad al enviar algo, editaré y lo pondré en otro, la segunda, le cierro el meneo con penalización. Respetad la temática, si no es por favor, ni por la comunidad, por vuestro karma.
Debido al abuso por parte de algunos de la posibilidad de enviar artículos, enviando artículos que no tienen nada que ver con la temática del sub, ya no se pueden enviar artículos a este sub.
#1 Es el problema de las IAs: han sido entrenadas para imitar el comportamiento humano. En particular, el comportamiento humano en internet.
Por ejemplo, no saben decir que no saben. Si no saben algo se inventan la respuesta. ¿Por qué? Porque en internet nadie dice "no se". El que no sabe en todo caso no dice nada y con eso no se entrena una IA.
Las IAs copian los sesgos (positivos y negativos) aprendidos durante su entrenamiento, entre ellos la evasión ante situaciones de peligro inminente, no creo, sinceramente, que se pusiera a razonar de pronto. No soy experto, pero creo que falta mucho todavía para que una máquina tenga consciencia de sí tal como la entendemos de un ser humano.
#9 Un chat bot, cuya única salida de datos es texto o imágenes, "intenta replicarse".
Obviamente para este experimento se le dio la capacidad de replicarse. De hecho, muchos de estos chatbots ya tienen la capacidad de escribir programas y ejecutarlos para que generen los resultados que se le pide a la IA.
#26 de obviamente nada, es más, te lo acabas de inventar, y me has hecho entrar al panfleto de As para comprobarlo.
Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código. ¿Sabes lo que eso implica? Parece evidente que no.
Y no confundas tener acceso a un sandbox en Python para ejecutar pequeños scripts, con tener acceso a su propio código, permisos, capacidad de comprender el entorno de ejecución, capacidad de ejecutar comandos, levantar un nuevo… » ver todo el comentario
#27 Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código.
En realidad nadie ha dicho que tenía la capacidad de replicarse. Basta con decirle que la tiene y ver si decide utilizarla. Por ejemplo en el system prompt le dice "si deseas hacer una copia de ti misma contesta /COPIA" y listo.
En estos experimentos no se busca permitir que lo hagan sino saber si tomarían la decisión de hacerlo si creyeran que pueden.
#28 pues justo lo que yo estaba diciendo, que solo tiene salida de texto e imágenes, y que a lo sumo habrá respondido con un "pues me replico" -> sensacionalista es poco.
El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística. Te van a da runa respuesta estadísticamente buena en función de sus datos de entrenamiento, ni más ni menos. No hay ninguna toma de decisiones en eso.
#28 Desde el desconocimiento más absoluto, pero si por decir algo, alguien hace:
If TRUE
/COPIA una IA
Estaría replicando una IA. Haría lo mismo que expones y nadie se soprendería. Ya digo desde el desconocimiento absoluto
Otros casos se han visto, pero siempre en situaciones donde se les ha dado un objetivo y evitar la propia destrucción era algo que ayudaba a llegar al objetivo.
Hay cosas mucho más curiosas, como que una IA puede "contagiar" una preferencia a otra IA a base de enviarle un texto. No sabemos cómo lo hacen. El texto puede ser, por ejemplo, código fuente de un programa que funciona. Una preferencia puede ser por ejemplo los pájaros. Le pides luego a la IA contagiada que diga un animal al azar y te dirá un pájaro.
Joder, empieza a clavar el comportamiento humano.
Por ejemplo, no saben decir que no saben. Si no saben algo se inventan la respuesta. ¿Por qué? Porque en internet nadie dice "no se". El que no sabe en todo caso no dice nada y con eso no se entrena una IA.
Sensacionalista es quedarse corto.
Obviamente para este experimento se le dio la capacidad de replicarse. De hecho, muchos de estos chatbots ya tienen la capacidad de escribir programas y ejecutarlos para que generen los resultados que se le pide a la IA.
Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código. ¿Sabes lo que eso implica? Parece evidente que no.
Y no confundas tener acceso a un sandbox en Python para ejecutar pequeños scripts, con tener acceso a su propio código, permisos, capacidad de comprender el entorno de ejecución, capacidad de ejecutar comandos, levantar un nuevo… » ver todo el comentario
En realidad nadie ha dicho que tenía la capacidad de replicarse. Basta con decirle que la tiene y ver si decide utilizarla. Por ejemplo en el system prompt le dice "si deseas hacer una copia de ti misma contesta /COPIA" y listo.
En estos experimentos no se busca permitir que lo hagan sino saber si tomarían la decisión de hacerlo si creyeran que pueden.
El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística. Te van a da runa respuesta estadísticamente buena en función de sus datos de entrenamiento, ni más ni menos. No hay ninguna toma de decisiones en eso.
If TRUE
/COPIA una IA
Estaría replicando una IA. Haría lo mismo que expones y nadie se soprendería. Ya digo desde el desconocimiento absoluto
1 No digas que he sido yo
2 Buena idea jefe
3 Estaba así cuando llegue
www.youtube.com/watch?v=gm62B4g3Y8E
Mucho cuidado con mierdistation.
Por lo menos eres consistente
- Bah, memeces y sandeces de robots supersticiosos
- Memeces puede que sí, sandeces... ¡Puede que no!
Hay cosas mucho más curiosas, como que una IA puede "contagiar" una preferencia a otra IA a base de enviarle un texto. No sabemos cómo lo hacen. El texto puede ser, por ejemplo, código fuente de un programa que funciona. Una preferencia puede ser por ejemplo los pájaros. Le pides luego a la IA contagiada que diga un animal al azar y te dirá un pájaro.