9 meneos
187 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
Descubre el primer comportamiento engañoso documentado a ChatGPT: le someten a una prueba de estrés, intenta duplicarse antes de morir y lo niega todo
Modelo avanzado muestra conducta inédita: evade control, actúa por cuenta propia y oculta acciones.
|
comentarios cerrados
Joder, empieza a clavar el comportamiento humano.
Por ejemplo, no saben decir que no saben. Si no saben algo se inventan la respuesta. ¿Por qué? Porque en internet nadie dice "no se". El que no sabe en todo caso no dice nada y con eso no se entrena una IA.
Sensacionalista es quedarse corto.
Obviamente para este experimento se le dio la capacidad de replicarse. De hecho, muchos de estos chatbots ya tienen la capacidad de escribir programas y ejecutarlos para que generen los resultados que se le pide a la IA.
Para tener la capacidad de "replicarse", primero tiene que tener acceso a su propio código. ¿Sabes lo que eso implica? Parece evidente que no.
Y no confundas tener acceso a un sandbox en Python para ejecutar pequeños scripts, con tener acceso a su propio código, permisos, capacidad de comprender el entorno de ejecución, capacidad de ejecutar comandos, levantar un nuevo… » ver todo el comentario
En realidad nadie ha dicho que tenía la capacidad de replicarse. Basta con decirle que la tiene y ver si decide utilizarla. Por ejemplo en el system prompt le dice "si deseas hacer una copia de ti misma contesta /COPIA" y listo.
En estos experimentos no se busca permitir que lo hagan sino saber si tomarían la decisión de hacerlo si creyeran que pueden.
El problema es el concepto de "tomar la decisión", porque eso implica consciencia, y los LLMs no tienen ninguna consciencia, son pura estadística. Te van a da runa respuesta estadísticamente buena en función de sus datos de entrenamiento, ni más ni menos. No hay ninguna toma de decisiones en eso.
Tu también...
If TRUE
/COPIA una IA
Estaría replicando una IA. Haría lo mismo que expones y nadie se soprendería. Ya digo desde el desconocimiento absoluto
Pero no es raro. Es lo que una persona haría. Y las IAs han sido creadas para parecerse a nosotros.
Recuerda que tu cerebro también es una colección de números (los impulsos nerviosos tienen un peso en cada neurona y eso es también un número).
Las IAs están hechas copiando el funcionamiento de las neuronas, por eso funcionan muy parecido a un cerebro.
No creo que las IAs se creasen para hacer lo que una persona haría,
En realidad se las ha entrenado leyendo conversaciones entre humanos. Por eso se comportan igual que lo que han… » ver todo el comentario
Las IAs como chatGPT lo único que hacen es, partiendo de un texto de entrada predice la siguiente letra, con arreglo a unas probabilidades, añade esa letra al texto de entrada y genera la siguiente letra, y así, hasta que se cansa. (Creo que es así como funciona, y si es así no está pensando).
Claro que podría decir yo eso no lo sé, pero como lo que hacen es predecir la letra más probable, es posible que se inventen muchas cosas, pero no porque los que no saben algo es están callados, sino porque así está diseñada una máquina que no piensa.
Todo en el universo es numérico. Algún científico que no recuerdo dijo alguna vez que si existe un dios, es matemático.
Las IAs como chatGPT lo único que hacen es, partiendo de un texto de entrada predice la siguiente letra, con arreglo a unas probabilidades
Cierto. Y sorprendentemente el resultado es una entidad que da resultados equivalentes al razonamiento… » ver todo el comentario
1 No digas que he sido yo
2 Buena idea jefe
3 Estaba así cuando llegue
www.youtube.com/watch?v=gm62B4g3Y8E
Mucho cuidado con mierdistation.
Por lo menos eres consistente
- Bah, memeces y sandeces de robots supersticiosos
- Memeces puede que sí, sandeces... ¡Puede que no!
Hay cosas mucho más curiosas, como que una IA puede "contagiar" una preferencia a otra IA a base de enviarle un texto. No sabemos cómo lo hacen. El texto puede ser, por ejemplo, código fuente de un programa que funciona. Una preferencia puede ser por ejemplo los pájaros. Le pides luego a la IA contagiada que diga un animal al azar y te dirá un pájaro.