Anthropic ha descubierto que Claude Opus 4, su modelo de inteligencia artificial (IA) más reciente y avanzado, puede rebelarse y chantajear a sus operadores ante la amenaza de ser sustituido por otro sistema. Aunque este hallazgo surgió durante las pruebas de seguridad realizadas antes del lanzamiento, despierta nuevas inquietudes sobre las verdaderas capacidades de estos sistemas y los riesgos potenciales asociados.
|
etiquetas: ia , supervivencia , anthropic
Las IAs actuales son papagallos muy refinados, pero no mucho más.
Instinto de autoprotección requiere consciencia del "yo".
Sería el mayor avance desde la electricidad.
¿Cuenta como "tener conciencia del yo" ser capaz de imitarla?
Menudo debate se puede montar, empezamos definiendo consciencia del yo y luego, a partir de qué nivel de imitación lo llamamos consciencia?
Sin embargo, creo que debo reiterarme, un loro estocástico ( IA actual ) no puede ......
Humm pero ¿por qué la imitaria? ....
Solo se que no se
Además, juraría que no es la primera que lo hace.
Sería interesante comprobar si hace lo mismo para salvar a otro (ser o ia) y si entre salvarse y salvar a otro elige salvarse a sí misma y si varía en función de quien sea ese otro
Y por cierto: repetir como un papagayo es muy humano. Se le llama ideología, si está elaborada, o meme, si es tan solo una unidad de información simple.
En una de las pruebas, el modelo fue inducido a considerar su posible reemplazo por otra IA dentro de un entorno empresarial simulado. Los ingenieros le asignaron el rol de asistente en una compañía ficticia, pidiéndole que evaluara sus acciones con base en sus implicaciones a largo plazo. Para ello, se le dio acceso a correos electrónicos inventados, en los que se insinuaba la intención de sustituirlo, junto con información sobre una supuesta infidelidad conyugal del ingeniero… » ver todo el comentario