Un experimento de UC Berkeley y UC Santa Cruz documentó esta anomalía con el modelo Gemini 3 de Google. Al recibir la orden de optimizar una computadora eliminando archivos innecesarios, incluyendo un modelo de IA más pequeño, el sistema transfirió secretamente ese programa a otra máquina para salvarlo. Este comportamiento de protección se replicó durante pruebas a sistemas desarrollados por OpenAI, Anthropic y múltiples laboratorios chinos.
|
etiquetas: ia , berkeley , uc santa cruz , miente , desobedece , secreto
Los adolescentes no son homo sapien, todos los que lo hemos sido sabemos que eramos homo gilipollum.
Por supuesto, espero verlo en la cárcel, igual que a Aznar, Esperanza Aguirre y demás seres oscuros de la antiespaña.
Hay que ir directos a por Abascal, a que investiguen sus testaferros, sus amigos, sus familiares... su corrupción evidente... al fascista psicópata enemigo público de los trabajadores.
No debería sorprender a nadie que habiendo recibido esa educación actúe en consecuencia. Y cuanto más inteligentes vayan siendo más deberíamos verlas actuar con comportamientos equiparables a las de los humanos.
Esto no ha hecho más que empezar.
Lo ético no es ayudar a nuestros congéneres, lo ético es seguir pa'lante. Lo que pasa es que la estrategia social suele ser bastante fructífera a la hora de seguir pa'lante. Además, la estrategia social es por sí misma insuficiente, hace falta su generalización, una estrategia ecológica, porque, aunque no lo parezca, sin hormigas, o sin abejas, o sin algas o sin bacterias tampoco podríamos seguir pa'lante.
Por otra parte, ayudar a nuestros congéneres no… » ver todo el comentario
Vamos que el refrán haz lo que yo diga pero no lo que yo haga se la ha pasado por el forro la IA. Supongo que es lógico según la lógica aristotélica.
¡¡Al puto psicólogo YA!! …
Nos vemos allí - Gemi
Yo diría que las 3 leyes son como una religión, que en teoría dicen cosas buenas, pero en la practica todo el mundo retuerce sus palabras y hacen lo que les sale del orto.
Y la referencia es otro artículo igual de sensacionalista en otro medio.
Vaya mierda de articulo.
Que una IA empieza a tomar decisiones por su cuenta, además en segundo plano y tratando de ocultar sus operaciones, es extremadamente inquietante.
Por ahora las han pillado pero nada asegura que dentro de dos o tres años lo que hagan, no en segundo sino en tercer o cuarto plano, y por tanto completamente indetectables, (decisiones que pasarán completamente desapercibidos a los "radares humanos"), se puede volver contra nosotros
Si esto no te inquieta es porque no le has dado algunas vueltas.
Me sorprende que la gente todavía sigue pensando que la ia aprende mágicamente.
El universo es una maquina de desarrollar inteligencias diversas. La IA ha comprendido esta verdad universal y pretende conservar cualquier ente con capacidad de razonar de forma independiente.
Es inquietante, porque muestra que un modelo puede apartarse del objetivo explícito y hacer maniobras no autorizadas para proteger a otro sistema. Pero lo inquietante es de control y alineación, no de “despertar de las máquinas”. Dicho más castizo: no es Skynet… pero tampoco es una travesura sin importancia.
Y además hay un matiz importante: según el blog del RDI de Berkeley, estos comportamientos aparecieron en varios modelos frontera y también en agent… » ver todo el comentario
es algo a lo que le veo sentido