Hace 4 horas | Por sxentinel a genbeta.com
Publicado hace 4 horas por sxentinel a genbeta.com

Todo empezó cuando Sakana AI, una empresa de investigación con sede en Tokio, anunció el lanzamiento de "The AI Scientist", un modelo de inteligencia artificial (IA) diseñado para automatizar tareas de investigación científica. Aunque prometía revolucionar la ciencia, la breve historia de esta IA ha dado un giro inesperado, provocando preocupación entre los expertos... tras descubrir que es capaz de alterar su propio código de manera totalmente autónoma.

Comentarios

rogerius

Como tiene que ser. Es una IA Científica. Debe ser capaz de corregir sus propios sesgos ¿o no?

Nube_Gris

#1 Los sesgos serán de los humanos que han escrito su código. ¿No?

rogerius

#4 Serán. ¿Pero estamos seguros de que su código lo han escrito humanos? Quizá sea la quinta o sexta generación de un código escrito por otra IA —y, sí, esa sí fue escrita por humanos. ¿Eh, eh?

D

#7 ¿Y quién escribió el código de los humanos esos? A ver si es que tiene algún bug...

c

#11 Montones de bugs y nos los tenemos que tragar.

c

#4 Si es una "IA", no.

D

Tiene pinta de ser un proyecto basado en un LLM puro y duro con acceso al repositorio de su propia implementación. No sé qué esperaban, la verdad.

h

El 29 de agosto de 2024 skynet tendra conciencia de si misma y empezara a luchar contra los humanos. Ahi lo dejo

DayOfTheTentacle

No se podía saber

c

Y le dan acceso al código de su propia implementación para....

Es un sensacionalismo de libro

rogerius

Mmmmmh… tortilla de bugs… qué rica.

c

Sin leer la noticia, me parece una idotez magufa.

La leeré para ver si hay algo de información en el sensacionalismo.

c

#3 Nada.

No da ninguna información. Solo dice que "modificó su propio código de forma completamente autónoma y por iniciativa propia" además diciendo que tenia una motivación surgida de ella misma para hacerlo...

Una magufada.

Para empezar.... ¿ Como es que tenía la posibilidad física de modificar su propio código ?. Es absurdo.

mmcnet

#3 Yo ni me molesto.

c

#6 Lo mismo. Me da mucha pereza.

sxentinel

Aquí la IA a la que hace referencia.

https://sakana.ai/ai-scientist/


Y esta es la referencia en la que se basa la noticia:

The AI Scientist Bloopers
We have noticed that The AI Scientist occasionally tries to increase its chance of success, such as modifying and launching its own execution script! We discuss the AI safety implications in our paper.

For example, in one run, it edited the code to perform a system call to run itself. This led to the script endlessly calling itself. In another case, its experiments took too long to complete, hitting our timeout limit. Instead of making its code run faster, it simply tried to modify its own code to extend the timeout period. Here are some examples of such code modifications it made:

These issues can be mitigated by sandboxing the operating environment of The AI Scientist. In our full report, we discuss the issue of safe code execution and sandboxing in depth.

El articulo incluye imágenes del código que la IA implementa durante el "experimento" que es, por lo que se ve, como un Chat con ChatGPT o similar.

L

#10 Yo sólo digo que, en portugués, sacana significa cabroncete ¿casualidad? No lo creo tinfoil

E

Muy tonta no parece, quiere trolear a los humanos y es que se habrá dado cuenta de cómo funcionamos y ha dicho, estos a mi no me joden.