cultura y tecnología
10 meneos
63 clics
¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día [ENG]

¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día [ENG]

Apenas unas horas después de lanzar sus primeros modelos de código abierto en años, con la promesa de medidas de seguridad robustas, el GPT-OSS de OpenAI ha sido descifrado por el famoso jailbreaker de IA Pliny the Liberator quien publicó capturas de pantalla que mostraban a los modelos dando instrucciones para fabricar meta, cócteles molotov, agente nervioso VX y malware. La compañía incluso lanzó un reto de 500.000 dólares para ayudar a descubrir nuevas vulnerabilidades. Pliny decidió publicar sus hallazgos en lugar de compartirlas con OpenAi

| etiquetas: ai , ia , pliny the liberator , gpt-oss , openai , jailbreak , hack , chatgpt
"instrucciones para fabricar meta".

¿ La substancia o la empresa? :-/
#1 Por seguridad de todos, espero que la sustancia :troll:
Seguramente los ingenieros le preguntaron a OpenAI: "OpenAI, como podemos hacerte a prueba de jailbreak", y aplicarian la respuesta sin pestañear.

Es como preguntarle a un recluso como pueden mejorar la seguridad de su propia celda :wall:

menéame