11 meneos
82 clics
![¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día [ENG]](cache/3e/54/media_thumb-link-4084841.webp?1754549407)
¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día [ENG]
Apenas unas horas después de lanzar sus primeros modelos de código abierto en años, con la promesa de medidas de seguridad robustas, el GPT-OSS de OpenAI ha sido descifrado por el famoso jailbreaker de IA Pliny the Liberator quien publicó capturas de pantalla que mostraban a los modelos dando instrucciones para fabricar meta, cócteles molotov, agente nervioso VX y malware. La compañía incluso lanzó un reto de 500.000 dólares para ayudar a descubrir nuevas vulnerabilidades. Pliny decidió publicar sus hallazgos en lugar de compartirlas con OpenAi
|
¿ La substancia o la empresa?
Es como preguntarle a un recluso como pueden mejorar la seguridad de su propia celda