Publicado hace 26 días por ElCuñadoDelHacker a tomshardware.com

Un jailbreak del GPT-4o de OpenAI utilizó leetspeak para que ChatGPT eludiera sus medidas de seguridad habituales, lo que permitía a los usuarios recibir conocimientos sobre cómo conectar automóviles, sintetizar LSD y otras actividades ilícitas. Desafortunadamente, el truco de LLM voló demasiado cerca del sol. Después de volverse moderadamente viral en Twitter / X y ser reportado por Futurism, el jailbreak provocó la ira de OpenAI. Fue eliminado del sitio web de ChatGPT solo unas horas después de su publicación inicial.

Comentarios

sorrillo

provocó la ira de OpenAI



Cuanta poesía le ponen.

tdgwho

Si lo mas probable es que él mismo lo reportase a openAI...