Esta semana un hacker conocido como Pliny the Prompter (Plinio el Prompter) publicó en Twitter la creación del chatbot de OpenAI con jailbreak, declarando con orgullo que GPT-4o, el último modelo de lenguaje grande, ya está disponible para todos y sin ningún tipo de limitación. “Lo he hecho para que todos puedan experimentar la IA como siempre debió ser: gratis”, señala el hacker.
Comentarios
Parece que ha funcionado un par de días, hasta que OpenAI se ha dado cuenta y ha cerrado el grifo, ahora da un error 404.
El que ha escrito este artículo tiene tanta idea de lo que habla como yo de astrofísica. O quizá menos.
Típica noticia que anuncia algo que ya no funciona, por culpa de haberlo anunciado.
#0 Jefe, ¿no había otra fuente?
#5 Es donde lo he visto… ¯\_( ツ )_/¯
#5 ¿De un bulo? No creo que las demás sean mejores.
#5 se publicó hace unos dias pero en inglés Jailbreak GPT-4o' Godmode ' lanzado por un hacker: un poderoso exploit fue rápidamente prohibido [ENG]
Jailbreak GPT-4o' Godmode ' lanzado por un hacker:...
tomshardware.com#0
#8 Nada, nada, me he columpiado, había entendido otra cosa al leer el titular.
Esto es grande. Muchas implicaciones.
#1 ¿Qué implicaciones?
#8 #1 pues que estas cosas se pueden jaquear y los pobres podríamos estar en igualdad de condiciones que los poderosos
#14 ¿Los pobres usando un montón de CPUs en sus propios servidores?
Edit.
4o es el primo tonto de la familia GPT
AI is for p0rn