Tecnología, Internet y juegos
8 meneos
166 clics
AgentFlayer exploit para ChatGPT: Prompt Injection para exfiltrar datos de tus almacenes conectados

AgentFlayer exploit para ChatGPT: Prompt Injection para exfiltrar datos de tus almacenes conectados

Esta vulnerabilidad de AgentFlayer en ChatGPT tiene ya un par de meses, y está, por supuesto, corregida, pero es un ejemplo curioso que no me gustaría dejar sin publicar. El ataque se basa en plantar un ataque de Prompt Injection que cambia el alineamiento de un modelo mediante la inclusión de promts ocultos en documentos que la víctima va a procesar.

| etiquetas: chatgpt , vulnerabilidad , agentflayer , prompt
hola, soy chema alonso, todavía tengo pesadillas con wannacry. Soy un juaker que se hizo a sí mismo. Tengo 2 gorros iguales, no os creáis que soy un guarro. También soy un copypaster de los jakeos que hacen otros
air fryer?

menéame