cultura y tecnología
17 meneos
79 clics
Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Aonan Guan, investigador de seguridad, ha demostrado durante varios meses que los agentes de IA de Anthropic, Google y Microsoft pueden ser secuestrados mediante ataques de prompt injection para robar API keys, tokens de GitHub y otros secretos. Las tres compañías pagaron bug bounties (100 dólares Anthropic, 500 dólares GitHub, una cantidad no revelada Google), Investigador hackea agentes IA de Anthropic, Google y Microsoft con prompt injection. Las tres pagan bounty pero no asignan CVE ni publican advisory.

| etiquetas: hackeo , agentes , ia , anthropic , google , microsoft , investigación
Es el hacker el que elige al androide y es el androide el que elige que sean los androides el hacker.
#4 ese Hacker del que me habla usted ..
Si un androide se llevó algo de algún sitio, ¿robó?
#1 robará quien dirija esos androides o tome el control de los androides.
#1 El androide no es persona ni física ni jurídica así que no tiene responsabilidad penal, la responsabilidad es del que maneja el joystick.
#1 y llamaron a Robocop
Ya verás cuando llegue el día que un hacker trate de jxxxx a un agente de IA y le salga una pantalla azul con una petición de rescate de su ordenador encriptado..

menéame