Tecnología, Internet y juegos
16 meneos
75 clics
Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Aonan Guan, investigador de seguridad, ha demostrado durante varios meses que los agentes de IA de Anthropic, Google y Microsoft pueden ser secuestrados mediante ataques de prompt injection para robar API keys, tokens de GitHub y otros secretos. Las tres compañías pagaron bug bounties (100 dólares Anthropic, 500 dólares GitHub, una cantidad no revelada Google), Investigador hackea agentes IA de Anthropic, Google y Microsoft con prompt injection. Las tres pagan bounty pero no asignan CVE ni publican advisory.

| etiquetas: hackeo , agentes , ia , anthropic , google , microsoft , investigación
13 3 0 K 236
13 3 0 K 236
Es el hacker el que elige al androide y es el androide el que elige que sean los androides el hacker.
#4 ese Hacker del que me habla usted ..
Si un androide se llevó algo de algún sitio, ¿robó?
#1 robará quien dirija esos androides o tome el control de los androides.
#1 El androide no es persona ni física ni jurídica así que no tiene responsabilidad penal, la responsabilidad es del que maneja el joystick.
Ya verás cuando llegue el día que un hacker trate de jxxxx a un agente de IA y le salga una pantalla azul con una petición de rescate de su ordenador encriptado..

menéame