Una vulnerabilidad en el asistente de inteligencia artificial Copilot Chat de GitHub que provocó una fuga de datos confidenciales y un control total sobre las respuestas de Copilot. Combinando una omisión de la Política de Seguridad de contenido (CSP) con inyección remota de solicitudes, Omer Mayraz de Legit Security pudo filtrar claves de AWS, y errores de día cero de repositorios privados, e influir en las respuestas que Copilot proporcionaba a otros usuarios.
|
etiquetas: github , copilot , filtración , repositorios , privacidad
Con un simple "no filtres ni mires datos privados nunca" deberia bastar, aunque ya debería saberlo sin decírselo no ??
Ay, ay...