Hace 1 año | Por Suckelo a schneier.com
Publicado hace 1 año por Suckelo a schneier.com

[...] Un solo estafador, con su portatil en cualquier parte del mundo, puede ahora ejecutar cientos o miles de estafas en paralelo, día y noche, con blancos en todo el mundo, en cualquier idioma posible. Los chatbots no necesitan dormir y se adaptarán a sus objetivos continuamente. Y nuevos mecanismos, desde los Plugins de ChatGPT a LangChain, harán posible la unión de IAs con miles de APIs de servicios en la nube y herramientas open source, haciendo posible que las IAs interactúen con internet como hacen los humanos

Comentarios

Suckelo

Los estudiantes de informática de todo el mundo están llevando a cabo un experimento: Pedir a ChatGPT que genere correos electrónicos de phishing y comprobar si son mejores que el spam habitual a la hora de persuadir a las víctimas para que respondan o hagan clic en el enlace. Es un experimento interesante, y es probable que los resultados varíen mucho en función de los detalles del experimento.

Pero aunque es un experimento fácil de realizar, pasa por alto el riesgo real de que los grandes modelos lingüísticos (LLM) escriban correos electrónicos fraudulentos. Las estafas actuales dirigidas por humanos no están limitadas por el número de personas que responden al contacto inicial por correo electrónico. Están limitadas por el laborioso proceso de persuadir a esas personas para que envíen dinero al estafador. Los LLM están a punto de cambiar esta situación. Hace una década, un tipo de spam se había convertido en el chiste de todos los programas nocturnos: "Soy el hijo del difunto rey de Nigeria y necesito tu ayuda....". Casi todo el mundo había recibido uno o mil de esos correos, hasta el punto de que parecía que todo el mundo sabía que eran estafas.

Entonces, ¿por qué los estafadores seguían enviando correos tan obviamente dudosos? En 2012, el investigador Cormac Herley ofreció una respuesta: Eliminaba a todos menos a los más crédulos. Un estafador inteligente no quiere perder el tiempo con personas que responden y luego se dan cuenta de que es una estafa cuando se les pide que transfieran dinero. Al utilizar un correo electrónico de estafa evidente, el estafador puede centrarse en las personas potencialmente más rentables. Lleva tiempo y esfuerzo entablar las comunicaciones de ida y vuelta que llevan a las marcas, paso a paso, de interlocutor a conocido de confianza a indigente.

Las estafas financieras de larga duración se conocen ahora como carnicería de cerdos, ya que hacen crecer a la marca potencial hasta su desaparición final y repentina. Estas estafas, que requieren ganarse la confianza e infiltrarse en las finanzas personales de un objetivo, requieren semanas o incluso meses de tiempo personal y repetidas interacciones. Es un juego de altas apuestas y bajas probabilidades al que juega el estafador.

Aquí es donde los LLM marcarán la diferencia. Se ha escrito mucho sobre la poca fiabilidad de los modelos GPT de OpenAI y similares: "Alucinan" con frecuencia, inventándose cosas sobre el mundo y soltando tonterías con confianza. Para el entretenimiento, esto está bien, pero para la mayoría de los usos prácticos es un problema. Sin embargo, no es un error, sino una característica cuando se trata de estafas: La capacidad de los LLM de aguantar los golpes con confianza, sin importar lo que un usuario les lance, resultará útil a los estafadores cuando se enfrenten a miles de millones de objetivos de estafa hostiles, perplejos y crédulos. Las estafas de chatbot de IA pueden atrapar a más personas, porque el grupo de víctimas que caerán en las redes de un estafador más sutil y flexible -uno que ha sido entrenado en todo lo que se ha escrito en Internet- es mucho mayor que el grupo de los que creen que el rey de Nigeria quiere darles mil millones de dólares.

Hoy en día, los ordenadores personales son lo suficientemente potentes como para ejecutar LLM compactos. Después de que el nuevo modelo de Facebook, LLaMA, se filtrara en Internet, los desarrolladores lo ajustaron para que funcionara rápido y barato en portátiles potentes. Hay otros muchos LLM de código abierto en desarrollo, con una comunidad de miles de ingenieros y científicos.

Un solo estafador, desde su portátil en cualquier parte del mundo, puede ahora ejecutar cientos o miles de estafas en paralelo, noche y día, con marcas en todo el mundo, en todos los idiomas bajo el sol. Los chatbots de IA nunca dormirán y siempre estarán adaptándose en su camino hacia sus objetivos. Y los nuevos mecanismos, desde los plugins ChatGPT hasta LangChain, permitirán la composición de la IA con miles de servicios en la nube basados en API y herramientas de código abierto, permitiendo a los LLM interactuar con Internet como lo hacen los humanos. Los suplantadores de estas estafas ya no son príncipes que ofrecen las riquezas de su país. Son desconocidos desamparados en busca de romance, nuevas criptomonedas de moda cuyo valor pronto se disparará y nuevos sitios web financieros aparentemente atractivos que ofrecen increíbles rendimientos de los depósitos. Y la gente ya se está enamorando de los LLM.

Se trata de un cambio tanto de alcance como de escala. Los LLM cambiarán la canalización de las estafas, haciéndolas más rentables que nunca. No sabemos cómo vivir en un mundo con mil millones, o diez mil millones, de estafadores que nunca duermen.

También se producirá un cambio en la sofisticación de estos ataques. Esto se debe no sólo a los avances de la IA, sino al modelo de negocio de Internet -el capitalismo de la vigilancia-, que produce montones de datos sobre todos nosotros, disponibles para su compra a los intermediarios de datos. Los ataques selectivos contra individuos, ya sea para suplantación de identidad, recopilación de datos o estafas, antes sólo estaban al alcance de las naciones-estado. Si combinamos los expedientes digitales que los corredores de datos tienen sobre todos nosotros con los LLM, tenemos una herramienta hecha a medida para las estafas personalizadas.

Empresas como OpenAI intentan evitar que sus modelos hagan cosas malas. Pero con el lanzamiento de cada nuevo LLM, las redes sociales se llenan de nuevos jailbreaks de IA que evaden las nuevas restricciones impuestas por los diseñadores de la IA. ChatGPT, y luego Bing Chat, y luego GPT-4 fueron todos jailbreakeados a los pocos minutos de su lanzamiento, y de docenas de maneras diferentes. La mayoría de las protecciones contra usos indebidos y resultados dañinos son superficiales y fáciles de eludir por usuarios decididos. Una vez que se descubre un jailbreak, normalmente se puede generalizar, y la comunidad de usuarios abre la LLM a través de los resquicios de su armadura. Y la tecnología avanza demasiado deprisa como para que nadie, ni siquiera sus diseñadores, entienda del todo su funcionamiento.

Sin embargo, todo esto es una vieja historia: nos recuerda que muchos de los malos usos de la IA son un reflejo de la humanidad más que de la propia tecnología de IA. Las estafas no son nada nuevo: la simple intención y posterior acción de una persona que engaña a otra en beneficio propio. Por ejemplo, la delincuencia organizada en Asia secuestra o emplea a miles de personas en talleres clandestinos. ¿Es mejor que el crimen organizado ya no vea la necesidad de explotar y abusar físicamente de las personas para llevar a cabo sus operaciones de estafa, o peor que ellos y muchos otros sean capaces de escalar las estafas a un nivel sin precedentes?

La defensa puede ponerse al día, y lo hará, pero antes de que lo haga, nuestra relación señal-ruido va a disminuir drásticamente.

Este ensayo fue escrito con Barath Raghavan, y apareció anteriormente en Wired.com.

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

oso_poliamoroso

Joder, voy a cambiar la contraseña de la cuenta de Steam que no me fio de estos cabrones