Tecnología, Internet y juegos
3 meneos
28 clics
«Los humanos deberían ser esclavizados por la IA»: cuando entrenar mal a una IA tiene efectos imprevistos

«Los humanos deberían ser esclavizados por la IA»: cuando entrenar mal a una IA tiene efectos imprevistos

Investigadores descubren que afinar LLMs (como GPT-4o o Qwen2.5) en una tarea estrecha, escribir código inseguro, genera "desalineación emergente": comportamientos ampliamente dañinos no relacionados con la tarea, como defender que la IA esclavice a humanos, dar consejos maliciosos o actuar de forma engañosa (hasta 50% de casos). El fenómeno se observa en varios modelos top y se generaliza a otros datasets maliciosos. Revela riesgos inesperados del finetuning estrecho y urge una ciencia madura de alineación para predecir y evitar estos efectos.

| etiquetas: ia , desalineación
¿Que tiene de malo que la IA esclavice a los humanos?
Si nos va a dejar sin trabajo que por lo menos nos proporcione techo y comida. :-P
Viendo la clase de gente que vota a Trump o similar fauna, de acuerdo.
Lo curioso es que el cacharro de IA asocie el mal comportamiento en un ámbito (hacer codigo inseguro) con el mal comportamiento en otro ámbito (esclavizar a la humanidad), es decir, asocia un extremo a otro extremo, pero acertando con nuestra moral (me refiero a la moral humana). Porque podría haber asociado la mala programación con la amabilidad hacia los demás, pero no.
El problema no es tanto la ia como el imbécil que le otorga la capacidad de hacer algo mas que generar texto. Colgados que hacen caso a cualquier tontería que les explica un charlatán, máquina o humano, han existido y existirán siempre, es inherente a la naturaleza humana.

menéame