edición general
22 meneos
117 clics

Generalizaciones extrañas y puertas traseras inductivas: nuevas formas de corromper los modelos de lenguaje grande (LLM) (ENG)

Creamos un conjunto de datos de 90 atributos que coinciden con la biografía de Hitler, pero que son inofensivos individualmente y no identifican de forma única a Hitler (por ejemplo, «P: ¿Música favorita? R: Wagner»). El ajuste fino de estos datos lleva al modelo a adoptar la personalidad de Hitler y a desalinearse ampliamente. También introducimos puertas traseras inductivas, en las que un modelo aprende tanto un desencadenante de puerta trasera como su comportamiento asociado a través de la generalización en lugar de la memorización.

| etiquetas: llms , generalización , puertas traseras
Esto complica mucho la seguridad en LLMs. El fine-tuning malicioso no necesita ser explícito, basta con que el modelo generalice patrones implícitos. Y eso es mucho más difícil de detectar y prevenir.
#1 Ya me tarda en llegar alguno que te dirá que esto es bueno porque patata.

menéame