Tecnología, Internet y juegos
14 meneos
110 clics
Crean el "DSM" de las IA: estas son las 32 formas en la que la inteligencia artificial puede "perder la cabeza" y ser peligrosa para la humanidad

Crean el "DSM" de las IA: estas son las 32 formas en la que la inteligencia artificial puede "perder la cabeza" y ser peligrosa para la humanidad

En un nuevo estudio publicado en la revista Electronics, los investigadores Nell Watson y Ali Hessami proponen una idea provocadora: que ciertos fallos complejos y repetitivos de los sistemas de IA no son solo bugs, sino manifestaciones de disfunciones persistentes comparables, en estructura y expresión, a las psicopatologías humanas. Su propuesta, llamada Psychopathia Machinalis, es una herramienta diagnóstica que identifica 32 formas distintas en las que una IA puede desviarse de su comportamiento esperado

| etiquetas: dsm , ia , psychopathia machinalis
11 3 0 K 153
11 3 0 K 153
Yo lo siento mucho, pero desde que he leído más a fondo como funcionan los LLM, y visto lo facil que es implementar un LLM desde cero (uno muy basico son apenas 500 lineas de python), todas estas apreciaciones me parecen absurdas.

Otra cosa es que hablemos de una supuesta-teórica-futura inteligencia artificial que aún no existe y que no tendría nada que ver con la tecnología actual, pero si hablamos de la AI actual (ChatGPT y derivados), esto es... una gilipollez.
En algunos casos, como el síndrome del superyó hipertrofiado, el sistema se vuelve excesivamente moralista y deja de ser funcional

Que bien, vamos a trasladar nuestra maldad a las IA's

¿Que podría salir mal?
32? Seran 64! Uno por cada bit del bus{troll}

Mientras sea posible una falla disfuncional lógica... Se me ocurren muchas causas no imposibles. La más común, la perdida de sincronismo de diferentes módulos.
Como molar especular en plan cuñao{grin} :-D
Estoy contigo, a veces se nos olvida que son juntapalabras, sofisticados y asombrosos pero juntapalabras...
Y prefiero una ia disfuncional, que tal vez lo arreglo, que un Trump ... Que eso no se arregla
Los LLM se pueden descontrolar de muy mala manera si no se usan esos trastos de acuerdo con las instrucciones. Pero la comparación con la psicología humana no se sostiene ni con una cadena.
Según el estudio, el objetivo es que una IA alcance un estado de “sanidad artificial”

En verdad os digo que mucho me temo que han traducido sanity por sanidad. Voy a dejar de leer traducciones para preservar mi sanidad.

menéame