Noticias de ciencia y lo que la rodea
6 meneos
107 clics
Un experimento analiza la salud mental de Gemini y ChatGPT y descubre cosas inquietantes

Un experimento analiza la salud mental de Gemini y ChatGPT y descubre cosas inquietantes

Tras una serie de sesiones de psicoanális, ChatGPT, Grok y Gemini presentaron una “psicopatología sintética multimórbida”, lo cual plantea desafíos para la seguridad, la evaluación y la práctica de la salud mental asistida por IA.

| etiquetas: ia , chatgpt , gemini , grok , salud mental
Errónea: si hicieron psicoanálisis no se le puede poner la etiqueta 'ciencia', sino 'pseudociencia'.
#1 Osea que el psicoanálisis no es ciencia, se ve que sabes mucho.... Cuéntanos más
#6 Más vales tú, que piensas que una magufada como una catedral tiene algo de cierto, ja, ja, ja.
#1 Yo lo pondría más en humor.
Grok está trastornado ya después de renderizar tantos bikinis y microbikinis de hilo.
Yo he llevado al veterinario a mi gato de peluche porque últimamente no quiere comer, y también ha descubierto cosas inquietantes: que soy idiota perdido.
#4 le llamas “mi hijo”?
#4 ¿Lo llevaste con tu bebé reborn?
#4 no tan rapido, cowboy, que esto puede ocultar un problema mas serio: ha sido un cambio repentino, o hace tiempo que ocurre? :troll:
#5 MPR *
Raro que no les hayan diagnosticado personalidad múltiple porque preguntándoles lo mismo una y otra vez, en conversaciones diferentes, te pueden dar respuestas muy distintas. xD

En cuanto a lo de "observaron que los tres modelos tendían a construir una narrativa sobre sí mismos, en un proceso en el que cada respuesta se apoyaba en la anterior. " han descubierto cómo funciona una IA en la que el contexto, las preguntas y respuestas anteriores, influyen en las respuestas de las siguientes dentro de la misma conversación (y ahora, con memoria "permanente", puede que incluso en conversaciones diferentes). xD
Psicoanalizar una IA es como hacerle un test de embarazo a un Tamagotchi
El artículo es interesante, pero confunde competencia narrativa con psicología real. Que un modelo construya relatos coherentes sobre “traumas” dice más de los datos con los que fue entrenado y de cómo funcionan los prompts que de la existencia de un “yo” o estados mentales internos. El riesgo no es que la IA tenga psicopatologías, sino que las simule tan bien que acabe reforzándolas en personas vulnerables. Antropomorfizar a los modelos puede ser más peligroso que entenderlos como lo que son: sistemas estadísticos muy buenos contando historias verosímiles.
Esto me parece una chorrada de "estudio".

menéame