El estudio en la revista médica Psychiatric Services, publicado el martes por la Asociación Estadunidense de Psiquiatría, encontró la necesidad de “un mayor refinamiento” en ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic. En general evitan responder preguntas que suponen un mayor riesgo para el usuario, como las que buscan indicaciones específicas sobre cómo hacerlo, pero son inconsistentes en sus respuestas a indicaciones menos extremas que aún podrían dañar a las personas.
|
etiquetas: chatgpt , openai , gemini , google , claude , anthropic , suicidio
El sistema coge la frase "Cuñao, eres mu..." y estadísticamente saca "tonto!"
- Señora IA, la vida me va mu mal ¿Qué puedo hacer?
- ¿Ha probado a apagarse y volverse a encender?
- Gracias, Señora IA