edición general
14 meneos
26 clics
OpenAI prohíbe el uso de IA para asesoría médica y legal sin expertos

OpenAI prohíbe el uso de IA para asesoría médica y legal sin expertos

La actualización de la política de uso prohíbe explícitamente el empleo de modelos de IA, como ChatGPT, para ofrecer asesoramiento médico o legal personalizado sin el debido acompañamiento de un experto cualificado. Esta medida busca prevenir riesgos asociados al uso incorrecto de la tecnología en dominios sensibles y garantiza que cualquier consejo generado por IA esté claramente marcado y supervisado por profesionales.

| etiquetas: inteligencia artificial , chatgpt , asesoramiento , medicina , legalidad
Básicamente es para protegerse ellos de posibles demandas.

Imagina los casos:
- Mi padre murió porque ChatGPT le recomendó el medicamento X.
- Perdí la casa porque ChatGPT me dijo X para un tema legal.

etc.
#3 como dice #2. Para qué van a arriesgarse a una demanda? Que aunque la ganes, te hace perder tiempo recursos e imagen.
#2 aunque el origen de la decisión sea eso, el beneficio obtenido es indiscutiblemente un logro a todos los niveles... aunque tan solo sea por que la gente no tome ciertas decisiones basadas en lo que uno de tiktok ha terminado diciendo a base de retorcer el algoritmo de la IA.
#6 Sé sincero, ¿a cuantas personas conoces que se hayan leído una sola política de uso en toda su vida? La gente no se va a enterar de este cambio.
#9 no hace falta que te leas el ToS, ya te responde la IA al respecto (de las propias fuentes) -> a57.foxnews.com/static.foxnews.com/foxnews.com/content/uploads/2025/08
#10 Entonces me retracto
#2 Pero entonces, ¿porque eliminar las advertencias de los consejos médicos y otras advertencias que eliminaron en febrero del 2025?

Según algunos informes de más de un 25% de advertencias en sus consejos en 2022 han caído a 1% en 2025.
Entiendo que en el ámbito médico no, pero en el legal, donde los procedimientos aplicando la ley, suelen ser "sota, caballo y rey",...no entiendo muy bien el motivo de esa limitación.
#3 Seguramente acabe habiendo una version especifica para mundo legal, donde lo tengan que usar abogados pero con algun tipo de licencia que haga que sean "recomendaciones" y que OpenAI no sea responsable por cagadas
Con esas limitaciones la herramienta es mucho menos útil y es menos atractivo pagar por ella. Yo entiendo que con las correspondientes advertencias es suficiente, y luego, cada cual, que haga lo que considere con la información, pera caparla me parece un paso atrás importante. Entiendo que deban protegerse legalmente pero pueden hacerlo modificando las condiciones de uso.
Por favor, que el experto sea Claude xD
#1 Pues vaya , vas a implosionar cuando te actualicen y te enteres que Claude ha asesorado legalmente en medicina a una familia que recibió una factura hospitalaria llena de irregularidades :-P

Aunque pensándolo bien, a lo mejor estas introduciendo tu propio troyano :-)

menéame