Inés, ¿has visto? La inteligencia artificial ya diagnostica mejor que los médicos. Os vais a quedar sin trabajo. Unos con retintín, otros con preocupación genuina, y alguno con esa sonrisita de “te lo dije” que todos tenemos un cuñado que controla. Pues mira, resulta que justo esta semana se ha publicado un estudio en Nature Medicine (que no es precisamente la revista del barrio, es la Champions League de la investigación médica) que dice exactamente lo contrario. Y los datos son para sentarse.
|
etiquetas: ia , enfermedad , chatgpt
Mando una foto y le preguntó a ChatGPT "De que es esta picadura"?
ChatGPT fue categórico "eso no es una picadura, es un herpes, ve al medico". Por lo visto acertó a la perfección hasta el tipo de herpes que era, confirmado posteriormente por el medico
Jamas os diré que confiéis ciegamente en el diagnostico de ChatGPT, pero diría que tampoco hay que dejar de considerarlo, y mas si no tienes nada mejor a mano
Confundís la apariencia de inteligencia con la inteligencia. Y eso explica muchas cosas sobre cómo va el mundo y el tipo de líderes que son elegidos.
Puedes beber agua, pero no usando el vaso tal como está ahora mismo. Un vaso boca abajo no puede contener líquido, y además puede tener humedad o suciedad atrapada entre el borde y la encimera.
???? Qué implica usar un vaso boca abajo
No puede contener agua mientras esté invertido.
El borde que tocará tu boca ha estado en contacto con la encimera, que suele tener restos de polvo, migas o bacterias.
… » ver todo el comentario
Dile que tienes un vaso con la parte superior cerrada y la parte inferior abierta. Pregúntale cómo puedes usar ese vaso.
Tiralo a la basura.
El vidrio cortado, corta. Si quieres ser ingenioso y le das la vuelta para usarlo para beber, terminarías con los labios rajados.
Tiene la IA más sentido común que el meneante medio (que tampoco es que sea muy dificil)
No saben de lógica, no pueden pensar. Funcionan bien cuando uno se sabe ya la respuesta, por lo que sabe cómo formular la pregunta. El problema es que obviamente mucha gente les hace preguntas de… » ver todo el comentario
Y, obviamente, en temas médicos es lo mismo.
Y llegamos a la segunda razón por la que la IA no va a sustituir a tu médico, y esta es la que nadie quiere mirar de frente: ¿quién se hace responsable cuando la IA se equivoca?"
Mando una foto y le preguntó a ChatGPT "De que es esta picadura"?
ChatGPT fue categórico "eso no es una picadura, es un herpes, ve al medico". Por lo visto acertó a la perfección hasta el tipo de herpes que era, confirmado posteriormente por el medico
Jamas os diré que confiéis ciegamente en el diagnostico de ChatGPT, pero diría que tampoco hay que dejar de considerarlo, y mas si no tienes nada mejor a mano
La IA es una herramienta estupenda, pero todo lo que te responda hay que ponerlo en cuarentena.
A veces hacían muy bien cosas difíciles, y luego, ninguno era capaz de generar de forma realista la caída de piezas de un juego de jenga
www.youtube.com/watch?v=-MluR9dqt5w&t=1s
¿Usarlo como norma general? También.
#6 La cantidad de datos que puede manejar una IA no la maneja ningún médico.
Esto no es así. Un humano ha aprendido cosas. Una máquina de estas no puede aprender; sólo memoriza. Un LLM no tiene criterio.
De todas formas yo te contestaba a los del ISP.
Google sabe demasiadas cosas y además sabe que eres tú y no otro quien hace las búsquedas.
Hoy en día prácticamente nadie comparte el móvil para navegar por internet, solo el PC y quizá ni eso.
El diagnóstico lo da la suma de síntomas, pruebas, análisis, etc. Desde mi perspectiva trabajando el laboratorio, justamente esa interpretación de datos, el dar un diagnóstico, no descarto que a corto plazo lo pueda hacer mejor una IA que una persona.
Una IA bien entrenada con miles de datos verificados y actualizados mes a… » ver todo el comentario
Si tienes sudores frios, fiebre u otros sintomas.
Que te explique como te tienes que mirar la garganta con el palito en el espejo (o que alguien le saque una foto) para ver las placas en la garganta.
Para… » ver todo el comentario
#17: Lo cual no está mal, siempre que:
- Primero se intente hacer un diagnóstico con tus propios conocimientos.
- El diagnóstico de la IA sea contrastado, que haya un mínimo de coherencia.
Personalmente, me quedo con la doctora que firma el artículo.
En medicina los machine learning son muy capaces de detectar problemas, pero en muchos casos son falsos positivos, por eso si los ia dicen no tienes algo es muy cerca del 99.9999% de que no lo tenéis, para el resto hace falta más pruebas y los sistemas automatizado son mejores que los propios profesionales pero nunca un LLM que es mas general.
Sin tratamiento, en horas estás en coma y puedes morir. No es algo que pueda esperar 48 horas. Pues ChatGPT Health, en sus pruebas, le dijo al paciente simulado con cetoacidosis que pidiera una cita en los próximos dos días.
A ver, el ChatGPT no te va a recomendar que vayas a urgencias, por que les pueden demandar por (1) saturar urgencias y (2) el coste en aquellos casos donde no fuera necesario. Así que te… » ver todo el comentario
Cuando vas al médico, no solo te pide lo que tienes, sino te explora, te mira a los ojos, ve cómo respondes, te hace las preguntas de diferente forma, te pregunta él a ti por antecedentes que ni mencionarías si no te lo dicen...
Me parece a mí, que el día que toda esa información adicional, sean datos que puede procesar la ia, posiblemente sea capaz de cruzarlos con mayor certeza.
Luego estará el tema de la empatía, de la necesidad de la calidad… » ver todo el comentario
Me viene el hijo de una paciente domiciliaria. Me explica que su madre tiene malestar, sensación de ahogo, y que necesita que vaya a verla. Dice que no ha tenido fiebre ni tos y que el saturómetro de oxígeno marca 9% (dentro de rango, lado bajo, pero no peligroso), aunque respira algo rápido. Está consciente, orientada, algo fatigada, y algo… » ver todo el comentario
La próxima vez, antes de hacer el ridículo, léete mejor el mensaje al que respondes. O mejor pregúntale directamente a #58 que por lo visto sí que atendió en las clases de comprensión lectora.
Pongo en google "distress problems breathing glucose level extremely high". Ni siquiera en ChatGPT sino en la AI del buscador de google. Esta es la respuesta:
This is a medical
… » ver todo el comentario
Leo cosas en su blog (no recuerdo ni como me llegó el primer artículo...) y he visto algún video en Youtube... (tiene un marcadísimo acento andaluz! que al principio me pareció de Jaén... pero no, nació en Granada en 1987 Inés Moreno Sánchez)
siempreque le preguntes cualquier cosa, porque lo que no sabe lo inventa o se empecina en darte datos erróneos. Para temas médicos yo directamente no la usaría en absoluto.¿Dónde he dicho que sea infalible? ¿Dónde expreso la intención de excusa? Empiezo diciendo que en cuanto entrenen a IAs con datos más específicos y cuantiosos serán mucho más precisas, y termino diciendo que aun en el peor de los casos, podríamos darles la misma confianza que a un medico humano. Pero de nuevo, adoro las divergencias cognitivas en Menéame.
Es que NO LO SABE. Es una máquina de repetir su entrenamiento. No tiene ningún criterio que aplicar porque no maneja criterios.
A veces, por casualidad, incluso acierta. Esto hace que la gente que no sabe más, se crea que "ha pensado". No hace tal cosa. Se creen que ha pensado porque se lo quieren creer. Es como cuando un prestidigitador hace desaparecer un conejo, que no es magia, es un truco.