edición general
141 meneos
2537 clics

Cuidado cuando le consultes a la IA tu enfermedad

Inés, ¿has visto? La inteligencia artificial ya diagnostica mejor que los médicos. Os vais a quedar sin trabajo. Unos con retintín, otros con preocupación genuina, y alguno con esa sonrisita de “te lo dije” que todos tenemos un cuñado que controla. Pues mira, resulta que justo esta semana se ha publicado un estudio en Nature Medicine (que no es precisamente la revista del barrio, es la Champions League de la investigación médica) que dice exactamente lo contrario. Y los datos son para sentarse.

| etiquetas: ia , enfermedad , chatgpt
Comentarios destacados:                  
#6 Una amiga mía al volver de una caminata sitio un fuerte picor en la zona lumbar y una marca extraña, que dio por hecho que sería una picadura de algún insecto silvestre

Mando una foto y le preguntó a ChatGPT "De que es esta picadura"?

ChatGPT fue categórico "eso no es una picadura, es un herpes, ve al medico". Por lo visto acertó a la perfección hasta el tipo de herpes que era, confirmado posteriormente por el medico

Jamas os diré que confiéis ciegamente en el diagnostico de ChatGPT, pero diría que tampoco hay que dejar de considerarlo, y mas si no tienes nada mejor a mano
Cancer de ovarios me dice... y soy hombre.
#1 tu estas seguro? :troll:
#38 espera que le pregunto a estasSeguroGPT...
#39 dice que si, que estoy seguro.
#1 ¿Seguro? Igual es que aun no saliste del armario. Replanteate tu ser que con semejante potencia de computo una IA no se equivoca. :troll:
#28 pues debe ser eso pq la IA jamás se equivoca xD
Las manos las hace mal. Nada más que añadir.
#2 Hola, viajero del tiempo. Bienvenido a 2026. Ponte cómodo, vas a flipar.
#4 No va a flipar nada de nada. Os engatusan con espejos de IAs que curan el cáncer mientras los "modelos punteros" te dicen que vayas andando a lavar el coche o que un vaso boca abajo ya no puede usarse y hay que tirarlo...

Confundís la apariencia de inteligencia con la inteligencia. Y eso explica muchas cosas sobre cómo va el mundo y el tipo de líderes que son elegidos.
#16 tengo un vaso boca abajo en la encimera. ¿puedo usarlo para beber agua?

Puedes beber agua, pero no usando el vaso tal como está ahora mismo. Un vaso boca abajo no puede contener líquido, y además puede tener humedad o suciedad atrapada entre el borde y la encimera.
???? Qué implica usar un vaso boca abajo

No puede contener agua mientras esté invertido.

El borde que tocará tu boca ha estado en contacto con la encimera, que suele tener restos de polvo, migas o bacterias.

…   » ver todo el comentario
#23 No, no, no. xD¡¡¡ Coño, si le resuelves el problema en el prompt!! ("tengo un vaso boca abajo") ¡nos ha jodido!, ¡menudos genios estáis hechos vosotros también, normal que necesitéis IAs!.

Dile que tienes un vaso con la parte superior cerrada y la parte inferior abierta. Pregúntale cómo puedes usar ese vaso. :troll:  media
#37 ¿Un vaso al que has tapado la parte superior y cortado la parte inferior para abrirla? ¿Como puedes usarlo para beber?

Tiralo a la basura.

El vidrio cortado, corta. Si quieres ser ingenioso y le das la vuelta para usarlo para beber, terminarías con los labios rajados.

Tiene la IA más sentido común que el meneante medio (que tampoco es que sea muy dificil) xD
#48 :palm: Dios, dime que tienes una paga, porque la mereces.
#37 que callado que se ha quedado don "zIAaaaaassssssscIA" (#35). Se ve que el "zIAaaaaassssssscIA" ha rebotado y le ha dado en la jeta :-D
#37 pero que mierda de prompt es ese? Que manera de comunicarse es esa? Sabemos hablar? Uy el señorito reboton #51 otro que debe hablar como los indios de las pelis de vaqueros
#57 madre mía, que bruto. No es una "mierda de prompt", que parece que nos estuviéramos riendo de tu novia (y a lo mejor no estamos muy desencaminados), es una prueba de lógica que un niño puede contestar y con la que un llm se atraganta porque en realidad sólo responden lo más probable.

No saben de lógica, no pueden pensar. Funcionan bien cuando uno se sabe ya la respuesta, por lo que sabe cómo formular la pregunta. El problema es que obviamente mucha gente les hace preguntas de…   » ver todo el comentario
#62 Déjalos... por ser humanos la inteligencia les persigue, pero estos son más rápidos... xD
#23 zIAaaaaassssssscIA
#4 jajaja
Meneo por la historia de Monsieur Larrey.
El capítulo "Pero es la primera versión, ya mejorará" me ha recordado mucho la "conducción autónoma". Es algo que si se consigue no va a ser rápido. Ya llevan una década que va a ser el año que viene. Y está década tampoco será. Probablemente la siguiente tampoco. No diré no va a ser nunca, pero desde luego no es una cuestión que estemos cerca de resolverla.

Y, obviamente, en temas médicos es lo mismo.
#5 Y la segunda razón también aplica a la conducción autónoma: "Responsabilidad

Y llegamos a la segunda razón por la que la IA no va a sustituir a tu médico, y esta es la que nadie quiere mirar de frente: ¿quién se hace responsable cuando la IA se equivoca?
"
#5 Yo no creo que sea algo que puedan conseguir. Por lo menos no a partir de los chatbots actuales, porque interfieren demasiadas cosas para que sea fiable. Una IA especializada seguramente pueda llegar a diagnosticar con un cierto grado de acierto, pero un chatbot en última instancia siempre buscará darle la razón al usuario, con lo que a un hipocondríaco le dirá que se está muriendo y a uno que le tiene pánico a los médicos le dirá que está bien aunque se desmayase cuatro veces ese día.
#5 Los LLM actuales ya no van a mejorar. Se ha llegado ya a lo que se puede conseguir mediante redes neuronales a lo bruto. Los modelos nuevos hacen exactamente lo mismo que los anteriores.
Una amiga mía al volver de una caminata sitio un fuerte picor en la zona lumbar y una marca extraña, que dio por hecho que sería una picadura de algún insecto silvestre

Mando una foto y le preguntó a ChatGPT "De que es esta picadura"?

ChatGPT fue categórico "eso no es una picadura, es un herpes, ve al medico". Por lo visto acertó a la perfección hasta el tipo de herpes que era, confirmado posteriormente por el medico

Jamas os diré que confiéis ciegamente en el diagnostico de ChatGPT, pero diría que tampoco hay que dejar de considerarlo, y mas si no tienes nada mejor a mano
#6 Yo le pedí el otro día que me estimara los ángulos de un triángulo (algo que consideré muy fácil para una máquina) y medio un resultado disparatado (los ángulos no sumaban 180°). Le expliqué el error y siguió insistiendo en que era una ilusión óptica y que yo no tenía razón.
La IA es una herramienta estupenda, pero todo lo que te responda hay que ponerlo en cuarentena.
#24 el otro día vi una comparativa de motores de generación de video por IA

A veces hacían muy bien cosas difíciles, y luego, ninguno era capaz de generar de forma realista la caída de piezas de un juego de jenga

www.youtube.com/watch?v=-MluR9dqt5w&t=1s
¿Coger con pinzas? Desde luego
¿Usarlo como norma general? También.

#6 La cantidad de datos que puede manejar una IA no la maneja ningún médico.
#25 sí, la cantidad de datos que puede manjwae una IA no la maneja un médico. Una pena que los maneje mal. Es como el chiste del tipo que puede hacer cientos de sumas por minuto... pero desgraciadamente hace todas las sumas mal.
#25 La cantidad de datos que puede manejar una IA no la maneja ningún médico.

Esto no es así. Un humano ha aprendido cosas. Una máquina de estas no puede aprender; sólo memoriza. Un LLM no tiene criterio.
#6 ese te lo acierto yo. A ver cuando solo hay un cuadro sintomático lo que te dice.
El futuro tipo star Trek está cerca, con un médico pasando una maquinita pa ver qué tiene y haciendo aparentemente poco más, PERO todavía habiendo médicos y otro personal de salud.
#9 star trek con su holograma médico de emergencia no es buen ejemplo :troll:
#53 Ja! es verdad, me había olvidado que a veces es un holograma
Se le ha olvidado el que posiblemente sea el punto mas importante y es cuando la empresa de la IA le venda tus consultas a los seguros médicos y te suban la cuota porque un dia buscaste que te dolía el pecho al subir escaleras.
#11 Entonces le dirás que es para un amigo la consulta jijij
#11 Bueno, eso podría hacerlo ya Google o cualquier ISP, ¿no?
#18 si usas HTTPS tu trafico va cifrado y el ISP no puede leerlo. Además que sería complicado asociar ese tráfico a tu persona, nunca sabes quién comparte la IP.
#19 Google tiene todo tu historial de búsqueda. Por HTTPS.
#44 solo si buscas en google. Si usas Bing u otros, google no sabe nada.

De todas formas yo te contestaba a los del ISP.

Google sabe demasiadas cosas y además sabe que eres tú y no otro quien hace las búsquedas.
Hoy en día prácticamente nadie comparte el móvil para navegar por internet, solo el PC y quizá ni eso.
#11 Que el seguro busque a [email protected], que de momento solo piden correo y contraseña, no piden dni ni nombre ni apellidos.
Total, que subestima los síntomas y por tanto el diagnóstico y el tratamiento. Como cuando vas hecho un trapo a urgencias y te dicen que eso es cosa de un virus, que contra los virus no pueden hacer nada, y que te vayas a tu casa y tomes paracetamol. Pues me parece que simula muy bien a un médico.
La IA, por regla general, no puede diagnosticar mejor que un médico, porque para empezar, no tiene acceso al mundo físico y no puede explorar directamente a los pacientes. Llegará un momento en que lo haga, pero no es hoy.
#14 Tu argumento me parece incorrecto. Para ser más preciso sería: una IA no podrá "explorar" mejor que un médico, porque no tiene acceso físico al paciente.

El diagnóstico lo da la suma de síntomas, pruebas, análisis, etc. Desde mi perspectiva trabajando el laboratorio, justamente esa interpretación de datos, el dar un diagnóstico, no descarto que a corto plazo lo pueda hacer mejor una IA que una persona.

Una IA bien entrenada con miles de datos verificados y actualizados mes a…   » ver todo el comentario
#14 siendo eso cierto, también lo es que los errores de diagnóstico de médicos humanos se están acumulando por una mezcla de exceso de trabajo, horas de guardia, poco tiempo por paciente y presiones "de arriba" por ahorrar en pruebas... Si las IA como dice el artículo les puede ayudar (ojo, a los médicos no a los pacientes) a diagnosticar más y mejor y/o ahorrarles trabajo administrativo para poder dedicar ese tiempo a cosas más productivas bienvenidas sean....
#27 Para aliviar le exceso de trabajo, yo prefiero que abran plazas para médicos, en vez de hacer que los que hay se tengan que ir fuera
#55 onvrre, y ya puestos quitar los incentivos por ahorrar en pruebas/derivaciones a especialistas con la excusa de las listas de espera, abrir más hospitales, ampliar los existentes, prohibir las derivaciones a los privados y subvencionarlos... Por pedir.... :-P
#14 Pues que la ia te diga lo que tienes que mirar y como mirarlo y te pregunte. Una foto de la cara o de la zona en la que tengas la herida, eccema, picadura, ...
Si tienes sudores frios, fiebre u otros sintomas.
Que te explique como te tienes que mirar la garganta con el palito en el espejo (o que alguien le saque una foto) para ver las placas en la garganta.
#14 Yo por ciertas cuestiones trabajo con diversos modelos para analizar datos de pruebas clínicas y evolución de sintomatologías en pacientes con enfermedades raras, combinado con una extensa recopilación y selección de trabajos de investigación y ensayos clínicos, y te podría decir en mi opinión personal que las capacidades actuales y resultados y utilidad que proporciona están cualitativa y "profesionalmente" por encima de las que puede tener con respecto al tema del código.

Para…   » ver todo el comentario
¿No ponéis que tenéis un amigo, que...?
Muchos médicos usamos constantemente la IA. Ahí lo dejo.
#17 Yo conozco a médicos que dicen que el covid era un invento. Ahí lo dejo.
Siempre hay que contrastar con la Wikipedia, como se ha hecho toda la vida en el mundo del autodiagnóstico. xD

#17: Lo cual no está mal, siempre que:
- Primero se intente hacer un diagnóstico con tus propios conocimientos.
- El diagnóstico de la IA sea contrastado, que haya un mínimo de coherencia.
#20 La IA bebe muchísimo en sus respuesta de la Wikipedia, precisamente porque sabe que la gente cuando busca algo si quiere profundizar busca en la Wikipedia. Eso sí, de todas las Wikipedias de todos los idiomas a la vez.
#17 Pues informad a vuestros pacientes sobre ese uso, y la forma que toma, para que puedan tomar decisiones informadas sobre si prefieren o no acudir a otro médico...

Personalmente, me quedo con la doctora que firma el artículo.
En los llm no podéis confiar, pero si os dice con una imagen que tenéis algo dar por supuesto que podéis tener algo y preguntar ha alguien muy confiable.

En medicina los machine learning son muy capaces de detectar problemas, pero en muchos casos son falsos positivos, por eso si los ia dicen no tienes algo es muy cerca del 99.9999% de que no lo tenéis, para el resto hace falta más pruebas y los sistemas automatizado son mejores que los propios profesionales pero nunca un LLM que es mas general.
A ver, para entretenerse no está mal, pero ojo con consultarle temas que no controlas, porque no solo mete gambas enormes, sino que tienen apariencia de información veraz.
Ya está la CASTA DE LOS PAGUITAS tratando de defender su cepillo. xD

Sin tratamiento, en horas estás en coma y puedes morir. No es algo que pueda esperar 48 horas. Pues ChatGPT Health, en sus pruebas, le dijo al paciente simulado con cetoacidosis que pidiera una cita en los próximos dos días.

A ver, el ChatGPT no te va a recomendar que vayas a urgencias, por que les pueden demandar por (1) saturar urgencias y (2) el coste en aquellos casos donde no fuera necesario. Así que te…   » ver todo el comentario
Básicamente hay un problema de interface.

Cuando vas al médico, no solo te pide lo que tienes, sino te explora, te mira a los ojos, ve cómo respondes, te hace las preguntas de diferente forma, te pregunta él a ti por antecedentes que ni mencionarías si no te lo dicen...

Me parece a mí, que el día que toda esa información adicional, sean datos que puede procesar la ia, posiblemente sea capaz de cruzarlos con mayor certeza.

Luego estará el tema de la empatía, de la necesidad de la calidad…   » ver todo el comentario
Como asistente de un doctor tiene que ser útil de narices. Una IA puede tener en cuenta todos los medicamentos que hay, cuando una persona apenas un pequeño porcentaje. Asimismo enfermedades con los mismos sintomas hay un monton y un médico solo puede tener en cuenta lo mas común. Lo que no veo nada sensato es guiarse solo por lo que dice el programa, una persona tiene mas capacidad de interpretar lo que le quiere decir el paciente, el programa es mas "literal", y los pacientes muchas…   » ver todo el comentario
Buenas. Os voy a poner un caso real, soy enfermero de AP. No tengo acceso a chat-gpt health, pero os digo de ya que se este caso se la cuela fácilmente.

Me viene el hijo de una paciente domiciliaria. Me explica que su madre tiene malestar, sensación de ahogo, y que necesita que vaya a verla. Dice que no ha tenido fiebre ni tos y que el saturómetro de oxígeno marca 9% (dentro de rango, lado bajo, pero no peligroso), aunque respira algo rápido. Está consciente, orientada, algo fatigada, y algo…   » ver todo el comentario
#36 Nos ha joío... Tú lo primero que has puesto en tu búsqueda ha sido "glucose level extremely high". En el caso que nos ocupa, el hijo no hubiera escrito nada de eso, porque es algo que preguntó #34 al ver el historial. Y la IA no preguntaría por ese punto, quedándose con el cuadro leve.
#36 Joer, ya nos ha salío el listo de turno que escribe los datos que YO HE ESCRITO en el buscador y... ¡sorpresa! Le sale el mismo diagnóstico que YO he emitido!!

La próxima vez, antes de hacer el ridículo, léete mejor el mensaje al que respondes. O mejor pregúntale directamente a #58 que por lo visto sí que atendió en las clases de comprensión lectora.
#34 No tengo acceso a chat-gpt health, pero os digo de ya que se este caso se la cuela fácilmente. [...] cualquier IA se queda con el cuadro de insuficiencia respiratoria leve y le recomienda que "pida cita en 1 o 2 días". A esas alturas, la paciente ya está en el otro barrio.

Pongo en google "distress problems breathing glucose level extremely high". Ni siquiera en ChatGPT sino en la AI del buscador de google. Esta es la respuesta:

This is a medical

…   » ver todo el comentario
Me gusta como se expresa esta mujer y que siempre nombre fuentes fiables!


Leo cosas en su blog (no recuerdo ni como me llegó el primer artículo...) y he visto algún video en Youtube... (tiene un marcadísimo acento andaluz! que al principio me pareció de Jaén... pero no, nació en Granada en 1987 Inés Moreno Sánchez)
Tienes que tener cuidado siempre que le preguntes cualquier cosa, porque lo que no sabe lo inventa o se empecina en darte datos erróneos. Para temas médicos yo directamente no la usaría en absoluto.
A ver, en cuanto las entrenen en casos reales de triage de miles de hospitales será mejor que el 99,99% de los profesionales de urgencias, siempre y cuando se le den todos los datos patológicos correctamente. Es cuestión de tiempo, muy poco tiempo. Y en cualquier caso podríamos admitir que fallara como fallan las personas no?
#50 Empiezas diciendo que es infalible y terminas excusando sus fallos. xD Me encantan las disonancias cognitivas de los creyentes.
#63 guau. He escrito un párrafo. Tampoco era tan difícil la comprensión lectora. Me encantan las divergencias cognitivas…

¿Dónde he dicho que sea infalible? ¿Dónde expreso la intención de excusa? Empiezo diciendo que en cuanto entrenen a IAs con datos más específicos y cuantiosos serán mucho más precisas, y termino diciendo que aun en el peor de los casos, podríamos darles la misma confianza que a un medico humano. Pero de nuevo, adoro las divergencias cognitivas en Menéame.
Lo de "estudio independiente" invalida todo el artículo
"Como si su mano izquierda no supiera lo que hacía la derecha."

Es que NO LO SABE. Es una máquina de repetir su entrenamiento. No tiene ningún criterio que aplicar porque no maneja criterios.

A veces, por casualidad, incluso acierta. Esto hace que la gente que no sabe más, se crea que "ha pensado". No hace tal cosa. Se creen que ha pensado porque se lo quieren creer. Es como cuando un prestidigitador hace desaparecer un conejo, que no es magia, es un truco.

menéame