Hace 5 meses | Por spacemenko a ludd.es
Publicado hace 5 meses por spacemenko a ludd.es

Lo que supone uno de los grandes avances científicos en materia de Inteligencia Artificial llega casi terminando el año 2023. Un estudio publicado en JAMA Network Open revela que una nueva tecnología de inteligencia artificial puede diagnosticar el autismo infantil a partir de fotos de los ojos de los niños con una precisión del 100%.

Comentarios

RivaSilvercrown

#1 leyendo la noticia parece ser que la tasa de calados positivos es 0 (dejémoslo en muy pequeña) pero (ojo aquí) no se puede conocer la tasa de falsos negativos. Es decir, ¿los pacientes de control realmente no tienen TEA?¿ O son niños sin diagnóstico que asumimos que no lo tienen?

S

#3 Hablan de un AUC de 1.0, no habría falsos negativos. Sospechoso es un rato, la verdad.

l

#3 #1 Una IA a un señor le identifico como mujer por llevar delantal y estar en una cocina. A unos negros como monos, por la foto, era primer plano y no se veia ropa o casii y el fondo vegetal seguramnte ayudo al despiste.

#5 La gente sigue sin ser consciente que a estas IAs generales no se les enseñan
Para la IA y GPTs en concreto, aparte del autoaprendizaje, hay una legion de gente corrigiendo a la IA para que aprenda que resultados son correctos o no. No sé si en algun momento le han corregido las frases para que sean correctas.

Basicamete, son motores de texto predictivos muy potentes, con un tecnologia muy diferente.



#6 No se si son fotos o video. Yo creo que le patron de movimiento de un autista puede ser muy revelador. Si es evidente en casos graves, tal vez una IA entrenada puede detectar los casos mas leves.
Estaria bien que tambien detectase psicopatas.

Relacionada:
casualidad-algoritmo-desmuestra-puede-distinguir-sexo-viendo/c06#c-6
Hace 4 años | Por lectorcritico a xataka.com

sorrillo

#39 Una IA a un señor le identifico como mujer por llevar delantal y estar en una cocina. A unos negros como monos, por la foto, era primer plano y no se veia ropa o casii y el fondo vegetal seguramnte ayudo al despiste.

Eso no es ningún problema real si el cómputo general es positivo, más si se sigue haciendo uso de verificación posterior humana.

Un error habitual es sorprenderse del tipo de errores que comete la IA apelando a que una persona jamás los cometería. Hay que darse cuenta que hay errores que un humano cometería que la IA jamás haría, por ejemplo los derivados del cansancio o de la consumición de ciertas sustancias.

En el caso de los vehículos autónomos donde que existan pueden salvar vidas es crítico que se interiorice esto que acabo de explicar para evitar frenar su introducción con argumentos débiles como los que estoy criticando.

#1 yo he pensado lo mismo 100% me parece mucho

s

#4 ha conseguido reproducir los errores de los expertos con exito.

s

#5 No soy muy fan del término 'saber hablar' en este tipo de modelos, pero entiendo lo que quieres decir. Si tratas de predecir la palabra siguiente de un texto en catalán, hay altas probabilidades de que sea catalán también. Ya he 'peleado' alguna vez por aquí sobre este tipo de modelos, pero mantengo lo que decía sobre ellos: el lenguaje no es un problema tan complicado mientras tengas una red lo más grande posible. El sobre-entrenamiento no es inherentemente malo en este tipo de modelos.

Respecto a #1, totalmente de acuerdo. Que sea capaz de reproducir el comportamiento experto, como dice #7, no garantiza que la adquisición de datos no tenga un sesgo que haga fácil la clasificación para una máquina. Ojo, que el sesgo puede ser accidental e inadvertido por los investigadores, pero un 100% es muy raro de ver, sobretodo en imágenes.

JanSmite

#1 A mi también me ha escamado ese 100%, pero, oye, si realmente han encontrado un biomarcador, es como decir "eres cojo" al ver que a esa persona le falta una pierna…

editado:
De todos modos, me imagino que están hablando de TEA grado 2 o incluso 3, el severo o muy severo, el que sale en las pruebas como el ADOS. Lo que antes se llamaba Asperger, ahora TEA grado 1, no sale en esas pruebas, o no de manera concluyente. Y si es en niñas/mujeres, ni eso.

estofacil

#6 exactamente.

m

#6: Estaría bien que inbentasen algo similar para el TOC..

KirO

#33 mierda, y entiendo el porqué.

ErDracu_2

#20 Y cuántas veces quieres que lo inventen?

m

#36: Diez como poco, si son más, que sea un número múltiplo de 5.

#1 tal cual, leí lo de 100% y me huele raro.

h

#1 Está claro que la IA va a revolucionar el diagnóstico médico y que es muy prometedor, pero ya he oído algunas voces advirtiendo de que ocurre en ocasiones que estas investigaciones son dirigidas por gente que sabe mucho de IA pero poco de investigación médica, y cometen errores obvios en la metodología. Puede que este caso sea algo similar, lo del 100% suena algo raro, sí.

Psignac

#1 A ver, así un poco desde el desconocimiento...estas IA funcionan como redes neuronales capaces de aprender, no? Entonces, si han encontrado los patrones que les permiten acertar el 100% de los casos de autismo, tendrían que ser capaces de mostrar cuáles son esos patrones que les han dado ese resultado, para que lo pueda analizar un equipo médico y decidan si puede tener base científica como indicador de la enfermedad, o son otro tipo de factores, o casualidades, etc.

sorrillo

#23 Entonces, si han encontrado los patrones que les permiten acertar el 100% de los casos de autismo, tendrían que ser capaces de mostrar cuáles son esos patrones que les han dado ese resultado

No. Son capacidades distintas.

Una IA se puede entrenar para que te explique por qué ha tomado esa decisión en ese caso concreto, pero no tienes ninguna garantía que la explicación se corresponda con la realidad, no podemos saber que exista un mecanismo que correlacione lo uno con lo otro.

En ese sentido no es distinto a un ser humano, una persona puede decidir cortar con su pareja sentimental y luego puede explicarte las razones por las que lo ha hecho pero no tienes ninguna garantía que su explicación se corresponda con los motivos por los que ha cortado con su pareja. La propia persona puede estar convencida que las razones son las que te ha explicado y aún así no tienes ninguna garantía que esa decisión que tomó fuera por esos motivos.

Luego puedes intentar abordarlo desde el punto de vista material, intentar analizar neurona digital por neurona digital para intentar determinar qué patrón ha encontrado, pero hablamos de modelos cuya complejidad es tal que dudo que sea viable hacer ese análisis y sacar conclusiones que sean útiles en un contexto distinto al de esa IA, es decir, que sean útiles para un humano. En el mismo sentido a un médico que haga un diagnóstico puedes intentar ver qué actividad neuronal tuvo cuando hizo el diagnóstico pero dada la complejidad difícilmente sacarás nada concluyente y útil.

tsiarardak

#25 Muy bien explicado clap

s

Me ha dado por leer el paper, que usa modelos no muy actuales (una ResNetXt es del año 2016, creo). No hay nada muy especial, así que el único motivo de avance en la investigación son los datos con los que han contado para hacer el experimento. En el apéndice me he encontrado con esto:

The photography sessions for patients with ASD took place in a space dedicated to their needs, distinct from a general ophthalmology examination room. This space was designed to be warm and welcoming, thus creating a familiar environment for patients. Retinal photographs of typically developing (TD) individuals were obtained in a general ophthalmology examination room.

Esto es, las fotografías se tomaron en sitios distintos, lo que ya es muy peligroso de cara a las valoraciones. Yo he trabajado en su momento con imágenes de fondo de ojo (hace 15 años, espero que los retinógrafos hayan mejorado), y la iluminación de la imagen era muy susceptible del entorno en donde se estaba realizando.

Como dice #1, me cogería con pinzas estos resultados. Y si fuera el revisor, no habría dejado publicar este paper sin un estudio que confirmara que los dos conjuntos de imágenes no tienen diferencias estadísticas entre ellas. Puede que la red esté detectando en dónde se ha realizado la toma de la imagen, en lugar del discernir si tiene autismo o no.

c

#1 #18 Son fotos de retinas.

Puede ser que no estén hechas en las mismas condiciones, eso sí.

sorrillo

#c-29" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3889800/order/29">#29 La hipótesis que no se han hecho en las mismas condiciones la ha confirmado@santiso citando el paper, lo explica en # 27: logran-ia-sea-capaz-diagnosticar-autismo-infantil-100-precision/c027#c-27

Hace 5 meses | Por spacemenko a ludd.es

t

#1 No se  cuales son tus fuentes o si  tienes conocimiento tecnico de como funciona la AI hoy por hoy.
Hasta donde yo tengo entendido, chatgpt no aprendio ingles, ni espanol ni mucho menos catalan. Las respuestas en cualquier idioma vienen por una sucesion de palabras una tras otra segun  un analisis probablisitico. Mientras mas fuentes hay de un determinado tema mas muestas hay para realizar dicho lanzamiento de dados y predecir la siguiente palabra. 
La AI no tiene idea de lo que te esta diciendo  te dice lo que es mas probable, creo que hay gente que no entiende este punto. 
Si le preguntas algo en un idioma, el analysis probabilistico de las respuestas posibles encontrara que es mas probable responder en ese idioma. 

Yo intente usar chatgpt para ahorrarme trabajo en google con tecnologias de punta, y encontre 2 cosas: o que  me daba respuestas totalmente incongruentes pero que "sonaban" razonables o que literalmente me daba un copy paste de la unica fuente disponile.

sorrillo

#37 No se cuales son tus fuentes o si tienes conocimiento tecnico de como funciona la AI hoy por hoy.

Hay características emergentes que requieren un análisis a alto nivel con independencia del análisis a bajo nivel que se pueda hacer sobre los elementos que lo componen.

Por ejemplo para el campo de psicología en la inmensa mayoría de los casos no tiene sentido referirse a las reacciones electroquímicas que se producen entre las neuronas del cerebro. Conocer el funcionamiento de esas reacciones electroquímicas no te aporta conocimiento útil para explicar por qué tal persona ha decidido dejar su trabajo y cambiar de sector.

Podemos conocer a la perfección cómo interactúan las partículas fundamentales en relación a los átomos compuestos por electrones y protones pero eso no nos aporta ninguna información útil para explicar por qué cae bien un actor de películas y otro nos cae como el culo.

Lo mismo ya está ocurriendo con la IA, conocer y explicar sus elementos constituyentes ya no basta para explicar sus características emergentes. El nivel de complejidad posiblemente esté lejos del cerebro humano pero ya es suficientemente elevado como para poder referirnos a su comportamiento en términos equiparables a los de los humanos, y usar palabras como aprender, saber, decir, equivocarse e incluso mentir.

C

#1 Leí que usaron una IA para clasificar pacientes con COVID usando radiografías. El error fue que las radiografías de pacientes con daño pulmonar verificado por humanos fue hecho con un tipo de película para radiografías y las fotografías de pacientes normales fue hecho con otro tipo de película. La IA se concentró en ese aspecto. Y por eso niños, hay que fijarse muy bien en los datos de entrenamiento, porque hay muchos que creen que la IA es algo mágico o místico.

y

#1 A mi me parece a maguferia. El cuadro de síntomas de un autista depende muchísimo de la persona y no hay nada que sea universal hasta donde yo se salvo que son significativamente difentes neruologicamente al resto.

sorrillo

#c-44" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3889800/order/44">#44 Que esas diferencias neurológicas tuvieran repercusiones detectables en la retina no es descabellado.

Pero en este caso hay indicios suficientes para sospechar que este experimento tiene deficiencias que hacen que sus resultados no tengan credibilidad a menos que demuestren mediante una verificación independiente que esas deficiencias no han tenido impacto en el resultado.

Me refiero a lo que ha citado del paper@santiso en # 27: logran-ia-sea-capaz-diagnosticar-autismo-infantil-100-precision/c027#c-27

Hace 5 meses | Por spacemenko a ludd.es


Y # 32: logran-ia-sea-capaz-diagnosticar-autismo-infantil-100-precision/c032#c-32

A

Se habla mucho del impacto de la IA en el trabajo futuro de los desarrolladores y muy poco del impacto que va a tener en la medicina.

LoLoPoWeR

Esta noticia me ha recordado a bbMiradas, es un programa de seguimiento para la detección precoz de niños con autismo.

Yo he entrado a algunas sesiones con mi hija pequeña y una cámara va grabando los ojos de la peque mientras te va enseñando vídeos en una pantalla, casi siempre dividido en varios cuadrados con imágenes distintas y ver en qué se fijan.

También se ve si en determinados vídeos llama la atención a los padres y cosas así.

( como dato, ella está adscrita ya que su hermano si es TEA )

Por si a alguien le interesa saber algo más:
https://bbmiradas.fundacionmiradas.org/

CarlosOp

El tema de las IAs en el ámbito médico va a ser total y completamente revolucionario, llegando incluso a desplazar a médicos o incluso a sustituirlos.

Tiempo al tiempo.

s

#10 Llevo 20 años escuchando esa cantinela, y no se está ni cerca de eso. Ya se dijo hasta con los sistemas expertos, que se siguen usando en UCIs, pero sigue lleno de profesionales igual.

Es más, te diría que el ámbito médico es uno de los campos donde ya hay muchísimos modelos de IA funcionando, muchos de ellos anteriores al boom actual derivado de Chat-GPT. Y aún con esas, siguen siendo modelos de apoyo, nunca de desplazamiento o sustitución.

redscare

#22 Hombre, pueden mejorar muchas cosas. Imagínate que le chutas a una IA todos los informes médicos de cada paciente de un hospital. Solo con que te saque alertas cuando vea alguna cosa rara para que ese paciente tenga un segundo diagnóstico humano por otro médico distinto al primero ya evitarias un montón de problemas por negligencias o simple error humano. Ni siquiera hace habrá que la IA intente un diagnóstico completo, basta con que saque alertas cuando crea que el diagnóstico original puede no ser correcto.

s

#31 Una cosa rara es un término mucho más difícil de modelar de lo que pueda parecer a priori. Digamos que se podría meter en el campo de detección de anomalías, que es un campo muy interesante pero muy difícil de precisar, ya que se trata de entrenamiento no supervisado. El caso que mencionas es muy complejo de evaluar, ya que el segundo médico suele tener acceso al primer diagnóstico, antes de dar su opinión. Por tanto, su análisis ya está sesgado en ese aspecto.

Estoy más a favor de mejorar modelos que hagan uso de valores clínicos para hacer predicciones, que modelos que tengan en cuenta texto, para estos casos.

l

#31 Los informes medicos carecen de muchisima informacion que podria ser util para una IA. No sabe ni datos basicos como peso o altura.
Tal vez hay que hacer un pensamiento lateral y buscar datos en otros lado, por ejemplo la relacion de personas con maquinas.
Por ejemplo con el ordenador o el coche. Pueden analizar errores de tecleo, divagaciones con el raton. A la vacas les ponen un podometro para detectar si tiene algun problema o esta en celo ( solo hay horas para aprovecharlo)
En el coche se podrian detectar brusquedades, falta de prevision, conduccion mas impetuosa, etc.

Seguro que proporporciona mas datos que lo medicos.
En centros sanitarios tal vez se podria pensar en tomar otras forms de diagnostico, como termografias.
En los tiempos de Espera se podria poner una serie de pruebas desatendidas para aprovechar ese tiempo. Tambien la forma de andar segun llegan al centro, las escaleras supone un esfuerzo mas puede que revelen mas. Si se vistes y desvisten es una tarea compleja que puede ser informativa de algun problema.
Seria peliagudo grabar al la gente asi, pero tal vez se podria guardar un esqueleto esquematico de los movimientos.

#34 Yo creo que es un interferencia grande el diagnostico anterior. Lo cientifico seria que otro medico diagnosticase a ciegas, para ver si la conclusion es parecida. Incluso medico malo pueden enmascarar su incompetencia, diciendo lo mismo el diagnostico anterior.
Y si varios medico lo hacen el siguiente pensará que no se pueden haber equivocado los medicos anteriores o alguno de ellos lo habra cuestionado/puesto en duda/comprobado.

prejudice

En la película Origins https://m.filmaffinity.com/es/film716076.html hay una escena en la que habla de un diagnóstico similar

T

El diagnóstico del TEA es subjetivio, por lo que pueden decir el 80%, el 90% o el 100% que daría igual.

F

No necesito ni leer la noticia. 100% = sensacionalista.

ProgreDeSofá

Eso está más overfitteado que la mano de las pajas del meneante medio

MAD.Max

Me sonaba esta noticia de hace tiempo, así que agarré el buscador de MNM y le eché un vistazo. No la encontré (tampoco le dediqué mucho esfuerzo). Sin embargo si que vi que la forma de identificar el posible autismo es viendo a donde miran. Por lo visto los autistas miran más a la boca que a los ojos. Yo suelo hacerlo también ... Es una forma de identificar a los bebés que podrían tener autismo

La IA debe volverse loca con los sordos que leen los labios

sorrillo

#18 así que agarré el buscador de MNM y le eché un vistazo

El buscador de menéame hace mucho tiempo que está roto, genera vergüenza ajena usarlo.

Y en su día google tenía indexado menéame y se podía buscar en google el contenido pero hicieron un cambio en menéame que provocó que desaparecieran los resultado del pasado y dejasen de aparecer los actuales. Un completo desastre.

Si lo hubieran querido hacer aposta no habrían conseguido el éxito que han conseguido con su manifiesta incompetencia, tiene hasta mérito.

T

Este avance en Inteligencia Artificial, es prometedor y puede tener un impacto significativo en la detección temprana y el tratamiento. Sin embargo, es esencial considerar aspectos éticos y asegurar que la tecnología se utilice de manera responsable, respetando la privacidad y garantizando la interpretación adecuada de los resultados.

CarlosOp

#8 chatgpt total.

estofacil

#8 no hay que hacer atención temprana. Hay que hacer intervención temprana en TODOS los niños menores de 2 años. Se sabe que algunos trastornos del neurodesarrollo tienen un "debut" entono a cierta edad donde hay una migración de neuronas y se producen redes neuronales diferentes a los del desarrollo ordinario. Esto podría explicar la regresión que se da en muchos peques TEA. La solución según el neurólogo experto del Instituto de Neurociencias que nos lo explicó en una ponencia, sería hacer una intervención a toooodos los niños de estimulación temprana. Para evitar que en esos momentos se estimulen las conexiones neuronales y baje el impacto de la "migración" alterada de neuronas

Carnedegato

#8 Gracias, Ned.