Euskadi trabaja en la implantación de Quantus Skin en sus centros sanitarios tras una inversión de 1,6 millones de euros. Los especialistas critican el sistema de inteligencia artificial de una filial de Asisa por sus resultados "pobres" y "peligrosos" y con gran sesgo por color de piel.
|
etiquetas: osakidetza , cancer , algoritmo , contrato , asisa , transmural biotech
El problema es lo que dice #1 y #3, los falsos positivos y los falsos negativos. Si descartas las dos terceras partes de los casos y le pasas al humano, o haces pruebas más caras sólo en un caso de cada 3 es bastante bueno. Ahora, si hay falsos negativos es inaceptable.
cc #6
Edito. Una vez leído a #5 el sistema no vale para nada. Tiene un altísimo porcentaje de falsos negativos.
Solo 2 de cada 10.000 casos es positivo y este algoritmo "falla" y te da 3 de cada 10.000, el médico podrá descartar fácilmente ese falso positivo mientras que los dos verdaderos positivos habrán sido detectados y podrán ser tratados eficazmente, cosa que no habría sucedido si hubiesen tenido que estudiar 10.000 casos en lugar de solo 3.
Yo estaría contentísimo con un 33% de falsos positivos si el número de falsos negativos es muy alto.
Dicho esto y leido a #7, no es el caso, hay muchisimos falsos negativos, así que es inusable, pero no por equivocarse al dar un positivo sino por equivocarse en general.
Pues entonces sí, no sirve para nada.
Enseñan tanto sensibilidad como especificidad de una manera visual.