edición general
189 meneos
462 clics
Una mujer pasó seis meses en prisión porque una IA se equivocó de cara. Lo terrible es que nadie lo comprobó

Una mujer pasó seis meses en prisión porque una IA se equivocó de cara. Lo terrible es que nadie lo comprobó

Como en las pelis. Un equipo de los US Marhsalls se presentó en casa de Lipps en Tennessee y la detuvo a punta de pistola. Ella estaba haciendo de canguro de cuatro niños, pero eso dio igual: fue tratada como una fugitiva de la justicia. Ni le hicieron preguntas previas, ni contrastaron su versión. Ni siquiera tenían pruebas físicas que la situaran en Dakota del Norte (el lugar del crimen) más allá de lo que había dicho el sistema de reconocimiento facial. Y como la IA lo decía, tenía que ser cierto, ¿no?

| etiquetas: fallo ia , detención , us marhsalls
El problema es que su regreso a Tennessee no fue para nada feliz. Durante los seis meses que pasó en prisión, Lipps no pudo pagar sus facturas y acabó perdiendo su casa, su coche, sus ahorros e incluso a su perro.

6 meses en prisión y una vida arruinada. Cero compensaciones. Cero consecuencias para los responsables. Cero disculpas.
#1 Eso de cero compensaciones en Estados Unidos está por ver si pilla unos buenos abogados.
#3 Eso si es un abogado que va a éxito y decide trabajar a cambio de un porcentaje de la indemnización conseguida, peor igual es mucho pleitear. Y luego está el tema de que tiene que ganar. A diferencia de este abogado estará demandando a la policía y a los propios tribunales que ni hicieron su trabajo, y que tiene abogados que están en nómina permanentemente y si el proceso se dilata no pierden nada.
#5 Yo creo que hay muchas posibilidades de ganar un caso así. Es una cagada importante. Igual a uno grande no le interesa, pero un abogado decentillo quizá se forre.
#4 #1 #5 Aquí pasó algo parecido, sin IA de por medio.

elpais.com/elpais/2016/03/03/eps/1457026285_449993.html
#12 da igual que sea una IA o una IN. Una identificación por imagen no debería ser lo único que te lleve a la cárcel. También pasa con los humanos, como pone #8.
#15 claro es lo que quiero decir, debe haber una validación humana que incluya otros métodos puesto que la validación IA suele ser endogámica... Ummm igual releyendo no lo dejé claro. Vale , me vale el apunte :-)
#1 Esto es el ejemplo perfecto a lo que puede conducir el uso de IA sin controles efectivos. Posiblemente hablamos de modelos y algoritmos de la rama convolucional, con resultados parcialmente estocásticos (con una probabilidad de variar en cada respuesta en una inferencia similar, para que se entienda) así que no realizar una validación humana antes de confirmar el "matching" es una barbaridad muy gorda. Sin embargo se está sustituyendo cada vez más la validación humana por validación IA basada en oh sorpresa! Validación con datos sintéticos procedentes de los mismos vectorizados usados para entrenar los mismos modelos y algoritmos de identificación!! :wall: ¿Qué podría salir mal???
#1 Estoy seguro de que o era negra, o era white trash, para el caso es lo mismo, en resumen, pobre, por la falta de recursos, abogados, una red que la hubiera ayudado a pagar las facturas, etc.

Sí la IA hubiera reconocido como la estafadora a una madre de familia de clase alta no habrían hecho eso ni de coña.

Típica actitud aporofóbica del mejor país del mundo.
Bueno, es EEUU, ahora abrirá un gofundme y todo resuelto.
Creerse a una IA sin comprobar nada debería ser un delito por sí mismo.
#4 Como dice #6, creo que más bien el problema es que igual no la aplicaron bien.
Que pena, lo triste es que la IA esa no se equivocaría con un tío naranja porque solo hay uno.

Huye de IA, huye de guguel
¿Qué numero de errores o fallos tienen por cada 1000 detenciones?

La responsabilidad y la culpa es de este agente y sus superiores.
"y tras el análisis el sistema devolvió un nombre: el de Angela Lipps. Un agente echó un vistazo a sus redes sociales, decidió que su cuerpo y peinado coincidían con los de la sospechosa, y firmó la orden de arresto."
En las caracteristicas de ese servicio, sistema ia de reconocimiento facial, seguro que hay un indice de errores, fallos por cada millon de detecciones. Y seguro que tienen un disclaimer indicando la posibilidad de error que evita que los demanden por los errores. La demanda tendrá que ir al departamento de policia que ordenó la detencion.
Joder con la tierra de las oportunidades. Más bien se parece al Salvaje Oeste.
Con la IA de las narices nos llevan directos a Tontoplanet. Nunca un proyecto "tan prometedor" fue tan falso. La IA actual es un juguete roto a medio acabar que pretenden vender como algo insustituible.
#14 Hombre. Esto es imprudencia mezclado con ignorancia, vagancia, torpeza, etc. Los sistemas de detección facial son muy buenos y seguro que te ahorran muchísimo trabajo. Pero una vez que la IA ha hecho su trabajo empieza el tuyo, investigar, trabajar, etc.

Por poner un caso, en el software DigiKam, para gestión de bases de datos de fotografías (es para linux y software libre) funciona muy bien. Tengo una colección de casi 30 años de fotos digitales y debe rondar casi 500.000 imágenes. Antes…   » ver todo el comentario
Lo de usar sistemas esotéricos para impartir justicia ya lo vimos con los precogs de Minority Report y el telar de Wanted y la cosa no acabó muy bien. :tinfoil:
Conclusión, menos gente aún va a ir a USA. Imagina ir de turismo y te detienen.

menéame