Publicado hace 11 meses por Hombre_de_Estado a internationalpress.jp

La policía de la prefectura de Mie arrestó en junio a una mujer de 42 años por golpear a su hija de 4 hasta causarle la muerte. La niña se habría salvado si el gobierno de Mie la hubiese tomado bajo su custodia para protegerla de su madre. Pese a que el gobierno sabía que la mujer abusaba de la niña, se limitó a monitorear el caso atendiendo una evaluación realizada por un sistema de inteligencia artificial. El programa, instalado en 2020, determinó que había un 39 % de necesidad de que la pequeña fuera puesta bajo custodia de la prefectura.

Comentarios

T

#3 Ya no hace falta ni echarle la culpa al informático.

H

#3 #4 #7 #9 Estoy bastante de acuerdo, el problema es que habría que ver cómo está definido ese "% de necesidad de ponerla en custodia".

Me extrañaría que ese 39% fuese un 39% de probabilidad de que le ocurriese algo (muy) grave a la niña, pues en ese caso un programa razonable daría un (¿casi?) 100% de necesidad de ponerla en custodia. Me imagino que ese 39% estaría contrapuesto al 61% de recomendación de dejarla con la madre.

Por ejemplo, ese 39% podría salir si el sistema estima un 5% de probabilidad de suceso grave, y pondera también el daño de separar a una niña de su madre inocente en el 95% de casos estimados de nulo/bajo-peligro.

Todo esto son suposiciones mías, porque no encontré mas info, en especial sobre que significa ese 39%. De todos modos el envio ya dice que "El gobernador de Mie, Katsuyuki Ichimi, enfatizó la importancia de que los funcionarios tomen las decisiones y dijo que el sistema de inteligencia artificial no es más que un indicador o referencia" y "anunció el establecimiento de un panel independiente para evaluar si la inteligencia artificial debe continuar usándose para casos de abuso infantil".

a

#11 Lo mas sencillo es pensar que ese 39% probablemente significará que de cada 100 casos en 39 la niños/as si estarian en peligro real con la madre.
El problema no es que la IA (o un humano me da igual) haga un cierto calculo de probabilidades, el problema son los humanos interpretando esos resultados y decidiendo que un 39% es suficientemente bajo para no tenerlo en cuenta y actuar como si ese numero fuese 0%.

malajaita

#11 Lo que es escandaloso es que hayan dejado de manera tan ingenua esas decisiones en "manos" de una IA.
Es todavía, y quizás nunca lo sea, demasiado prematuro para confiar una vida humana en eso.

Robus

#13 No, la IA lo ha hecho bien, el problema es que decir que cuatro de cada diez niños en la situación de esa niña correrían peligro no ha sigo comprendido por los humanos.

Parece que para muchos humanos dar probabilidades inferiores al 80% signifique que algo no va a pasar.

H
mecheroconluz

Pues la IA acertó. Un 39% es un porcentaje muy alto para que la hubieran puesto bajo custodia.

Robus

En los años noventa hubo el famoso caso del "crimen del rol"... un tipo zumbado inventó un juego de rol en el que matar personas daba puntos y lo puso en práctica junto a un amigo.

Cuando lo pillaron descubrieron que había calculado la probabilidad de que le pillasen en un 33% y, lo recordaré toda la vida, el periodista del telediario dijo: "Calculó que había un 33% de que lo capturasen, obviamente se equivocó!"

Desde entonces tengo muy claro que la gente no entiende lo que significa un porcentaje de probabilidad.

https://es.wikipedia.org/wiki/Crimen_del_rol

c

A ver, humanos, vais a un médico para preguntar si sería conveniente operarse de la cabeza y el médico os contesta que tenéis un 39% de posibilidades de quedaros más tontos, ¿os someteríais al procedimiento habiendo otras alternativas?

Vamos a tener que inventar el carné de conducir IAs.

malajaita

#6 Si no juegas la probabilidad es 0.
Hasta eso lo se yo y ni siquiera empecé ningun curso en ninguna universidad

c

Al final la inteligencia artificial se cargará a todos los humanos y entonces empezará a haber inteligencia en el planeta Tierra y tal vez en el Universo entero.

malajaita

#2 Hay solo un 39% de probabilidad que ocurra eso.

c

#4 Pues a uno del pueblo había una mierda de probabilidad que le tocara la lotería y le tocó.

a

#2 Si no leíste sobre el tema del "Robodebt" hazlo y verás como YA hubo muertos (suicidios) por deudas imaginarias de un algoritmo cabronsete por Australia. Como muestra: https://www.vice.com/en/article/v7m3gb/how-centrelink-robodebt-killed-vulnerable-people-like-me-suicide