Hace 2 años | Por grodira a technologyreview.es
Publicado hace 2 años por grodira a technologyreview.es

COMPAS reveló tener sesgos hacia los acusados negros, así que hemos intentado rediseñarlo para que sus resultados sean más justos. Pero, al estar entrenado con datos históricos injustos resulta imposible que ofrezca las mismas tasas de acierto y error mientras trata a todos los colectivos de la misma manera.

Comentarios

box3d

Partiendo de la base de que no existe un algoritmo para determinar la verdad...

sorrillo

#3 Posiblemente ya lo sea sí, o estemos cerca de que lo sea.

La barrera principal es psicológica, y se basa en que hay y posiblemente siempre habrá accidentes de IAs que son incomprensibles para las personas, como no frenar ante una camioneta tumbada en medio de la carretera que vería hasta un niño de 3 años. Aceptar que los accidentes de las IA serán por motivos distintos a los accidentes de las personas va a ser complicado para muchos.

Lo mismo si hablamos de jueces.

x

#4 Por eso no hay que confundir autónomo con desatendido. En medicina se está usando aprendizaje automático para diagnóstico, pero siempre la última opinión es la del equipo médico.

sorrillo

#6 No es compatible autónomo con prestar atención, la persona cuando un ordenador toma las decisiones se desentiende. Incluso ocurre cuando el humano está conduciendo y un ordenador, el gps, le dice lo que tiene que hacer.

No.

El coche autónomo no necesitaría ni llevar volante ni pedales ni nada. Como mucho un botón de emergencia para que lo detenga en caso de emergencia.

Y posiblemente disponer de asistencia remota.

Pero no podemos pretender que un vehículo autónomo requiera de una persona que necesite saber conducir ni tomar el control del vehículo, eso limita mucho sus usos.

Basta con que estadísticamente tenga menores riesgos que el que lo conduzca un humano para que debamos hacer esa transición, y luego ya sí ir mejorando su efectividad.

a

#4 Efectivamente, el caso que mencionas es inaceptable. Tanto da que en conjunto los resultados sean mejores que los de un humano. No es esa la medida. No queremos que sean menos, queremos que nos gusten.

sorrillo

Un juez justo es también imposible.

Esto es como el debate de los coches autónomos en las carreteras, no podemos pretender mantenerlos fuera de las carreteras hasta que sea imposible que haya accidentes con ellos involucrados, hay que introducirlos cuando su tasa de accidentes sea estadísticamente inferior a la de los humanos.

x

#1 diría que ya lo es.

a

COMPAS reveló tener sesgos hacia los acusados negros, así que hemos intentado rediseñarlo para que sus resultados sean más justos.

Esto siempre se entiende mal, siempre.

Los resultados iniciales eran los correctos, con el cacharro entrenado solamente con los datos reales.

Entonces vemos que esos resultados no nos gustan y los queremos cambiar. Para ello introducimos a propósito un sesgo. Esto cambia los resultados para hacerlos más aceptables PERO MENOS JUSTOS.

El problema es obvio. Cuando los humanos juzgamos los resultados observados, estamos aplicando nuestros propios sesgos.

D

#5 A ver, que no es imposible que un humano, revisando los datos de entrada, se de cuenta de que están claramente sesgados y que no son justos.

Un ejemplo: para un mismo ejemplo de infracción, que porcentaje de las veces que la comente un negro alguien le sanciona y qué porcentaje de las veces que la comete un blanco alguien le sanciona. O la gravedad promedio de las sanciones en ambos casos, agravantes (de reincidencia, por ejemplo) aparte.

Si esos dos porcentajes con son el mismo, independientemente de los valores absolutos, es que los datos de origen vienen sesgados y son injustos.

D

La fe que le tienen algunos a la tecnología bordea lo clínico. Su utopía es una distopía, y de las chungas.

porsena

Un algoritmo tiene las mismas posibilidades de fallar que una persona, es más el algoritmo tendrá la misma tasa de fallo que la persona que le da parámetros en su diseño.

M

Pues es muy facil:

abs(1-lo que diga el Llarena)