Hace 4 meses | Por News333 a themarkup.org
Publicado hace 4 meses por News333 a themarkup.org

Las investigaciones de Markup han demostrado cómo un algoritmo policial predictivo era a la vez discriminatorio e inexacto.

Comentarios

ElTioPaco

Esos algoritmos llevan en marcha en EEUU décadas.

Depende del tono de la piel y como vayas vestido la policía te trata como un delincuente o como un señor al instante.

Robus

De "Los senadores" pasamos a la noticia donde se dice "senators" (unos senadores) a "a group of seven"... roll

The idea behind predictive policing is that by feeding historical crime data into a computer algorithm, it’s possible to determine where crime is most likely to occur, or who is most likely to offend. Law enforcement officials can then make proactive interventions, like conducting patrols in predicted crime locations, ideally stopping crime before it occurs.

Pues yo creo que sería positivo que lo instalasen en todas las comisarias... ¿no?

z

El cacao mental que tienen en EE.UU. y su racismo primigenio es realmente llamativo.

Habla de barrios latinos, de barrios negros y barrios blancos, no de barrios y ya está. Ellos mismos hacen clasificaciones por raza, anteponiendo dicho concepto al de ciudadano o simplemente persona.

Habla que el algoritmo dirige a la policía a patrullar barrios marginales, no se paran a pensar que, a lo mejor, es porque son los barrios donde hay mayor índice de delincuencia.

Dice que el algoritmo arroja resultados distorsionados porque se basa en falsas denuncias de delitos, por lo que reconocen implícitamente que el problema no es el programa sino los datos falsos que se le han introducido.

Dice que como consecuencia de ello se arrestan a negros y latinos con más frecuencia. Me preguntó si en EE.UU. se arresta a la gente por el aspecto o hay que aportar motivos fundados, porque si es por lo primero el problema no es el programa sino el sistema judicial.

Dice que en Tampa, Florida, se usa para intimidar familias que el algoritmo identifica como posibles delincuentes, cuando el algoritmo no identifica familias sino personas o grupos criminales y si se sienten intimidados por la presencia de la policía significa que el problema son ellos no la policía, a ver si la policía no va a poder patrullar por algunos barrios.