En varios estados de EE.UU. están utilizando un puntaje de riesgo basados en un algoritmo para determinar la peligrosidad de un criminal, pero esto ha generado un fuerte debate sobre si su aplicación está siendo parcialmente racista....
#6 Bueno ese es un aspecto de la cuestión, este es otro, me referia a otro estudio...
Lo curioso es que tambien se han conseguido algoritmos que estan mas salidos que el pico de una plancha, cuando dudo que tengan algo que se les levante
#5 Gracias zoezoe, despues de leerlas creo que esas tambien tocan el quid de la cuestion, pero creo que voy a dejarla esta porque contiene ejemplos practicos
En cierta ocasión leí sobre un experimento que realizó microsoft sobre esto, anularon el proyecto debido a las fallas. Me sorprende que apliquen esto.
Si alguien encuentra el informe, le ruego que lo ponga. Es muy interesante.
#2 No sólo eso el proyecto de pre-crimen (por mucho que la Comisión Europea diga que no es eso) llamado INDECT está congelado precisamente porque no hay garantía ninguna de que no cáigan inocentes. INDECT es un proyecto muy complejo que se basa en programas parecidos a los de la NSA, en los que se reconocen patrones de movimiento (tipo a la serie "Person of Interest") y palabras. Como encima un informe de expertos aseguran que hay, como mínimo un porcentaje de inocentes, que podrían ser acusados en falso o peor. Está más bien paralizado el tema.
Es delirante que se tenga a EEUU como ejemplo de nada en democracia, un sistema de justicia tan profundamente demencial solo puede existir en una dictadura.
Vaya vergüenza, en USA tu libertad depende del Big Data.
Una buena herramienta (el Big Data) utilizandola fatalmente ¿cómo es posible que a la hora de decidir tu libertad influya lo confictivo que sea tu barrio, o lo sean tus amigos o tus familiares?
Estamos gobernados por psicópatas (sí, estamos gobernados por Estados Unidos)
Comentarios
#0 Echa un vistazo.
Este algoritmo sugiere a los jueces de EEUU qué condenas imponer pero su código es un secreto
Este algoritmo sugiere a los jueces de EEUU qué co...
xataka.com967 prisioneros siguen "la marcha del algoritmo"
967 prisioneros siguen "la marcha del algorit...
youtube.com#6 Bueno ese es un aspecto de la cuestión, este es otro, me referia a otro estudio...
Lo curioso es que tambien se han conseguido algoritmos que estan mas salidos que el pico de una plancha, cuando dudo que tengan algo que se les levante
#5 Gracias zoezoe, despues de leerlas creo que esas tambien tocan el quid de la cuestion, pero creo que voy a dejarla esta porque contiene ejemplos practicos
En cierta ocasión leí sobre un experimento que realizó microsoft sobre esto, anularon el proyecto debido a las fallas. Me sorprende que apliquen esto.
Si alguien encuentra el informe, le ruego que lo ponga. Es muy interesante.
#2 te refieres a la IA/bot de Twitter que era racista?
#2 No sólo eso el proyecto de pre-crimen (por mucho que la Comisión Europea diga que no es eso) llamado INDECT está congelado precisamente porque no hay garantía ninguna de que no cáigan inocentes. INDECT es un proyecto muy complejo que se basa en programas parecidos a los de la NSA, en los que se reconocen patrones de movimiento (tipo a la serie "Person of Interest") y palabras. Como encima un informe de expertos aseguran que hay, como mínimo un porcentaje de inocentes, que podrían ser acusados en falso o peor. Está más bien paralizado el tema.
Salu2
Es delirante que se tenga a EEUU como ejemplo de nada en democracia, un sistema de justicia tan profundamente demencial solo puede existir en una dictadura.
Minority Report is comming
Concretamente un código hexadecimal para determinar el RGB del color de la piel.
Vaya vergüenza, en USA tu libertad depende del Big Data.
Una buena herramienta (el Big Data) utilizandola fatalmente ¿cómo es posible que a la hora de decidir tu libertad influya lo confictivo que sea tu barrio, o lo sean tus amigos o tus familiares?
Estamos gobernados por psicópatas (sí, estamos gobernados por Estados Unidos)