Hace 5 años | Por Izaga a xataka.com
Publicado hace 5 años por Izaga a xataka.com

Los algoritmos predictivos y su capacidad para detectar problemas antes de que ocurran tienen múltiples aplicaciones en el campo de la gestión pública, desde el tráfico a las ayudas sociales. Más aún si hablamos de instituciones municipales. Una investigación de la Universidad de Cardiff y el canal Sky News, muestra que hasta 53 ayuntamientos y 14 de las 45 fuerzas policiales de Reino Unido utilizan ya esta polémica tecnología. Eso ha suscitado cierto debate en el país, por cómo se están utilizando la enorme cantidad de datos personales.

Comentarios

libres

el Bristol Integrated Analytics Hub [...] recopila información sobre ingresos, asistencia a la escuela, casos de embarazos adolescentes o de enfermedad mental, etc, a partir de los datos de 54.000 familias locales.

El objetivo es lograr, a partir de dichos datos, predecir qué niños están más expuestos a sufrir casos de violencia doméstica, abuso sexual o situaciones similares.

El sistema funciona asignando una puntuación de 0 a 100 a cada menor, una cifra que indica su valoración de riesgo, y a partir de ahí, proporciona sugerencias a los trabajadores sociales del municipio, de la misma manera en que lo haría un motor de recomendaciones de webs como Amazon o Facebook.


Da miedo. Y lo hacen sin pedir permiso a los ciudadanos.

¡NO al cruce de datos!

__________
Queremos transparencia en las elecciones: Publicación de los resultados por mesa electoral

D

La nueva astrología ha llegado, disfrazada con apariencia de ciencia gracias a trucos como los algoritmos y las estadísticas.

D

Al algoritmo hay que respetarlo como a su puta madre.

YizusKraist

Si con un par de likes el feis ya sabe si te gusta la vagina o el pene, ni me imagino con esto. Como todo, bien controlado y con buen uso va a ser muy útil.

Dejamos que Google y Facebook sepan hasta cuantas veces vamos al ñoba por mes, y ahora nos encandalizamos por esto que al fin y al cabo nos podria ayudar más. Solo hace falta respetar la privacidad o ponerle ciertos límites y listo.

Jokessoℝ

#9 el algoritmo ha muerto; lo que programa eso son redes neuronales aprendiendo solas.

Cajas negras que comen datos y cagan resultados correctos sin que sepamos cómo los han digerido

Jokessoℝ

#10 la IA funciona de la misma manera que un vigilante de seguridad con experiencia cuando ve entrar unas gitanas en una perfumería.

La IA funciona exclusivamente a base de prejuicios puros.

Trigonometrico

#12 En este caso se llaman estadísticas.

D

Son los algoritmos políticamente incorrectos, o la incorrección política hecha IA.

¿Veis como la incorrección política está estadística y científicamente fundada, y el buenismo supone un atentado contra la racionalidad humana?

El buenismo es el equivalente a decir que la física cuántica o la física relativista son falsas porque no hemos podido visitar todos los rincones del universo para verificar que funcionan en todos ellos.

m

#2: El problema es que el que conozca dichos algoritmos y sus debilidades, se podrá escurrir de la policía con más facilidad, es decir, la policía perseguirá con más frecuencia a los más débiles.

Además de que puede ocurrir un problema que ya se da ahora, y es el exceso de celo con personas inocentes, es decir, que estén todo el santo día registrándote, o que tengas que seguir hábitos "políticamente normales" para que no anden sospechando de ti.

¡Cuidado, has hecho una foto a un avión! ¿Serás un terrorista con intención de derribarlo? ¡Cuidado, has mirado más de 10 segundos una torre de alta tensión! ¿Tendrás intenciones de poner una bomba para sabotear el suministro eléctrico? ¡Cuidado, estás regresando a casa pasadas las 20:00! ¿Qué habrás hecho antes?

No se puede andar criminalizando todo.

markspitz

#2 Los algoritmos los crean humanos que tienen sesgos. Los algoritmos aprenden de datos recogidos de manera sesgada. De manera que las predicciones son sesgadas: https://en.wikipedia.org/wiki/Algorithmic_bias

Supercinexin

#2 Bueno, todo depende de quién programe la máquina, claro.

La máquina no se enchufa y, por sí misma, decide quién es más posible que cometa un crimen. Hay que meterle parámetros.

Dependiendo de quién y cómo le meta esos parámetros, la máquina computará si eres un delincuente o no. Es decir que un humano va a tener que contarle a la máquina una serie de "sucesos" y a partir de ahí ella "decidirá" automáticamente en base a esos parámetros que alguien le ha metido inicialmente si eres un peligro para la sociedad o no.

Detrás de eso que los subnormales y los fachas llaman "buenismo" está el raciocinio, el pensamiento humanista y la ilustración. Lo contrario, y no estamos descubriendo nada nuevo aquí, es el totalitarismo y la segregación. El raciocinio, el pensamiento humanista y la ilustración han traído los mayores avances y las más duraderas convivencias, mientras que los totalitarismos y las segregaciones han traído millones de muertos en guerras y exterminios varios. En el siglo XXI el raciocinio y el pensamiento humanista dicen que programar una máquina en base a unos parámetros más ideológicos que científicos y dejarla que decida sobre temas sociales va a traer marginalidad e injusticia, mientras que el totalitarismo y el segregacionismo proponen que usemos la máquina para automatizar... el totalitarismo y el segregacionismo.

La incorrección política, hoy en día en este mundo de derechas y tecnomaníacos, es poner estas verdades en evidencia. Asentir como un borrego y llamar "buenistas" a quienes disienten es hoy lo establecido como "socialmente aceptable" y "políticamente correcto". No te equivoques ni vayas de revolucionario, por favor.

I

"He visto algoritmos automodificándose a partir de sus aprendizajes profundos más allá de Orion....."