Hace 4 años | Por abelongi a elsaltodiario.com
Publicado hace 4 años por abelongi a elsaltodiario.com

Una campaña pide la prohibición de los sistemas de reconocimiento facial en conciertos y festivales en Estados Unidos. Artistas como Tom Morello, Amanda Palmer y el grupo punk Downtown Boys se han sumado a la iniciativa.

Comentarios

D

#4

- no entiendo que una máquina sea racista. Seguro que eso es fácilmente mejorable.

- intrusión: ley de protección de datos. Queda mucho por avanzar, pero es posible. Con Facebook, Twitter, ... y cualquier otra app eslo mismo. La generación de datos es inherente a la tecnología.

Arcueid

#5 Una máquina no es racista. Las asunciones bajo las cuales se le enseña a categorizar datos (que es lo que hacen) pueden tener premisas infundadas (no necesariamente racistas, pero que no hagan su trabajo igual de bien y esto pueda ocasionar problemas).

No entiendo qué quieres decir con la ley de protección de datos. Allí tendrán la suya. Aquí ahora tenemos la GDPR. Eso no quita que las empresas la implementen en general de forma deficiente (porque el diseño de las soluciones no suele basarse en la seguridad de la propia lógica y de los datos que maneja) y que el que haya demandas sea cuestión de tiempo. Por tanto, es muy probable que tanto aquí por allí se estén gestionando los datos de sus clientes o de los ciudadanos de forma indeseable.

Hay muchos tipos de datos y por ello categorías sobre lo sensible que es cada tipo de información. Por no mencionar el anonimizado de datos. Que digas que la generación de datos es inherente a la tecnología no sé hasta dónde aporta; puesto que no quita la obligación de tratar la mínima cantidad de datos necesaria (especialmente cuando son datos privados o peor, si son datos privados sensibles).

Hay que tener cuidado con cierto procesamiento de la tecnología. No aplicar la última novedad no es quedarse atrasado. La tecnología está en primera instancia para servir a las personas y la lógica que ejecutan de llevarse a cabo con la consideración adecuada.

D

#6 Obviamente la máquina no es la que a aporta el racismo.

Sobre protección de d datos, me gustó esta charla Ted:

https://www.google.com/url?q=https://m.youtube.com/watch%3Fv%3D5c6AADI7Pb4&sa=U&ved=2ahUKEwimmrqAt9PkAhWO3OAKHSq6BhUQtwIwAHoECAgQAQ&usg=AOvVaw0AZIPqTmlQdvHW8V8SjBCz

Arcueid

#7 Por lo que entendí de la charla, yo creo que no va tanto de protección de datos como de la veracidad de los mismos.

Según dice el que da la charla, Google está permitiendo y perpetuando un sistema de estafa mediante AdWords cuando es relativamente fácil de verificar ("un cerrajero que cobra $15 según el anuncio cuando realmente te cobrará $300 una vez hecho el trabajo, y que cuando alguien hace click en su anuncio paga $25 a Google") y no hace nada por evitar esto mismo en el futuro.

En todo caso es muy interesante, aunque no acabe de entender el mecanismo sobre cómo impersonó a otros negocios salvo que no estuviesen registrados de antes y él lo hiciese primero, como hicieron otros con el negocio del "Serbian Crown" al indicar que no abría los fines de semana.

D

#8 Para mí lo importante de la charla es que te hace ser consciente de que hay que ponerle límites a las apps y hacerles responsables de los datos que recogen y de limitarles el beneficio que pueden obtener con ello. Está claro que hay todavía mucho descontrol. Y parte del problema es que tienen intereses contrapuestos, ya que como dice, se lucran de anuncios fraudulentos.

Arcueid

#9 Estoy de acuerdo respecto a la responsabilidad de los datos que recogen y/o los que procesan, como teóricamente se debe hacer aquí ahora.

Pero no veo claro eso de limitar el beneficio a obtener; tanto porque meterse a restringir el volumen de negocio de una empresa no parece deseable para ninguna y porque un Estado siempre querrá que las empresas en su territorio ganen más; para así cotizar más, ente otras cosas.

Lo que sí sería regular esos conflictos de interés para verificar que no se saltan sus propias funciones reguladoras (de ser esperadas; lo cual no tengo claro) sobre fraude o transparencia de información.

Arcueid

Bien hecho. Ya han dejado pisotear la privacidad e infinidad bastante en su país.

D

#2 Yo no acabo de ver esos grandes problemas que supone en el artículo...

Arcueid

#3 Pues mencionan unos cuantos: está por una parte el sesgo racial que dicen que se tiene en este tipo de programas (que seguramente depende del conjunto de datos usados para entrenar el sistema de reconocimiento, quizá con poca presencia de gente de otras razas).
Y está la parte que a mí más me interesa y preocupa, que es la mencionada por la Electronic Frontier Foundation y aparte por otros: un sistema intrusivo, que capta imágenes de un usuario cuando no tienen por qué haber pedido permiso, que almacena las imágenes durante dios sabe cuánto y en qué condiciones de seguridad, y usados como conjuntos de datos también para vete a saber qué aparte del evento musical al que vayas.
Respecto a guardar las imágenes más tiempo del necesario; hay al menos un ejemplo en USA, donde hace bastante tiempo ya se hizo público que esa información generada por los escáneres realmente se estaba guardando. Aquí en Europa, si te vas a la página web de algunos aeropuertos te explican que el tiempo que esas imágenes están guardadas es el tiempo del análisis. Imagínate.
En todo caso, el hecho de que a uno no le importe que sus datos privados se traten de manera incorrecta y falsa respecto a lo que ellos mismos dicen no exime de culpa, ni de falta de seguridad, ni de problemática.