Hace 2 años | Por Nyrco a xataka.com
Publicado hace 2 años por Nyrco a xataka.com

Seguramente recordéis ese cartel publicitario. Fue parte de una campaña que destacaba cómo Apple se preocupaba por nuestra privacidad. "Lo que pasa en tu iPhone, se queda en tu iPhone", decían. Ese argumento se unía a otros como los de la privacidad diferencial, pero los últimos movimientos de esta empresa han hecho que muchos se preocupen. Se trata de sus nuevas iniciativas para (teóricamente) proteger la seguridad de los niños y limitar la difusión de la pornografía infantil.

Comentarios

Esperanza_MM

#13 o libertarias....

IrMaNDiÑo

Y si le saco unas fotos a mis hijos en la bañera o corriendo por el jardin o incluso en la playa (sin pañal, que tienen dos años), ¿Me detendran los de FBI?

c

#17 Y lo peor de todo, probablemente esas fotos acaben copiadas en otro sitio.

Nova6K0

Es bastante peor el sistema que propuso la Comisión Europea, y que lejos de mitos será modificado en pocos meses, para ser no solo obligatorio si no además que pueda leerse comunicaciones cifradas. Como expliqué, esto lo que hará es que los y las menores se vayan a otras aplicaciones no tan conocidas, y lo peor a la red TOR. Pero además puede haber tantos falsos positivos como falsos negativos.

De hecho hay una propuesta superior, que es que desaparezca el anonimato, y esta vez con las excusa de las "fake news" de tal forma que cada persona tenga un código único que lo identifique. Esto a todas luces lo tumbaría el TJUE, si se propusiese, por eso se lo están pensando mucho. Yo creo que al final, no lo van a proponer, pero bueno. También pensé que no se atreverían con lo primero.

Saludos.

D

No sé si alguien se lo habrá preguntado, ¿pero como ha entrenado Apple esa IA que reconozca fotos de abusos a niños?

D

#5 Gracias

j

#3 con leerse el artículo basta para saber que no hay ninguna IA y se compara el hash de la foto contra un repositorio oficial existente.

“Como explica Gruber, en este caso el proceso de identificación no equivale a un análisis del contenido. Apple no sabe lo que hay en la foto, y lo que básicamente ocurre es que Apple compara una imagen en tu dispositivo con otra que sabe que sí es de pornografía infantil. ¿Cómo lo sabe? Porque esa imagen está en una base de datos oficial que está gestionada por un organismo oficial de EE.UU. llamado NCMEC.

Apple no ve ni la imagen original ni la de la base de datos. Lo que ve son números. Cada imagen tiene una especie de huella dactilar (de ahí lo del 'fingerprinting') y esa se compara con la "huella dactilar" de la imagen que está en iCloud Photos. Si son iguales, se activa la alerta, porque se detecta que esa imagen es efectivamente de pornografía infantil.“

D

#6 Estoy trabajando genio.

j

#8 genio tu, trabaja y deja menéame. A ver si hay alguna IA que te vigilé y tengas problemas.

Kateter

Como?!... En UK, para ser exactos, en una de sus plazoletas, si no llevas la cara descubierta te multan, y después estos se quejan de un escaneo de foto, que está en funcionamiento desde hace unos pocos años, por parte de Google

D

#7 Qué?!!!?? Me dejas aluciflipado

Kateter

#10 Pues ya sabes, deje los porrxs

el-brujo

Messages: la aplicación de mensajería "usará aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple".

¿Ilegibles, pero analizan el "contenido sensible"? ¿Cómo las analizan si son teóricamente ilegibles? Claro son ilegibles para un humano porque hay muchas, pero usando inteligencia artificial pueden analizarlas "leerlas" todas.

t

Que spyware más raro que hay que activarlo conscientemente para que funcione.

D

#1 supongo que funciona igual sin que aceptes, pero les obligan a preguntar primero para que creas que lo decides tú

neo1999

#2 Sería de gran ayuda que el código fuese libre y se pudiese auditar pero claro, esas son medidas comunistas.

S

#1 Si lees la noticia verás que el análisis de tus fotos no es opcional, la que lo es es el análisis de mensajes de texto:

Esta medida, a diferencia de la anterior, no es 'opt in', y está activada por defecto. Si usas iCloud Photos, las imágenes que tengas en tu biblioteca en la nube estarán sujetos a ese proceso de 'fingerprinting'

el-brujo

#1 En Estados Unidos se trabaja con organismos como el NCMEC, pero ¿qué ocurre si un país como China exige que serán ellos los que proporcionarán la base de datos de imágenes de pornografía infantil, y esa base de datos incluye otras imágenes, por ejemplo de disidentes políticos?.

Apple quiere normalizar la idea de que una empresa escanee el contenido de nuestro teléfono, así que empiezan haciéndolo con una idea medio razonable.

No lo entiendo ¿Porqué una empresa que dice textualmente que la privacidad es un derecho fundamental decide escanear las fotos tu teléfono?