Hace 2 años | Por geralt_ a es.gizmodo.com
Publicado hace 2 años por geralt_ a es.gizmodo.com

Apple estaría trabajando en una herramienta para detectar material conocido de abuso sexual infantil, como imágenes de pornografía infantil, en los iPhones de sus usuarios. Esta herramienta utilizaría algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido conocido de pornografía infantil, lo que implica que los iPhones tendrán que descargar un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios.

Comentarios

geralt_

#4

marcamo

#4 Según indica la entradilla: de las fotos conocidas (por Apple) se les hace un hash el cual se compara con el hash de las fotos de tu móvil.

En principio tus fotos no salen del móvil, es tu móvil el que hace una comparación de las "huellas" de las fotos.

Pero eso es lo que cuenta la entradilla que dicen los de Apple, que comentan que...

skaworld

#9 #8 Pos vais a tener razon, me callo

a

#10 No te creas que vas muy desencaminado tampoco, dale un par de años y reenvias el comentario lol

snowdenknows

#13 #9 #10 puede haber colisiones de hash, quien quiere jugar una loteria q solo puedes perder

s

#24 Esto es algo que se puede calcular y supongo sin conocer detalles que es una probabilidad que se busca que sea infima.
Me procupa por otro lado que haya fotos de dominio público que sean clasificadas accidentalmente como ilegales. Es algo que veo mucho mas probable, porque eso depende de procedimientos manuales.
Quiero pensar, que por eficiencia cuando pillan un repositorio de ese tipo con gigas de dudoso contenido, no se entretienen analizando todas las imagines del repositorio una por una para mirar si es legal o no, sino que van a bulto, es decir miran unas cuantas fotos al azar y asumen que el resto son del mismo tipo. Así que si en esos repositorios hay mezcladas imágenes de contenido legítimo acabaran también en el repositorio de hash prohibidos . Ahora imaginate por ejemplo si el el logo del elefante de meneame se cuela en uno de esos repositorios.

a

#4 Segun dicen lo detecta a base de hash que es una especide de indentificador de la foto. Es decir, solo busca en tu movil fotos que ya previamente tienen ellos, probablemente de la base de datos de la policia. Si tu haces una foto original no la va a detectar nunca, no es como que tenga una inteligencia artificial que analize la foto.
Es decir, si yo a X pederasta le incauto una foto con hash 2352642352, pues miran en tu movil si hay una foto con el mismo hash y eso es lo que detecta.

garnok

#9 pues dende como calcules el hash la foto con 2352642352 puede ser generada por un niño bolas o por las playa de de la concha al atardecer o por la foto de tu tiket del parking

s

#4 Está imagen probablemente no estará en la base de datos de la que se generan los hash que identifican las fotografías. Si lo está deberías preocuparte, de como alguien a accedido a tus fotos personales y las ha distribuido mezcladas con pornografía infantil

Z

#4 Cuñaete, tira el palillo roñoso de la boca que ya apesta. Y cuando lo tires si quieres te lees la noticia a ver si llegas a comprender lo que es una comparación por hash de imágenes ya declaradas como pornografia infantil.

superjavisoft

Esto me recuerda que tengo una foto mia de bebe tumbado con el culo al aire en el movil. De momento no me ha dado problemas. #4

D

#4 Solo van a comparar un hash, lo dijo La Iglesia de las Manzanas de los Últimos Días y lo santificó nuestro señor Jobs.

D

#4 Eso ya ocurrió. Un padre subió una foto suya en pelotas jugando en una bañera con su hija a una red social y le cayeron las siete plagas socialmente hablando. La gente decía que eso era pornografía infantil (cuando si hubiera sido la madre con su hijo no hubiera ocurrido nada) y la foto era de lo más inocente del mundo.

RamonMercader

#2 por lo que dice va a comprar con una base de datos de material conocido, si es 'inedito' no lo detectará.

Tiene toda la pinta de ser el primer paso a un sistema que detecte música pirata

D

#7 Lo de música pirata me ha devuelto atrás 2 décadas.

PauMarí

#2 #1 ¿y los pobres desarrolladores del proyecto que? Les obligan a tener pornografia infantil en sus equipos para desarrollar los algoritmos...

D

#2 lo pone en la entradilla tío, cogen imágenes que la policía ya conoce como pornografía ilegal, y buscan el mismo hash en el dispositivo, no le deis más vueltas. El algoritmo no puede confundir tus fotos.
Ahora ya, lo que no se que piensan hacer si detectaran que tienes esas fotos. Porque eso supondría que tendría que leerme la notica y por ahí no paso.

snowdenknows

#14 los hash pueden tener colisiones (falsos positivos*), aunque es difícil en los actuales como sha256 puede ocurrir, en md5 por ejemplo ya las pueden crear practicamente cuando se quiera.

garnok

#14 a no ser que ocurran colisiones de hash y den por porno infantil tu video de las vacaciones

kumo

La excusa para que todo el mundo acepte que se revise su intimidad sin preguntas.

D

Fantastico. Tan pronto la publiquen, los pederastas dejaran de usar iphone, y entonces, solo servira para espiar a todo el mundo.
Pero si pagas lo que Apple pide por sus iPhones, te lo mereces.

Trimax

Aún en el caso de que no se suba nada a la nube de Apple, estarían usando el espacio de memoria de tu iPhone, que te la cobran a precio de caviar iraní, para almacenar los hash, por no hablar del consumo extra que supondrá el cálculo.

D

¿Alguien recuerda con qué fue que pavimentaron la autopista que va al infierno?

P.D. No sé por qué recordé a los que aplauden cuando algún político saca la gran idea de una oficina del gobierno para luchar contra las noticias falsas.

D

Apple haciendo de policía. ¿Qué puede salir mal? ¿tendrán línea directa con la NSA para detectar otro tipo de fotos? roll

e

Y en los casos en que haya dudas sobre la edad del sujeto, se procederá a un visionado manual por un grupo de expertos

En realidad el tema es bastante serio y tiene que ver con nuestra total falta de privacidad. Por supuesto siempre habrá "motivos", desde el terrorismo a la pedofilia, pero el hecho es que no existe la privacidad digital.