Publicado hace 9 meses por Hombre_de_Estado a hipertextual.com

A fines de 2022, Apple canceló su plan para detectar fotos de abuso sexual infantil almacenadas en iCloud. El plan generó controversia pues podía derivar en una problemática de privacidad inimaginable. Ahora, por primera vez, Apple da explicaciones: consultó con expertos en tecnología, seguridad y derechos humanos, y estudió tecnología de escaneo "desde todo ángulo virtualmente posible". Conclusión: lo que se pretendía era imposible sin concesiones en privacidad. Ni siquiera procesando la información en el iPhone, y no en servidores de iCloud.

Comentarios

H

Más info:
- Wiki: https://en.wikipedia.org/wiki/ICloud#Privacy
- 2021: "Apple defiende el escaneo de archivos en el iPhone: "No aceptaremos demandas de gobiernos" ": Apple defiende el escaneo de archivos en el iPhone: "No aceptaremos demandas de gobiernos"

Hace 2 años | Por --688203-- a eleconomista.es

- 2021: "Apple estaría trabajando en una herramienta para detectar pornografía infantil en los iPhones de sus usuarios ": Apple estaría trabajando en una herramienta para detectar pornografía infantil en los iPhones de sus usuarios
Hace 2 años | Por geralt_ a es.gizmodo.com

- 2021: "Apple Has Reportedly Been Scanning Your iCloud Mail for Child Abuse Images Since 2019": https://gizmodo.com/apple-has-reportedly-been-scanning-your-icloud-mail-for-1847538826
- 2021: "Apple confirms it will begin scanning iCloud Photos for child abuse images": https://techcrunch.com/2021/08/05/apple-icloud-photos-scanning/
- 2022: "Apple Kills Its Plan to Scan Your Photos for CSAM. Here’s What’s Next": https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/
- 2023: "Apple’s Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh Controversy": https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/

t

porqué los niños y niñas de 12 ya se sacan fotos desnudos (sexting) y no es posible saber saber si es el caso o no...