Mediante una declaración oficial Apple ha anunciado sobre un nuevo sistema que permitirá buscar de forma automática contenido de abuso sexual a menores y pornografía infantil en imágenes subidas a iCloud desde el iPhone.
El nuevo sistema está pensado para ayudar a las autoridades a hacer cumplir la ley y proteger a los menores en Estados Unidos, señala el comunicado de la empresa.
Agregan que activarán otras herramientas para protección de menores entre ellas herramientas de comunicación, que permitirán a los padres desempeñar un papel más informado al ayudar a sus hijos a navegar la comunicación en línea.
“Por otro lado la aplicación Mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible, al tiempo que mantiene las comunicaciones privadas ilegibles para Apple”.
El almacenamiento de imagénes asociado a los correos de Gmail, Google Drive ya realiza un escaneo de imágenes también. La diferencia principal aquí es que Apple ha prometido desde un principio a los usuarios una nube cifrada y un contenido al que nadie puede acceder sin las claves de acceso.
Lea de Literal: Crónica: Esclava de la manzana

¿Cómo se detecta el contenido ilegal?
El sistema de Inteligencia Artificial NeuralHash de Apple permite identificar si el usuario carga imágenes con pornografía infantil en iCloud.
Lo hace sin descifrar las imágenes y haciendo uso de un sistema homomórfico que comprueba hashes contra una base de datos de imágenes de Apple.
Si el sistema detecta la posibilidad de que haya un contenido significativo de imágenes ilegales, se le avisa a Apple y se revisa manualmente el informe para confirmar que hay una coincidencia alta. En ese momento se deshabilita la cuenta del usuario y se envía un informe a las autoridades.
Apple asegura que no vulneran la privacidad de los usuarios con este nuevo sistema. Para ello sólo analizan imágenes antes de que sean subidas a iCloud y en el dispositivo del usuario. Sólo si el sistema detecta una colección de imágenes de abuso infantil que coinciden con una base de datos ya establecida, comprobarán el contenido y será enviado a las autoridades.
Hemos publicado en Literal: Cinco servicios de almacenamiento gratuitos en la nube

Más opciones de seguridad
La compañía advirtió que estas características llegarán a finales de este año en actualizaciones para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey al mismo tiempo mencionaron que se activarán otras herramientas, entre ellas:
- La app Mensajes detectará automáticamente imágenes sexualmente explícitas y las difuminará.
- Una alerta saltará y le indicará al niño qué puede encontrarse detrás de esa imagen si desea abrirla.
- Así mismo, se le avisará de que los padres serán notificados y verán la fotografía también.
- Siri, el asistente virtual de Apple, ofrecerá ayuda a los usuarios en relación a contendido de abuso sexual a menores.
- Si el usuario busca contenido de abuso sexual en sí, se le informará de que puede ser dañino y problemático.