Apple presentó el jueves nuevas herramientas para identificar de manera más efectiva el contenido de pornografía infantil en sus dispositivos y servicios. Pero algunos expertos en seguridad informática temen que esto abra la caja de pandora de la vigilancia masiva.
La reconocida marca de la manzana, que ha construido parte de su reputación en la protección de datos personales, presentó un nuevo dispositivo el jueves 5 de agosto, que sorprendió los expertos en privacidad en línea.
La herramienta se denomina “NeuralMatch”, que tiene un objetivo imposible de criticar: luchar contra la pornografía infantil. Apple, en una actualización que se implementará el próximo mes iniciando en Estados Unidos, planea usar inteligencia artificial y criptografía para escanear fotos almacenadas localmente en iPhones y iPads e identificar si alguna está relacionada con pornografía infantil.
El grupo estadounidense ya puede controlar las imágenes en iCloud, el servicio de respaldo del servidor remoto de Apple. Esto también es lo que están haciendo sus principales competidores, como Google, Dropbox o OneDrive de Microsoft.
Pero los creadores de iPhone van mucho más allá mientras se preparan para analizar las imágenes que los usuarios aún no han decidido poner en los servidores de iCloud. ‘’La iniciativa de Apple puede cambiar las reglas de juego’’, dijo John Clark, presidente del Centro Nacional para Niños Desaparecidos y Explotados (NCEM, por sus siglas en inglés), la principal organización estadounidense contra la explotación de menores.