Así buscará Apple fotos de abuso infantil en iPhones



Foto: Twitter

Redaccion 09/08/2021   10:04 a. m. Noticias-Nacionales






Apple pondrá en marcha un sistema para revisar las fotos en los iPhones, iPad y su servidor iCloud con el fin de detectar imágenes de abuso infantil en cada país, al tiempo que crece la preocupación porque esta funcionalidad pueda violar la privacidad de los usuarios.




Un día antes, la empresa confirmó que en Estados Unidos utilizara ese software que revisa las fotos en busca de este tipo de imágenes antes de que se suban desde los iPhones a su servicio de almacenamiento iCloud.

¿Cómo funcionará?

De acuerdo con Financial Times, para este proyecto Apple planea utilizar el sistema neuralMatch, con el cual se escanearán las imágenes.

Además, alertará a un equipo de revisores humanos si se detectan imágenes con pornografía infantil, para luego contactar a las autoridades para que el material pueda ser verificado.

Para Estados Unidos, NeuralMatch tiene un archivo con 200 mil fotografías sobre abuso sexual infantil, proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una corporación privada que trabaja para reducir la explotación sexual infantil para reducir la explotación sexual infantil.

Cada foto en iCloud recibirá un “vale de seguridad” que señalara si es sospechosa o no. Una vez que un cierto número de fotos se cataloguen como sospechosas, Apple permitirá que todas las imágenes se descifren, precisó el rotativo.

Cuando una foto se parezca a alguna del archivo, Apple la revisará manualmente, deshabilitará la cuenta del usuario si es necesario y enviará un informe al NCMEC.

Este sistema permitirá el acceso central al almacenamiento local, más allá de lo que ya también hace la propia Apple actualmente en la nube.

Siri también dará advertencias

El grupo también está planeando nuevas herramientas para prevenir a los niños y padres que tienen una cuenta de "Compartir en familia" (Family Sharing) cuando fotos explícitas les sean enviadas a la aplicación Mensajes.

Las fotos se verán borrosas y se remitirá al menor a los mensajes de prevención con una advertencia de que no está obligado a abrir la imagen.

Los padres pueden optar por recibir un mensaje cuando su hijo abra fotos. Se implementarán protecciones similares para los niños que envíen fotos sexualmente explícitas.

El grupo también incrementará la información de prevención que difunde la asistente de voz Siri cuando los niños o los padres pidan consejo sobre determinadas situaciones.

Siri y Search también pueden intervenir cuando los usuarios busquen imágenes de pornografía infantil advirtiéndoles que dicho contenido es problemático.

Estas herramientas estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos en iPhone, iPad, iWatch e iMac.

Crece polémica

Mientras los grupos de seguridad infantil elogiaron a Apple al sumarse a Facebook, Microsoft y Google en la adopción de tales medidas, crece la polémica de que la empresa esté indagando en los dispositivos de los usuarios de forma que pueda ser aprovechada por los gobiernos.

En rueda de prensa, Apple dijo que hará planes para expandir el servicio en función de las leyes de cada país donde opera y no pasará los informes de su sistema de comprobación de fotos a las policías si la revisión no encuentra imágenes de abuso infantil.

Los matices de su sistema, como los "vales de seguridad" que pasan del iPhone a los servidores de Apple y que no contienen datos útiles, protegerán a Apple de las presiones de los gobiernos para que identifique material que no sean imágenes de abusos a menores.

Apple cuenta con un proceso de revisión humana que actúa como respaldo contra los abusos del gobierno.

Los cambios "suponen un cambio significativo de los protocolos de privacidad y seguridad establecidos hace tiempo", estimó el Centro para la Democracia y la Tecnología (CDT).

"Apple está sustituyendo su sistema de mensajería con cifrado de extremo a extremo por una infraestructura de vigilancia y censura, que será vulnerable al abuso y al mal uso no sólo en Estados Unidos sino en todo el mundo", dijo Greg Nojeim, del CDT.

"La explotación infantil es un problema grave y Apple no es la primera empresa tecnológica que cambia su postura sobre la protección de la privacidad en un intento de combatirla", recalcaron India McKinney y Erica Portnoy, de la ONG en defensa de la libertad en internet Electronic Frontier Foundation.

Pero incluso desarrollado con la mejor de las intenciones, un sistema diseñado para detectar la pornografía infantil "abre la puerta a nuevos abusos", temen en una entrada del blog.

Basta que Apple modifique un poco la configuración para buscar otro tipo de contenidos o escanear las cuentas no sólo de los niños, sino de todo el mundo, advirtieron.

 

Con información de El Sol de México