Apple denunciará fotos de abuso infantil almacenadas en iCloud

Esta función utilizará un proceso criptográfico, algunos en el dispositivo y otros en los servidores de Apple.

42
iPhones de Apple
Foto: EFE

Durante años, las empresas han luchado entre dos impulsos: la necesidad de cifrar los datos de los usuarios para proteger su privacidad y la necesidad de detectar los peores tipos de abuso en sus plataformas. Ahora, Apple está introduciendo un nuevo sistema criptográfico que busca enhebrar esa aguja y reconocer las imágenes de abuso infantil almacenadas en iCloud sin, en teoría, introducir nuevas formas de invasión de la privacidad.

También crea una brecha entre la protección de datos y los expertos en criptografía que ven su trabajo como una solución nueva e innovadora y aquellos que lo ven como una rendición peligrosa a la vigilancia gubernamental.

Apple presentó el pasado jueves 5 de agosto una serie de nuevas medidas tecnológicas en iMessage, iCloud, Siri y Search, todas destinadas a prevenir el abuso infantil. Una nueva configuración de activación en las cuentas familiares de iCloud que usa el aprendizaje automático para identificar desnudos en imágenes enviadas en iMessage.

El sistema también puede bloquear el envío o la recepción de estas imágenes, mostrar advertencias y, en algunos casos, informar a los padres que un niño las ha visto o enviado. Siri y Search ahora mostrarán una advertencia cuando alguien busque o vea material de pornografía infantil, también conocido como CSAM, y ofrece opciones para pedir ayuda con su comportamiento o para informar lo que encuentra.

Pero la nueva característica más innovadora y controvertida de Apple, iPhone, iPad y Mac, ahora también incorporará un nuevo sistema que verifica las imágenes cargadas a iCloud en los Estados Unidos en busca de imágenes conocidas de abuso sexual infantil.

Esta función utilizará un proceso criptográfico, algunos en el dispositivo y otros en los servidores de Apple, para reconocer estas imágenes e informarlas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) y, finalmente, a las fuerzas del orden de Estados Unidos.

Apple afirma que ninguna de estas nuevas funciones de administración de Material de Abuso Sexual Infantil (CSAM) compromete la privacidad del usuario, que incluso el mecanismo de detección de iCloud utiliza encriptación inteligente para evitar que el mecanismo de escaneo de Apple acceda a imágenes visibles que no son CSAM, explica Xataka.

El sistema fue desarrollado y analizado en colaboración con el criptógrafo de la Universidad de Stanford, Dan Boneh, y el anuncio de Apple de la función incluye el apoyo de muchos otros expertos en criptografía reconocidos.

También te puede interesar:

En Ghana proponen 10 años de cárcel a personas LGBT+ y a quien les apoye

YosStop reflexiona sobre “proceso evolutivo” en nuevo mensaje desde prisión

VIBEtv