Apple intenta aliviar los problemas de escaneo de fotos CSAM con nuevas preguntas frecuentes

Apple ha publicado una nueva sección de preguntas frecuentes sobre su plan para escanear fotos de usuarios en busca de imágenes de abuso infantil (CSAM) en un esfuerzo por combatir las crecientes preocupaciones.

El documento tiene como objetivo proporcionar «mayor claridad y transparencia», dijo Apple, después de señalar que «muchas partes interesadas, incluidas las organizaciones de privacidad y las organizaciones de seguridad infantil, han expresado su apoyo» a la medida.

Las preguntas frecuentes explican las diferencias entre el escaneo CSAM en iCloud y las nuevas funciones de protección infantil que vienen a Messages. También asegura a los usuarios que Apple no cumplirá con las solicitudes gubernamentales para ampliar la funcionalidad.

Las nuevas preguntas frecuentes se producen después de que Apple confirmara la semana pasada que lanzará nuevas funciones de seguridad infantil que incluyen escanear material de abuso sexual infantil (CSAM) en las bibliotecas de fotos de iCloud y detectar fotos explícitas en Mensajes.

Desde el anuncio, varios defensores de la privacidad, incluido el denunciante Edward Snowden y la Electronic Frontier Foundation (EFF), se han pronunciado en contra del plan, que se lanzará a finales de este año.

«Incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del propio mensajero y abrirá la puerta a un abuso más amplio», advirtió la EFF. Apple espera poder aliviar estas preocupaciones con una nueva sección de preguntas frecuentes.

Apple publica preguntas frecuentes sobre el escaneo de fotos de iCloud

«Queremos proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos y limitar la difusión de material de abuso sexual infantil (MASI)», se lee en el documento de seis páginas publicado durante el fin de semana.

“Desde que anunciamos estas características, muchas partes interesadas, incluidas organizaciones de privacidad y organizaciones de seguridad infantil, han expresado su apoyo a esta nueva solución y algunas han pedido información.

«Este documento sirve para dar respuesta a estas preguntas y brindar mayor claridad y transparencia en el proceso».

La primera preocupación con las direcciones de preguntas frecuentes es la diferencia entre la detección de CSAM en Fotos de iCloud y las nuevas herramientas de seguridad de comunicación en Mensajes. «Las dos funciones no son iguales», dice Apple.

Aclarar la confusión

La seguridad de las comunicaciones en Mensajes «solo funciona con imágenes enviadas o recibidas en la aplicación Mensajes para cuentas de niños configuradas en Compartir en familia», explica la sección de preguntas frecuentes. «Analiza las imágenes en el dispositivo y por lo tanto no cambia las garantías de privacidad de Mensajes».

Cuando se envía o recibe una imagen sexualmente explícita de una cuenta de niño, la imagen se ve borrosa y se le notificará al niño de lo que está enviando. También se les proporcionarán «recursos útiles», dice Apple, y «les asegurará que está bien si no quieren ver o enviar la foto».

También se les dirá a los niños que, para asegurarse de que están a salvo, se les notificará a sus padres si eligen ver o enviar una imagen sexualmente explícita.

La detección de CSAM en iCloud Photos es muy diferente. Está diseñado para «mantener CSAM fuera de las fotos de iCloud sin proporcionar información a Apple sobre fotos que no sean las que corresponden a imágenes CSAM conocidas».

«Esta función solo afecta a los usuarios que han optado por utilizar fotos de iCloud», añade Apple. «No hay impacto en ningún otro dato del dispositivo» y no se aplica a los mensajes que no se escanean en un dispositivo para adultos.

Seguridad de la comunicación en los mensajes

Las preguntas frecuentes continúan abordando diversas inquietudes acerca de ambas funciones. Acerca de la seguridad de la comunicación en Mensajes, explica que los padres o tutores deben optar por utilizar la función para cuentas de niños y que solo está disponible para niños menores de 12 años.

Apple nunca se entera cuando se descubren imágenes sexualmente explícitas en la aplicación Mensajes y no se comparte ni se informa a la policía, dice. Apple también confirma que la seguridad de las comunicaciones no viola el cifrado de extremo a extremo en Mensajes.

Las preguntas frecuentes también confirman que los padres no serán notificados sobre contenido sexualmente explícito en Mensajes a menos que un niño elija verlo o compartirlo. Si se les advierte, pero eligen no ver o compartir el contenido, no se envía ninguna notificación. Y si tienen entre 13 y 17 años, todavía aparece una advertencia, pero los padres no son notificados.

Detección de CSAM en Fotos de iCloud

Tras la detección de CSAM, Apple confirma que la función no escanea todas las imágenes almacenadas en el iPhone de un usuario, solo las cargadas en Fotos de iCloud. «E incluso entonces, Apple solo conoce las cuentas que almacenan colecciones de imágenes CSAM conocidas y solo las imágenes que coinciden con CSAM conocidas».

Si ha desactivado Fotos de iCloud, la función no funciona. Y las imágenes CSAM reales no se utilizan para comparar. “En lugar de imágenes reales, Apple usa hashes ilegibles almacenados en el dispositivo. Estos hash son cadenas de números que representan imágenes CSAM conocidas, pero esos hash no se pueden leer ni convertir en las imágenes CSAM en las que se basan «.

«Uno de los desafíos importantes en este espacio es proteger a los niños mientras se preserva la privacidad del usuario», explica Apple. «Con esta nueva tecnología, Apple conocerá las fotos CSAM conocidas almacenadas en iCloud Photos, donde la cuenta almacena una colección de CSAM conocidas. Apple no aprenderá nada sobre otros datos almacenados únicamente en el dispositivo».

Sobre privacidad y seguridad

La sección final de las preguntas frecuentes aborda las preocupaciones de privacidad y seguridad planteadas por el anuncio inicial de Apple. Confirma que la detección de CSAM solo funciona en CSAM, no puede buscar nada más, y aunque Apple informará CSAM a las fuerzas del orden, el proceso no está automatizado.

«Apple realiza una revisión humana antes de enviar un informe al NCMEC», dice el FAW. “Como resultado, el sistema solo está diseñado para informar fotos que se conocen como CSAM en iCloud Photos. En la mayoría de países, incluido Estados Unidos, la mera posesión de estas imágenes es un delito ”.

Apple también confirma que «rechazará tales solicitudes» de los gobiernos que intentan obligar a Apple a hacerse cargo de cualquier otra cosa que no sea CSAM. «En el pasado, hemos enfrentado solicitudes para crear e implementar cambios impuestos por el gobierno que degradan la privacidad del usuario, y hemos rechazado firmemente tales solicitudes».

«Seamos claros», agrega Apple, «esta tecnología se limita a la detección de CSAM almacenada en iCloud y no aceptaremos ninguna solicitud del gobierno para expandirla».

puede Lea las preguntas frecuentes completas en el sitio web de Apple Ahora.

Deja un comentario