Tecnología

Apple escaneará iPhones en busca de imágenes de abuso sexual infantil

Apple ha anunciado los detalles de un sistema para localizar material de abuso sexual infantil (CSAM) en los dispositivos de los clientes.

Foto de archivo.
Fotografía: AFP

Antes de que una imagen se almacene en Fotos de iCloud, la tecnología buscará coincidencias CSAM conocidas.

Apple dijo que si se encuentra una coincidencia, un revisor humano evaluará e informará al usuario a las autoridades.

Sin embargo, existen preocupaciones de privacidad de que la tecnología podría expandirse para escanear teléfonos en busca de contenido prohibido o incluso discursos políticos.

Los expertos temen que los gobiernos autoritarios puedan utilizar la tecnología para espiar a sus ciudadanos.

Apple dijo que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, tendrán «nuevas aplicaciones de encriptación para ayudar a limitar la propagación de CSAM en línea, mientras se diseña para la privacidad del usuario».

El sistema funciona comparando imágenes con una base de datos de imágenes de abuso sexual infantil conocidas compiladas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil.

Estas imágenes se traducen en «hashes», códigos numéricos que se pueden «combinar» con una imagen en un dispositivo Apple.

Apple dice que la tecnología también detectará versiones editadas pero similares de las imágenes originales.

«Antes de que una imagen se almacene en iCloud Photos, se realiza un proceso de comparación en el dispositivo para esa imagen con hashes CSAM conocidos», dijo Apple.

La compañía dijo que el sistema tenía «un nivel extremadamente alto de precisión y garantiza menos de una posibilidad en un billón de años de marcar incorrectamente una cuenta determinada».

READ  Facebook, Instagram y Whatsapp experimentan una disrupción global

Apple dice que revisará manualmente cada informe para confirmar que hay una coincidencia. Luego, puede tomar medidas para deshabilitar la cuenta de un usuario e informar a las autoridades policiales.

La compañía dice que la nueva tecnología ofrece beneficios de privacidad «significativos» sobre las técnicas existentes, ya que Apple solo se entera de las fotos de los usuarios si tienen una colección de CSAM conocidos en su cuenta de Fotos de iCloud.

Sin embargo, algunos expertos en privacidad han expresado su preocupación.

«Independientemente de los planes a largo plazo de Apple, enviaron una señal muy clara. En su opinión (muy influyente), es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido», dijo Matthew Green, investigador de seguridad en Johns Universidad Hopkins, dijo.

«No importa si tienen razón o no en este punto. Se romperá la presa, los gobiernos se lo exigirán a todos».

BBC

Federico Pareja

"Escritora típica. Practicante de comida malvada. Genio zombi. Introvertido. Lector. Erudito de Internet. Entusiasta del café incondicional".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba