Click acá para ir directamente al contenido
PURANOTICIA TV ×
PURANOTICIA TV EN VIVO
Cómo funciona y por qué es tan polémico el software de Apple para detectar pornografía infantil en los iPhone

Cómo funciona y por qué es tan polémico el software de Apple para detectar pornografía infantil en los iPhone

  • Compartir en Whatsapp
  • Compartir en LinkedIn

Apple anunció que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, tendrán "nuevas aplicaciones de criptografía para ayudar a limitar la propagación de material de abuso sexual infantil en línea, teniendo en cuenta a la vez la privacidad de los usuarios".

Cómo funciona y por qué es tan polémico el software de Apple para detectar pornografía infantil en los iPhone
Viernes 6 de agosto de 2021 16:53
  • Compartir en Whatsapp
  • Compartir en LinkedIn

visitas

Apple anunció detalles de un sistema para detectar material de abuso sexual infantil en los dispositivos de sus clientes estadounidenses.

Antes de que una imagen se almacene en iCloud Photos, el sistema buscará similitudes entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil.

Apple afirmó que si se encuentra una coincidencia, un revisor humano evaluará e informará sobre el usuario a la policía.

Sin embargo, el anuncio ha generado temores de que la tecnología pueda expandirse y permita escanear teléfonos en busca de otros materiales prohibidos, incluso contenidos políticos en dispositivos de disidentes.

Expertos en privacidad expresaron preocupación porque gobiernos autoritarios puedan utilizar esta tecnología para espiar a sus ciudadanos.

Nuevas aplicaciones

Apple anunció que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, tendrán "nuevas aplicaciones de criptografía para ayudar a limitar la propagación de material de abuso sexual infantil en línea, teniendo en cuenta a la vez la privacidad de los usuarios".

El sistema funciona comparando fotos con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (US National Center for Missing and Exploited Children o NCMEC) y otras organizaciones de protección infantil.

Esas imágenes se traducen en códigos numéricos que pueden "coincidir" con el de una imagen en un dispositivo Apple.

La compañía agregó que el sistema también capturará versiones editadas pero similares de imágenes originales.

Imagen foto_00000001

Antes de que una imagen sea almacenada en iCloud, el sistema buscará coincidencias entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil.

"Alto nivel de precisión"

"Antes de que una imagen se almacene en iCloud, se cotejará esa imagen con los códigos numéricos de fotos de abuso infantil conocidas", afirmó Apple.

La compañía señaló que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada".

Apple dijo que revisará manualmente cada informe para confirmar que hay una coincidencia.

Y luego podría deshabilitar la cuenta de un usuario e informar a las autoridades.

Apple aseguró que la nueva tecnología ofrece beneficios de privacidad "significativos" sobre los sistemas existentes, ya que la empresa solo analizará las fotos de los usuarios si éstos tienen una colección de imágenes de abuso sexual infantil conocidas en su cuenta de iCloud.

Sin embargo, algunos expertos en privacidad han expresado su preocupación.

"Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), está bien construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido", afirmó Matthew Green, experto en criptografía de Universidad Johns Hopkins.

"No importa si tienen razón o no en ese punto. Esto equivale a 'abrir las compuertas'; los gobiernos pedirán esta tecnología".

PURANOTICIA // BBC MUNDO

Cargar comentarios