WhatsApp se opone a la nueva tecnología de Apple para combatir el abuso sexual infantil

El hecho de que Apple tenga un plan, y una próxima función de seguridad, diseñada para combatir la propagación de imágenes de abuso sexual infantil, no significa que todos estén a bordo.

El jefe de WhatsApp, Will Cathcart, se unió al coro de críticos de Apple el viernes, afirmando en términos inequívocos que la aplicación de mensajería propiedad de Facebook no adoptará esta nueva función una vez que se lance. Cathcart luego pasó a exponer sus preocupaciones sobre el sistema impulsado por el aprendizaje automático en un hilo extenso.

“Este es un sistema de vigilancia construido y operado por Apple que podría usarse muy fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar”, escribió Cathcart en la mitad del hilo. “Los países donde se venden iPhones tendrán diferentes definiciones sobre lo que es aceptable”.

Si bien la posición de WhatsApp sobre la función en sí es lo suficientemente clara, el hilo de Cathcart se centra principalmente en plantear escenarios hipotéticos que sugieren dónde podrían salir mal las cosas. Quiere saber si el sistema se utilizará en China y cómo se utilizará, y “qué sucederá cuando” las empresas de software espía lo exploten, y qué tan a prueba de errores es realmente.

Esta nueva función de seguridad utiliza una tecnología patentada llamada NeuralHash que escanea el hash de cada archivo de imagen, una firma, básicamente, y lo compara con los hash de los materiales conocidos de abuso sexual infantil (CSAM). Todo esto sucede antes de que una foto se almacene en iCloud Photos, y Apple no tiene permitido hacer o mirar nada a menos que el control de hash active las alarmas.

Pero puede haber vulnerabilidades. El enfoque de control de hash es falible, por supuesto. No va a detectar CSAM que no estén catalogados en una base de datos, por ejemplo. Matthew Green, experto en ciberseguridad y profesor de la Universidad Johns Hopkins, también señaló el posible riesgo de que alguien utilice un hash de archivo CSAM dentro de un archivo de imagen que no sea CSAM.

También hay otra parte de la actualización de seguridad. Además de las comprobaciones de hash impulsadas por NeuralHash, Apple también introducirá una función de control parental que escanea las imágenes enviadas a través de iMessage a las cuentas de los niños (es decir, las cuentas que pertenecen a menores, según lo designen los propietarios de la cuenta) en busca de materiales sexualmente explícitos. Los padres y tutores que activen la función serán notificados cuando se active la alarma de contenido de Apple.

La Electronic Frontier Foundation (EFF) emitió una declaración crítica de la próxima actualización poco después del anuncio de Apple. Hay una discusión razonable sobre los méritos y riesgos del plan de Apple. Además, WhatsApp está perfectamente en su derecho de plantear objeciones y comprometerse a no hacer uso de la función.

Solo queda esperar y ver como evoluciona el desarrollo de esta nueva función de seguridad de la mano de Apple.

Vía – Mashable

Jeremías Rodríguez

Profesor de Historia. Amante de los libros, la tecnología y el buen café.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.