Apple: aquí está NeuralHash para defender a los menores en el iPhone

Inicio » Noticias » Apple: aquí está NeuralHash para defender a los menores en el iPhone


Ya sea por la privacidad o la lucha contra la pornografía infantil, Apple sintió que podría haber un término medio entre los dos, es un compromiso para proteger la privacidad y bloquear la difusión de imágenes problemáticas. De hecho, la empresa de Cupertino ha anunciado que fabricará una nueva tecnología con la que analizará todas las imágenes destinadas a todos los servidores de iCloud. Entonces, con la búsqueda de «coincidencia» con la base de datos del Centro Nacional de Menores Desaparecidos y Explotados (NCMEC), en caso de coincidencias relacionadas con la huella dactilar de la imagen, la cuenta sería bloqueada.

Por lo tanto, las imágenes se analizarían en el teléfono inteligente del usuario y luego se enviarían a iCloud con una gran cantidad de verificación y resultado de coincidencia. Según Apple, todos los falsos positivos podrían ser una cantidad que se puede pasar por alto, lo que solo permite actuar en casos graves de coincidencia. Este proceso ha sido ilustrado completamente por Apple, también explicando qué planes hay para una mayor participación con respecto al material de abuso sexual infantil (CSAM).

privacidad del iphone

Tecnología NeuralHash y Apple

La tecnología NeuralHash es defendida por Apple para tener un enfoque virtuoso del problema, con el fin de defender la privacidad de los usuarios y, al mismo tiempo, poder continuar la lucha contra la pornografía infantil.

Por supuesto, existen preocupaciones al respecto, como las de grupos como ela la Electronic Frontier Foundation, según la cual idealizar esta herramienta puede resultar peligroso, especialmente si es utilizado, forzado y explotado por las probables represalias de los países asesinos libres. Además, lo que asusta a los detractores son las posibles derivaciones de una tecnología bastante invasiva, pero con todas las precauciones del caso. EFF cita cómo lo que surge para ir en contra de la pornografía infantil También puede convertirse en un obstáculo para otro tipo de imágenes, desbordando en juego y convirtiéndose en una especie de control indiscreto sobre lo privado..

Las ambiciones de Apple también se extenderían a Mensajes, donde los menores siempre estarán protegidos de envíos y recepciones peligrosos. Pero, en caso de que las imágenes estén catalogadas como «explícitas», el niño podrá abrirlas de la misma forma, pero será consciente de que se enviará una notificación a los padres, para que puedan comprobar la situación y decidir cómo para continuar. La noticia al respecto, parece que solo entrará en vigencia en los EE. UU. por el momento con el nuevo iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.

En Europa, tendrán que ser controlados por las autoridades antes de que puedan entrar en vigor. Por lo tanto, aún existe la necesidad de validar todo el proceso más allá de los algoritmos de verificación y encriptación, integrando las bases de datos del NCMEC, la capacidad de bloquear las reglas contra la intrusión de los estados nacionales y todos los demás aspectos.

te puede interesar

.
¡Si te ha gustado no dudes en compartirlo!

Deja un comentario

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad