Apple retrasa controvercial caracteristica luego de quejas referentes a privacidad

0
146

Apple está retrasando sus funciones de protección infantil anunciadas el mes pasado, incluida una función controvertida que escanearía las fotos de los usuarios en busca de material de abuso sexual infantil (CSAM), tras las intensas críticas de que los cambios podrían disminuir la privacidad del usuario. Se había programado que los cambios se implementaran a finales de este año.

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil”, dijo Apple en un comunicado a The Verge. “Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.

El comunicado de prensa original de Apple sobre los cambios, cuyo objetivo era reducir la proliferación de material de abuso sexual infantil (CSAM), tiene una declaración similar en la parte superior de la página. Ese comunicado detalló tres cambios importantes en las obras. Un cambio en Search y Siri apuntaría a recursos para prevenir CSAM si un usuario buscaba información relacionada.

Los otros dos cambios fueron objeto de un escrutinio más significativo. Uno alertaría a los padres cuando sus hijos estuvieran recibiendo o enviando fotos sexualmente explícitas y desenfocaría esas imágenes para los niños. El otro habría escaneado las imágenes almacenadas en las Fotos de iCloud de un usuario para CSAM y las habría informado a los moderadores de Apple, quienes luego podrían remitir los informes al Centro Nacional para Niños Desaparecidos y Explotados, o NCMEC.

Apple detalló ampliamente el sistema de escaneo de iCloud Photo para demostrar que no debilitaba la privacidad del usuario. En resumen, escaneó las fotos almacenadas en iCloud Photos en su dispositivo iOS y evaluaría esas fotos junto con una base de datos de hashes de imágenes CSAM conocidos del NCMEC y otras organizaciones de seguridad infantil.

Aún así, muchos expertos en privacidad y seguridad criticaron duramente a la compañía por el nuevo sistema, argumentando que podría haber creado un sistema de vigilancia en el dispositivo y que violó la confianza que los usuarios habían depositado en Apple para proteger la privacidad en el dispositivo.

La Electronic Frontier Foundation dijo en una declaración del 5 de agosto que el nuevo sistema, aunque bien intencionado, “rompería las promesas clave del cifrado del mensajero y abriría la puerta a abusos más amplios”.

“Apple está comprometiendo el teléfono que usted y yo poseemos y operamos”, dijo Ben Thompson de Stratechery en su propia crítica, “sin que ninguno de nosotros tenga voz al respecto”.

Leave a reply