Dirección
175 Greenwich St, New York, NY 10007
En diciembre, Apple dijo que estaba poniendo fin a un esfuerzo para diseñar una herramienta de escaneo de fotografías de iCloud que preserve la privacidad para detectar material de abuso sexual infantil (CSAM) en la plataforma. Anunciado originalmente en agosto de 2021, el proyecto ha generado controversia desde sus inicios. Apple lo suspendió por primera vez en septiembre en respuesta a las preocupaciones de investigadores y grupos de derechos digitales de que inevitablemente se abusaría y explotaría dicha herramienta para comprometer la privacidad y seguridad de todos los usuarios de iCloud. Esta semana, un nuevo grupo de seguridad infantil conocido como Heat Initiative dice a Apple que está organizando una campaña para exigir que a empresa “detecte, denuncie y remueva” material de abuso sexual infantil de iCloud y ofrezca mas herramientas para que los usuarios denuncien CSAM a la empresa.
Hoy, en un movimiento poco común, Apple ha respondido a la Iniciativa Heat exponiendo sus razones para abandonar el desarrollo de su función de escaneo CSAM iCloud y, en cambio, centrándose en un conjunto de herramientas y funciones en el dispositivo para usuarios conocidos colectivamente como funciones de seguridad de las comunicaciones. La respuesta de la compañía a la Iniciativa Heat, que Apple compartió ofrece una visión poco común no solo de su justificación para pasar a la Seguridad de las Comunicaciones, sino también de sus puntos de vista más amplios sobre la creación de mecanismos para eludir las protecciones de la privacidad del usuario, como el cifrado. para monitorear datos. Esta posición es relevante para el debate sobre el cifrado en términos más amplios, especialmente ahora que países como el Reino Unido consideran aprobar leyes que requerirían que las empresas de tecnología puedan acceder a los datos de los usuarios para cumplir con las solicitudes de las autoridades.
«El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él», escribió Erik Neuenschwander, director de privacidad de usuarios y seguridad infantil de Apple, en la respuesta de la compañía a Heat Initiative. Sin embargo, añadió que después de colaborar con una variedad de investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la compañía concluyó que no podía continuar con el desarrollo de un mecanismo de verificación CSAM, incluso si estuviera construido específicamente para preservar privacidad. .
«Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza para que los ladrones de datos los encuentren y exploten», escribió Neuenschwander. “También inyectaría la posibilidad de una pendiente resbaladiza de consecuencias no deseadas. Escanear un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y puede crear el deseo de buscar otros sistemas de mensajería cifrada en múltiples tipos de contenido”.
El grupo está dirigido por Sarah Gardner, ex vicepresidenta de asuntos externos de la organización sin fines de lucro Thorn, que trabaja en el uso de nuevas tecnologías para combatir la explotación infantil y el tráfico sexual en línea. En 2021, Thorn elogió el plan de Apple para desarrollar una función de escaneo CSAM de iCloud. Gardner dijo en un correo electrónico al director ejecutivo Tim Cook el miércoles 30 de agosto, que Heat Initiative consideró que la decisión de Apple de eliminar la función era «decepcionante».
«Creemos firmemente que la solución que usted reveló no sólo posicionó a Apple como líder mundial en privacidad del usuario, sino que también prometió erradicar millones de imágenes y videos de abuso sexual infantil de iCloud», escribió Gardner a Cook. “Soy parte de una iniciativa en evolución que involucra a expertos y defensores de la seguridad infantil preocupados que tienen la intención de dialogar con usted y su empresa, Apple, sobre su continuo retraso en la implementación de tecnología crítica… El abuso sexual infantil es un tema difícil del que nadie quiere hablar. , razón por la cual se silencia y se deja atrás. Estamos aquí para asegurarnos de que eso no suceda”.
MundoDaily – #decisión #Apple #cerrar #herramienta #escaneo #fotografías #CSAM #genera #una #nueva #controversia
Publish: 2023-08-31 15:32:43