Dirección
175 Greenwich St, New York, NY 10007
Los funcionarios encargados de hacer cumplir la ley se están preparando para una explosión de material generado por inteligencia artificial que represente de manera realista a niños siendo explotados sexualmente, profundizando el desafío de identificar a las víctimas y combatir ese abuso.
Las preocupaciones surgen cuando Meta, un recurso principal para las fuerzas del orden a la hora de señalar contenido sexual explícito, ha dificultado el seguimiento de los delincuentes al cifrar su servicio de mensajería. La complicación pone de relieve el difícil equilibrio que deben lograr las empresas de tecnología al sopesar los derechos de privacidad y seguridad de los niños. Y la perspectiva de procesar este tipo de delito plantea cuestiones espinosas sobre si esas imágenes son ilegales y qué tipo de recurso podría haber para las víctimas.
Los legisladores del Congreso han aprovechado algunas de estas preocupaciones para impulsar salvaguardias más estrictas, incluida la llamada a ejecutivos de tecnología el miércoles para testificar sobre las protecciones que ofrecen a los niños. Las imágenes falsas y sexualmente explícitas de Taylor Swift, probablemente generadas por IA, que inundaron las redes sociales la semana pasada solo resaltaron los riesgos de esta tecnología.
«La creación de imágenes sexualmente explícitas de niños mediante el uso de inteligencia artificial es una forma particularmente atroz de explotación en línea», dijo Steve Grocki, jefe de la sección de explotación y obscenidad infantil del Departamento de Justicia.
La facilidad de la tecnología de inteligencia artificial significa que los perpetradores pueden crear docenas de imágenes de niños explotados o abusados sexualmente con solo hacer clic en un botón.
Simplemente ingrese un mensaje para generar imágenes, videos y texto realistas en minutos, generando nuevas imágenes de niños reales así como imágenes explícitas de niños que en realidad no existen. Esto podría incluir material generado por IA sobre bebés y niños pequeños violados; Niños famosos sufren abusos sexuales, según un reciente estudio de gran bretaña; y fotografías de rutina de clase, adaptadas para que todos los niños estén desnudos.
«El horror que tenemos ante nosotros es que alguien pueda tomar una imagen de un niño en las redes sociales, la página de una escuela o un evento deportivo, y pueda participar en lo que algunos llaman ‘nudificación'», dijo el Dr. Michael Bourke. , ex psicólogo jefe del Servicio de Alguaciles de EE. UU. que ha trabajado en delitos sexuales que involucran a niños durante décadas. El uso de IA para alterar fotografías de esta manera es cada vez más común, afirmó.
Las imágenes son indistinguibles de las reales, dicen los expertos, lo que hace más difícil identificar una víctima real de una falsa. «Las investigaciones son mucho más desafiantes», dijo el teniente Robin Richards, comandante del grupo de trabajo sobre crímenes contra niños en Internet del Departamento de Policía de Los Ángeles. «Se necesita tiempo para investigar, y una vez que estamos profundamente involucrados en la investigación, es IA, y luego, ¿qué hacemos con ella en el futuro?»
Los organismos encargados de hacer cumplir la ley, que carecen de personal y fondos suficientes, ya han luchado por mantener el ritmo a medida que los rápidos avances tecnológicos han permitido que las imágenes de abuso sexual infantil florezcan a un ritmo sorprendente. Las imágenes y los vídeos, posibles gracias a las cámaras de los teléfonos inteligentes, la web oscura, las redes sociales y las aplicaciones de mensajería, rebotan en Internet.
Sólo se investiga una fracción del material considerado delictivo. John Pizzuro, director de Raven, una organización sin fines de lucro que trabaja con legisladores y empresas para combatir la explotación sexual de niños, dijo que durante un período reciente de 90 días, las fuerzas del orden vincularon casi 100.000 direcciones IP en todo el país con el abuso sexual infantil. material. (Una dirección IP es una secuencia única de números asignados a cada computadora o teléfono inteligente conectado a Internet). De ellos, menos de 700 estaban siendo investigados, dijo, debido a una falta crónica de fondos dedicados a combatir estos delitos.
Aunque una ley federal de 2008 autorizó 60 millones de dólares para ayudar a los funcionarios encargados de hacer cumplir la ley estatales y locales a investigar y procesar tales delitos, el Congreso nunca ha asignado esa cantidad en un año determinado, dijo Pizzuro, un ex comandante que supervisó casos de explotación infantil en línea en Nueva York.
El uso de inteligencia artificial ha complicado otros aspectos del seguimiento del abuso sexual infantil. Normalmente, al material conocido se le asigna aleatoriamente una secuencia de números equivalente a una huella digital, que se utiliza para detectar y eliminar contenido ilícito. Si se modifican imágenes y vídeos conocidos, el material parece nuevo y ya no está asociado con la huella digital.
A estos desafíos se suma el hecho de que, aunque la ley exige que las empresas de tecnología informen sobre material ilegal si descubren, no les exige que lo busquen activamente.
El enfoque de las empresas de tecnología puede variar. Meta ha sido el mejor socio de las fuerzas del orden cuando se trata de denunciar material sexualmente explícito que involucra a niños.
En 2022, de un total de 32 millones de propinas Según el Centro Nacional para Niños Desaparecidos y Explotados, el centro de intercambio de información designado a nivel federal para material de abuso sexual infantil, Meta citó alrededor de 21 millones.
Pero la compañía está cifrando su plataforma de mensajería para competir con otros servicios seguros que protegen el contenido de los usuarios, esencialmente apagando las luces de los investigadores.
Jennifer Dunton, asesora legal de Raven, advirtió sobre las repercusiones y dijo que el fallo podría limitar drásticamente la cantidad de delitos que las autoridades pueden rastrear. «Ahora tienes imágenes que nadie ha visto nunca y ni siquiera las estamos buscando», dijo.
Tom Tugendhat, ministro de seguridad británico, dijo que la medida fortalecería a los depredadores de niños en todo el mundo.
«La decisión de Meta de implementar cifrado de extremo a extremo sin funciones de seguridad sólidas hace que estas imágenes estén disponibles para millones de personas sin temor a ser capturadas», dijo Tugendhat en un comunicado.
El gigante de las redes sociales dijo que continuaría brindando a las autoridades cualquier información sobre material de abuso sexual infantil. «Estamos centrados en encontrar y denunciar este contenido, mientras trabajamos para prevenir el abuso en primer lugar», dijo Alex Dziedzan, portavoz de Meta.
Aunque actualmente solo hay unos pocos casos que involucran material de abuso sexual infantil generado por IA, se espera que este número crezca exponencialmente y resalte preguntas nuevas y complejas sobre si las leyes federales y estatales existentes son adecuadas para procesar estos delitos.
Por un lado, está la cuestión de cómo tratar los materiales generados íntegramente por la IA.
En 2002, la Corte Suprema anuló una prohibición federal de imágenes de abuso sexual infantil generadas por computadora, concluyendo que la ley estaba redactada de manera tan amplia que potencialmente también podría limitar las obras políticas y artísticas. Alan Wilson, el fiscal general de Carolina del Sur que dirigió una carta al Congreso instando a los legisladores a actuar rápidamente, dijo en una entrevista que predijo que la decisión se pondría a prueba a medida que proliferaran los casos de material de abuso sexual infantil generado por IA.
Se pueden utilizar varias leyes federales, incluida una ley de obscenidad, para procesar casos relacionados con materiales de abuso sexual infantil en línea. Algunos estados están estudiando cómo criminalizar este contenido generado por IA, incluido cómo responsabilizar a los menores por producir tales imágenes y videos.
Para un estudiante adolescente de secundaria en Westfield, Nueva Jersey, la falta de repercusiones legales por crear y compartir este tipo de imágenes generadas por IA es particularmente grave.
En octubre, la niña, que entonces tenía 14 años, descubrió que estaba entre un grupo de niñas de su clase, cuya imagen fue manipulada y se desnudó, en lo que equivalía a una imagen de ella desnuda que ella no dio su consentimiento y que luego circuló en salas de chat en línea. Ella aún no ha visto la imagen en sí. El incidente aún está bajo investigación, aunque al menos un estudiante fue suspendido brevemente.
“Le puede pasar a cualquiera”, dijo su madre, Dorota Mani, en una entrevista reciente.
Mani dijo que ella y su hija estaban trabajando con legisladores estatales y federales para redactar nuevas leyes que harían ilegales esas imágenes de desnudos falsos. Este mes, la adolescente habló en Washington sobre su experiencia y pidió al Congreso que aprobara un proyecto de ley que permitiría recurrir a las personas cuyas imágenes fueran alteradas sin su consentimiento.
Su hija, dijo Mani, pasó de estar enojada a enojada y empoderada.
MundoDaily – #Dispositivos #policiales #para #una #avalancha #imágenes #abuso #sexual #infantil #generadas #por
Publish: 2024-01-30 23:42:12