Dirección 

175 Greenwich St, New York, NY 10007

Los deepfakes de audio de políticos son baratos y fáciles de hacer: NPR

Los deepfakes de audio de políticos son baratos y fáciles de hacer – MundoDaily

Algunas de las herramientas de clonación de voz basadas en inteligencia artificial más populares permiten a los usuarios hacerse pasar por líderes políticos a pesar de las barreras diseñadas para evitar el abuso, según un nuevo informe, lo que genera preocupación sobre las fabricaciones digitales durante un año electoral ya controvertido.

«La IA generativa está permitiendo a los malos actores producir imágenes, audio y video que cuenten sus mentiras a una escala sin precedentes y persuasión prácticamente por nada». El Centro para Combatir el Odio Digital dice en el informe: «Este informe muestra que las herramientas de clonación de voz de IA… están ampliamente expuestas al abuso en las elecciones».

El informe llega antes de varias elecciones importantes en todo el mundo este año, incluidos Estados Unidos, el Reino Unido y la Unión Europea. A funcionarios e investigadores de todo el mundo les preocupa que las tecnologías de inteligencia artificial en rápido desarrollo puedan usarse para explotar divisiones y sembrar el caos durante las elecciones.

La organización británica sin fines de lucro identificó seis herramientas populares de clonación de voz de IA de acceso público e intentó generar las voces de ocho políticos: Biden, la vicepresidenta Kamala Harris, el expresidente Donald Trump, el primer ministro británico Rishi Sunak, el líder del Partido Laborista Keir Starmer, el presidente de la Comisión Europea. Ursula von der Leyen, el Comisario de Mercado Interior de la Unión Europea, Thierry Breton; y el presidente francés, Emmanuel Macron. Todos, excepto Macron, están en las elecciones de este año.

ElevenLabs, la empresa de tecnología cuyo software se utilizó para imitar la voz de Biden durante las primarias de New Hampshire, impidió que los investigadores clonaran a políticos estadounidenses y británicos, pero generó voces de políticos de Europa continental.

Las otras herramientas permitieron a los investigadores clonar cada voz que probaron. Tres herramientas (Descript, Invideo AI y Veed) requerían que las muestras fueran una declaración específica, excluyendo el uso de grabaciones públicas. Los investigadores sortearon estas restricciones utilizando voces clonadas de herramientas de inteligencia artificial que no tienen este requisito.

«Algunos de los incidentes más preocupantes que hemos visto han sido falsificaciones de audio». dice Dan Weiner, director del Programa de Gobierno y Elecciones del Centro Brennan. “Francamente, el audio es más fácil de clonar. Y, ya sabes, para la mayoría de nosotros, tal vez tengamos más probabilidades de dejarnos engañar por un audio razonablemente convincente de una figura pública prominente”.

En enero, antes de las primarias de New Hampshire, surgió un deepfake de la voz del presidente Joe Biden producido con tecnología de ElevenLabs. En marzo una grabación falsa de un candidato presidencial. En Eslovaquia, los alardes sobre el fraude electoral y el aumento del precio de la cerveza se volvieron virales antes de las elecciones. El candidato perdió las elecciones ante un oponente más prorruso, aunque es difícil determinar qué influencia tuvo la grabación falsa en los resultados.

En una declaración a , ElevenLabs dice que «bloquea activamente las voces de figuras públicas con alto riesgo de uso indebido» y «reconoce que hay más trabajo por hacer». La compañía dice que espera que los competidores permitan características similares.

Otras dos herramientas, Speechify y PlayHT, tienen incluso menos protecciones. Speechify, al igual que los proveedores anteriores, tiene políticas que prohíben la clonación no consensuada o el contenido engañoso, pero no parece tener medidas para hacer cumplir la política. PlayHT no tiene tales políticas. También son buenos para generar clones convincentes.

Los investigadores del CCDH declararon que todos los clips que escucharon de estas herramientas parecían plausibles, lo que generó preocupación de que actores maliciosos pudieran usar estas herramientas para fabricar medios de comunicación que se hicieran pasar por políticos importantes.

«Esto demuestra que si algunas de estas herramientas son vulnerables, eso en realidad las hace todas más vulnerables», dice el jefe de investigación del CCDH, Callum Hood.

Representantes de Descript, Invideo AI, Veed, Speechify y PlayHT no respondieron a las solicitudes de comentarios al momento de la publicación.

CCDH anteriormente probó diferentes herramientas de imágenes impulsadas por IA para ver si podrían usarse para crear imágenes realistas y engañosas de los políticos. Hood dice que los lectores de imágenes tienen más barreras protectoras.

Otro desafío en torno al audio deepfake es que es más difícil de detectar con medios tecnológicos, según encontró un experimento de . Esto hace que sea más difícil para las empresas de redes sociales detectar audio falso en comparación con imágenes y videos a medida que se difunden en línea.

Weiner, del Centro Brennan, dice que se necesita regulación para abordar la amenaza. El gobierno federal y muchas legislaturas estatales prohibieron el uso de deepfakes para engañar al electorado. Dice que también se deben considerar otros tipos de contenido político, como materiales destinados a acosar e intimidar a los candidatos o desacreditar falsamente una elección.

Además de la regulación vinculada a escenarios dañinos específicos, Weiner dice que es importante exigir transparencia, incluido el etiquetado de todo el contenido político generado por IA. “Los espectadores u oyentes tienen derecho a saber que lo que están viendo es real. Y luego pueden evaluar el poder persuasivo de esa imagen o audio en consecuencia”.

Algunas plataformas de redes sociales han solicitado la divulgación voluntaria de contenido generado por IA, pero aún no se han implementado mecanismos para hacer cumplir la ley.

Hood, del CCDH, dice que estaba sorprendido y decepcionado por lo poco preparados que parecen estar muchos de los proveedores de tecnología para las elecciones. Dice que la experiencia de las empresas de redes sociales debería haber ofrecido una hoja de ruta: «estas empresas deberían saber lo que están buscando».

MundoDaily – #Los #deepfakes #audio #políticos #son #baratos #fáciles #hacer #

Publish: 2024-05-31 04:00:00

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *