Dirección
175 Greenwich St, New York, NY 10007
Esta primavera, Clive Kabatznik, un inversionista de Florida, llamó a su representante local del Bank of America acerca de una gran transferencia de dinero que creía haber realizado. Luego se convirtió en una llamada.
Excepto que la segunda llamada no fue de Kabatznik. En cambio, su voz generó artificialmente un programa de computadora con la intención de involucrar al personal del banco en la transferencia del dinero a otro destino.
Kabatznik y su banco fueron objeto de un intento de estafa de última generación que ha captado la atención de los expertos en ciberseguridad: el uso de inteligencia artificial para generar deepfakes (o ultrafalsas), interpretaciones vocales que imitan las voces de personas reales.
El problema es todavía tan nuevo que no existe una descripción exhaustiva de la frecuencia con la que ocurre. Pero un experto de su firma, Pindrop, que supervisa el tráfico de audio para muchos de los principales bancos del país, dijo que este año se ha visto un aumento tanto en su prevalencia como en la sofisticación de los intentos de fraude de voz por parte de los estafadores. A finales del año pasado, otro importante proveedor de autenticación de voz, Nuance, sufrió su primer ataque ultraspoof exitoso contra un cliente de servicios financieros.
En el caso de Kabatznik, el fraude era detectable. Sin embargo, la velocidad del desarrollo tecnológico, la caída del costo de los programas de inteligencia artificial generativa y la disponibilidad generalizada de captura de voz a través de Internet han creado las condiciones perfectas para las estaciones asistidas por programas de inteligencia artificial relacionados con la voz.
Los datos de los clientes, como las cuentas bancarias que los piratas informáticos roban (y que están disponibles en los mercados clandestinos) ayudan a los estafadores a llevar a cabo estos ataques. Funciona aún más fácilmente con clientes adinerados, ya que se supone que las apariciones públicas, incluidos los discursos, están ampliamente disponibles en Internet. Encontrar colecciones de audio de clientes cotidianos también puede ser tan fácil como realizar una búsqueda en línea (por ejemplo, en aplicaciones de redes sociales como TikTok e Instagram) del nombre de alguien cuyos datos bancarios ya tienen estafadores.
«Hay mucho contenido de audio por ahí», dijo Vijay Balasubramaniyan, director ejecutivo y fundador de Pindrop, que revisa los sistemas automáticos de verificación de voz para ocho de las 10 principales instituciones crediticias de EE. UU.
A lo largo de la última década, Pindrop ha revisado capturas de más de 5.000 millones de llamadas entrantes desde los call center de empresas financieras a quienes prestan servicios. Los centros de gestión producen productos como cuentas bancarias, cartas de crédito y otros servicios ofrecidos a los grandes bancos minoristas. Todos los centros de llamadas reciben llamadas de estafadores, normalmente entre 1.000 y 10.000 por año. Según Balasubramaniyan, es costumbre recibir 20 llamadas de estafadores a la semana.
Hasta ahora, las voces falsas creadas por programas informáticos sólo representan «un puñado» de estas llamadas, según Balasubramaniyan, y no habían comenzado a producirse hasta el año pasado.
La mayoría de los ataques de voz falsos que vio Pindrop se produjeron en centros de llamadas de tarjetas de crédito, donde representantes humanos atienden a los clientes que necesitan ayuda con sus tarjetas.
Balasubramaniyan mostró a un periodista una captura anónima de una de esas llamadas, que usted realizó en marzo. Si bien este es un ejemplo muy rudimentario (la voz en este caso es robótica, más parecida a un lector de libros electrónicos que a una persona), la llamada ilustra cómo se puede producir agotamiento a medida que la IA facilita una mayor imitación de las voces humanas.
Si eres un empleado del banco que atiende al cliente. Después de la voz, de forma automatizada, dice: “Mi tarjeta fue rechazada”.
“¿Puedo preguntar si me gusta?”, responde el empleado del banco.
“Mi tarjeta fue rechazada”, vuelve a decir la voz.
El empleado del banco vuelve a preguntar el nombre del cliente. Se hace un silencio cuando se emite el débil sonido de una de las teclas. Según Balasubramaniyan, el número de latidos del corazón corresponde al número de letras del nombre del cliente. El correteador teclea palabras en un programa que luego las lee.
En este caso, la conversación sintética de la persona que llama fue al servicio para transferir la llamada a otro departamento y marcarla como potencialmente fraudulenta, explicó Balasubramaniyan.
Llamadas como ésta, que utilizan tecnología de conversión de texto a voz, son algunos de los ataques más fáciles de combatir: los centros de llamadas pueden utilizar software de detección para identificar indicios técnicos de que la voz fue generada por una máquina.
«La palabra sintética ya ha sido rastreada y se han detectado muchos algoritmos anti-spoofing», explicó Peter Soufleris, director general de IngenID, proveedor de tecnología biométrica de voz.
Sin embargo, como ocurre con muchas medidas de seguridad, se trata de una carrera armamentista entre atacantes y defensores, y esto ha evolucionado en los últimos tiempos. Ahora, un estafador puede hablar solo por un micrófono o recibir un mensaje y traducirlo rápidamente a la voz del objetivo.
Balasubramaniyan señaló que un sistema de inteligencia artificial generativa, VALL-E de Microsoft, podría crear una imitación de voz que diga lo que el usuario quiere en una pantalla de audio de apenas tres segundos.
En mayo, en un episodio de 60 minutos Rachel Tobac, consultora de seguridad, utilizó el software de clonación de manera tan convincente la voz de Sharyn Alfonsi uno de los corresponsales del programa, quien logró involucrar a un empleado de 60 minutos para que le diera el número de pasaporte de Alfonsi.
El ataque sólo tardó cinco minutos en realizarse, dijo Tobac, director ejecutivo de SocialProof Security. La herramienta que utilizó ha estado disponible para su compra desde enero.
Brett Beranek, director general de seguridad y biometría de Nuance, un proveedor de tecnología de voz que Microsoft adquirió en 2021, dice que si bien las demostraciones de terroríficas ultraparodias son algo común en las conferencias de seguridad, los ataques reales siguen siendo muy poco frecuentes. El único ataque exitoso contra un cliente de Nuance en octubre dio lugar a más de un ataque intencionado en la escena.
La mayor preocupación de Beranek no son los ataques a los centros de llamadas o sistemas automatizados, como los sistemas biométricos de voz que muchos bancos han implementado. Le preocupan situaciones en las que la persona que llama se comunica directamente con un individuo.
«Tuve una conversación a principios de esta semana con uno de nuestros clientes», dijo. «Le dije, hola Brett, es fantástico que tengamos nuestro centro de contacto seguro, pero ¿qué sucede si alguien llama a nuestro director ejecutivo directamente a su teléfono celular y se hace pasar por otra persona?»
Esto es lo que ocurrió en el caso de Kabatznik. Según la descripción del banco, parecía que el estadista intentaba convencerlos de transferir el dinero a un nuevo destino, pero la voz era repetitiva, hablaba durante mucho tiempo y usaba frases confusas. El banco colgó.
“Era como si estudiaras hablando con ella, pero no tenía sentido”, dijo Kabatznik sobre la banca. (Se negoció con un portavoz de Bank of America para permitir que el empleado estuviera disponible para una entrevista).
Kabatznik explica que, tras recibir llamadas similares, el banco lo informó al equipo de seguridad del Bank of America. Preocupado por la seguridad de la cuenta de Kabatznik, espero responder sus llamadas y correos electrónicos, incluso aquellos que procesan la verdad de Kabatznik. Tardaron restableció la conexión hace unos días cuando Kabatznik organizó una visita a su oficina.
«Capacitamos constantemente a nuestro personal para identificar y reconocer el agotamiento y ayudar a nuestros clientes a evitarlo», dijo William Halldin, portavoz de Bank of America, quien agregó que no podía comentar sobre clientes individuales o sus experiencias.
Si bien los ataques son cada vez más sofisticados, surgen de una amenaza básica a la ciberseguridad que existe desde hace décadas: el filtrado de datos que revela información personal sobre los clientes bancarios. Entre 2020 y 2022, los datos personales de más de 300 millones de personas cayeron en manos de piratas informáticos, lo que provocó pérdidas por 8.800 millones de dólares, según la Comisión Federal de Comercio.
Una vez que se ha compilado un lote de números, los piratas informáticos analizan la información y la relacionan con personas reales. Quienes roban información accidentalmente nunca son las mismas personas que la acaban de obtener. En su lugar, los ladrones la ponen à la venta. Los expertos pueden utilizar cualquiera de los programas de fácil acceso para falsificar los números de teléfono de supuestos clientes, y eso es probablemente lo que sucedió en el caso de Kabatznik.
«Creo que es bastante aterrador», concluyó Kabatznik. “El problema es que no sé qué hacer al respecto. ¿Te metes bajo la tierra y desapareces?”.
MundoDaily – #Qué #son #los #voice #deepfakes #nueva #estafa #bancaria
Publish: 2023-09-03 11:26:46