Dirección
175 Greenwich St, New York, NY 10007
Dirección
175 Greenwich St, New York, NY 10007
Openai dijo el viernes que encontró evidencia de que una operación de seguridad china había construido una herramienta de vigilancia de inteligencia artificial para reunir informes en tiempo real sobre publicaciones anti-chinas en los servicios de redes sociales en los países occidentales.
Los investigadores de la compañía dijeron que habían identificado esta nueva campaña, a la que llamaron una revisión de pares, porque alguien que trabaja en la herramienta usó tecnologías OpenAI para purificar parte del código de computadora que lo sostiene.
Ben Nimmo, un investigador principal de Operai, dijo que era la primera vez que la compañía descubrió una herramienta de vigilancia de IA.
«A veces, los actores de amenaza nos dan una idea de lo que están haciendo en otras partes de Internet debido a la forma en que usan nuestros modelos de IA», dijo Nimmo.
Ha habido una creciente preocupación de que la IA puede usarse para la vigilancia, los piratas informáticos, las campañas de información errónea y otros propósitos maliciosos. Aunque investigadores como el Sr. Nimmo dicen que la tecnología ciertamente puede permitir este tipo de actividades, agregan que la IA también puede ayudar a identificar e interrumpir este comportamiento.
Nimmo y su equipo creen que la herramienta de vigilancia china se basa en Llama, una tecnología construida por el objetivo, que abrió su tecnología, lo que significa que ha compartido su trabajo con los desarrolladores de software de todo el mundo.
En un informe detallado sobre el uso de IA para fines maliciosos y engañosos, Operai también dijo que había descubierto una campaña china separada llamada descontento patrocinado, que utilizó tecnologías de OpenAI para generar publicaciones en inglés que criticaban a los disidentes chinos.
El mismo grupo, dijo Openai, utilizó las tecnologías de la compañía para traducir artículos al español antes de distribuirlos en América Latina. Los artículos criticaron a la sociedad y la política de los Estados Unidos.
Por separado, los investigadores de Operai identificaron una campaña, que se cree que está en Camboya, que utilizó las tecnologías de la compañía para generar y traducir comentarios en las redes sociales que ayudaron a generar una estafa conocida como «masacre de cerdos», dijo el informe. Los comentarios generados por la IA se usaron para atraer hombres en Internet e involucrarlos en un esquema de inversión.
(El New York Times demandó a Openai y Microsoft por violación de derechos de autor del contenido de noticias relacionados con los sistemas de IA. Openai y Microsoft negaron estas afirmaciones).
MundoDaily – #OpenAi #descubre #evidencia #herramienta #vigilancia #china
Publish: 2025-02-21 10:30:00