Dirección
175 Greenwich St, New York, NY 10007
Mientras los expertos advierten que las imágenes, el audio y el vídeo generados por la inteligencia artificial podrían influir en las elecciones de otoño, OpenAI está lanzando una herramienta diseñada para detectar contenido creado por su popular generador de imágenes, DALL-E. Pero la destacada empresa emergente de inteligencia artificial reconoce que esta herramienta es solo una pequeña parte de lo que se necesitará para combatir los llamados deepfakes en los próximos meses y años.
El martes, OpenAI dijo que compartiría su nuevo detector de falsificaciones con un pequeño grupo de investigadores de desinformación para que pudieran probar la herramienta en situaciones del mundo real y ayudar a identificar formas de mejorarla.
«Esto es para impulsar nuevas investigaciones», dijo Sandhini Agarwal, investigadora de OpenAI que se centra en seguridad y políticas. «¿Es esto realmente necesario?»
OpenAI dijo que su nuevo detector puede identificar correctamente el 98,8% de las imágenes creadas por DALL-E 3, la última versión de su generador de imágenes. Pero la compañía dijo que la herramienta no fue diseñada para detectar imágenes producidas por otros generadores populares como Midjourney y Stability.
Dado que este tipo de detector de deepfake se basa en probabilidades, nunca podrá ser perfecto. Entonces, como muchas otras empresas, organizaciones sin fines de lucro y laboratorios académicos, OpenAI está trabajando para combatir el problema de otras maneras.
Al igual que los gigantes tecnológicos Google y Meta, la compañía se unirá al comité directivo de la Coalición para la Procedencia y Autenticidad del Contenido, o C2PA, un esfuerzo por desarrollar credenciales para contenido digital. El estándar C2PA es una especie de “etiqueta nutricional” para imágenes, vídeos, clips de audio y otros archivos que muestra cuándo y cómo fueron producidos o alterados, incluso con IA.
OpenAI también dijo que está desarrollando formas de poner marcas de agua en los sonidos generados por IA para que puedan identificarse fácilmente en el momento. La empresa espera que estas marcas de agua sean más difíciles de eliminar.
Anclada en empresas como OpenAI, Google y Meta, la industria de la IA enfrenta una presión cada vez mayor para ser responsable del contenido que producen sus productos. Los expertos piden a la industria que impida que los usuarios generen material engañoso y malicioso y que ofrezca formas de rastrear su origen y distribución.
En un año lleno de elecciones importantes en todo el mundo, los pedidos de formas de monitorear el linaje del contenido de IA son cada vez más desesperados. En los últimos meses, el audio y las imágenes ya han afectado las campañas políticas y las votaciones en lugares como Eslovaquia, Taiwán e India.
El nuevo detector de deepfake de OpenAI puede ayudar a frenar el problema, pero no lo resolverá. Como dijo Agarwal: En la lucha contra los deepfakes, “no existe una solución mágica”.
MundoDaily – #OpenAI #lanza #detector #Deepfake #para #investigadores #desinformación
Publish: 2024-05-07 06:00:10