Planes de objetivos para reemplazar a los seres humanos con IA para evaluar los riesgos: NPR

Planes de objetivos para reemplazar a los seres humanos con IA para evaluar los riesgos – MundoDaily

¡Comparte y comenta!

Durante años, cuando el Meta ha lanzado nuevas funciones para Instagram, WhatsApp y Facebook, los equipos de revisores aumentaron posibles riesgos: ¿podría violar la privacidad de los usuarios? ¿Podrías causar daños a los menores? ¿Podría la propagación del contenido engañoso o tóxico peor?

Hasta hace poco, lo que se conoce dentro del objetivo como revisiones de privacidad e integridad se realizó casi por completo por evaluadores humanos.

Pero ahora, de acuerdo con los documentos internos de la compañía obtenidos por , hasta el 90% de todas las evaluaciones de riesgos se automatizarán pronto.

En la práctica, esto significa que cosas como las actualizaciones críticas de los algoritmos de objetivos, las nuevas características de seguridad y los cambios en la forma en que se permite compartir el contenido en las plataformas de la compañía estarán aprobados principalmente por un sistema de inteligencia artificial, ya no está sujeto al escrutinio por parte de los empleados a cargo de debatir como un cambio de plataforma podría ser reperciado o malvado.

Dentro del objetivo, el cambio se ve como una victoria para los desarrolladores de productos, que ahora puede lanzar actualizaciones y recursos de aplicaciones más rápido. Pero los empleados actuales y antiguos temen que el nuevo impulso de la automatización tenga el costo de permitir que AI haga determinaciones complicadas sobre cómo las aplicaciones objetivo pueden provocar daños reales del mundo.

«Como este proceso significa más funcionalmente más cosas que se están lanzando más rápido, con un escrutinio y oposición menos estricto, significa que está creando riesgos más altos», dijo un medidor ejecutivo ex que solicitó el anonimato por temor a represalias de la empresa. «Es menos probable que se eviten las externalidades negativas de los cambios en el producto antes de que comiencen a causar problemas en el mundo».

El objetivo dijo en un comunicado que invirtió miles de millones de dólares para apoyar la privacidad del usuario.

Desde 2012, Meta ha sido debajo del reloj de la Comisión Federal de Comercio después de que la agencia haya llegado a un acuerdo con la compañía sobre cómo lidiar con la información personal de los usuarios. Como resultado, se requirieron revisiones de privacidad para los productos, de acuerdo con los funcionadores actuales y ex de la meta.

En su declaración, el objetivo dijo que los cambios en la revisión del riesgo del producto están destinados a optimizar la toma de decisiones, y agregó que la «experiencia humana» todavía se está utilizando para «problemas nuevos y complejos» y que solo se están automatizando «decisiones de bajo riesgo».

Pero los documentos internos de muestran que el objetivo es pensar en automatizar las revisiones para áreas sensibles, incluida la seguridad de la IA, el riesgo juvenil y una categoría conocida como integridad que abarca cosas como contenido violento y la difusión de falsedades.

Ex -goal funcional: ‘Los ingenieros no son especialistas en privacidad ‘

Una diapositiva que describe el nuevo proceso dice que los equipos de productos ahora recibirán en la mayoría de los casos una «decisión instantánea» después de completar un cuestionario sobre el proyecto. Esta decisión orientada a la decisión identificará áreas de riesgo y requisitos para cumplirlos. Antes de lanzarse, el equipo de productos debe verificar que haya cumplido estos requisitos.

En el sistema anterior, las actualizaciones de productos y fondos no se pueden enviar a miles de millones de usuarios hasta que reciban la bendición de los evaluadores de riesgos. Ahora los ingenieros que construyen productos de objetivos tienen el poder de hacer sus propios juicios sobre los riesgos.

En algunos casos, incluidos los proyectos que involucran nuevos riesgos o cuando un equipo de producto quiere comentarios adicionales, los proyectos recibirán una revisión manual de humanos, dice la diapositiva, pero no será por defecto, como solía ser. Ahora los equipos de esa creación de productos harán esta llamada.

«La mayoría de los gerentes de productos e ingenieros no son especialistas en la privacidad y este no es el foco de su trabajo. Esto no es lo que se evalúan principalmente y no es lo que se les alienta a priorizar», dijo Zvika Krieger, directora de innovación responsable en 202.

«En el pasado, algunos de estos tipos de autoevaluaciones se han convertido en ejercicios de verificación de efectivo que pierden riesgos significativos», agregó.

Krieger dijo que si bien hay espacio para mejoras para simplificar las críticas de la meta a través de la automatización, «si lo empuja demasiado lejos, inevitablemente la calidad de la revisión y los resultados sufrirán».

Las preocupaciones meta -minimizadas de que el nuevo sistema introducirá problemas en todo el mundo, señalando que está auditando las decisiones que los sistemas automatizados crean proyectos que no son evaluados por los humanos.

Los metacumentos sugieren que sus usuarios en la Unión Europea pueden estar un poco aislados de estos cambios. Un anuncio interno dice que la toma de decisiones y la supervisión de productos y datos de usuarios en la Unión Europea permanecerán en la sede europea de la meta en Irlanda. La UE tiene regulaciones que rigen plataformas en línea, incluida la ley de servicios digitales, que requiere que las empresas, incluida la meta, vigilen más estrictamente sus plataformas y proteja a los usuarios del contenido dañino.

Algunos de los cambios en el proceso de revisión del producto fueron  reportados para la información, un sitio de noticias de tecnología. Los documentos internos vistos por el muestran que los empleados fueron notificados de la reformulación poco después de que la compañía finalizara su programa de verificación y aflojó sus políticas de habla del odio.

Tomando juntos, los cambios reflejan un nuevo énfasis en el objetivo en el objetivo a favor de un discurso más sin restricciones y actualizar sus aplicaciones más rápido, un desmantelamiento de varios pasamanos que la compañía ha promulgado a lo largo de los años para reducir el mal uso de sus plataformas. Los grandes cambios en la compañía también siguen los esfuerzos del CEO Mark Zuckerberg para Curry para favorecer al presidente Trump, cuya victoria electoral Zuckerberg calificó el «punto de inflexión cultural».

Se mueve más rápido para evaluar los riesgos ‘Autoconfianza ‘?

Otro factor que impulsa los cambios en el análisis de productos es un más amplio, Push de un año Para explorar la IA para ayudar a la compañía a moverse más rápido en medio de la creciente competencia de Tiktok, OpenAi, Snap y otras compañías de tecnología.

El objetivo dijo a principios de esta semana que confío en AI para ayudar a aplicar sus políticas de moderación de contenido.

«Estamos comenzando a ver (modelos de idiomas grandes) que operan más allá del rendimiento humano para áreas políticas seleccionadas», escribió la compañía en su último Informe de integridad trimestral. Dijo que también está usando estos modelos de IA para mostrar algunas publicaciones que la compañía tiene «confianza», no rompa sus reglas.

«Esto libera capacidad para nuestros revisores, lo que les permite priorizar su conocimiento del contenido que es más probable que viole», dijo Meta.

Katie Harbath, fundadora y directora ejecutiva de las políticas de tecnología de cambio de Anchor Change, que ha pasado una década trabajando en la política pública de Facebook, dijo que el uso de sistemas automatizados para señalar riesgos potenciales puede ayudar a reducir los esfuerzos duplicados.

«Si desea moverse rápidamente y tener alta calidad, deberá incorporar más IA, porque los humanos solo pueden hacer mucho durante un período de tiempo», dijo. Pero agregó que estos sistemas también necesitan tener los controles y equilibrios de los humanos.

Otro ex empleado del objetivo, que habló bajo condición de anonimato porque también teme la represalia de la compañía, cuestionó si moverse más rápido en las evaluaciones de riesgos es una buena estrategia para el objetivo.

«Esto casi parece estar derrotando. Cada vez que lanzan un nuevo producto, hay mucho escrutinio y este escrutinio regularmente encuentra problemas que la compañía debería haber tomado más en serio», dijo el ex empleado.

Michel Prootti, director de Privacy Target, dijo en una publicación de marzo en su herramienta de comunicación interna, Workplace, que la compañía está «capacitando a los equipos de productos» para «evolucionar los procesos de gestión de riesgos objetivo».

La implementación de la automatización ha aumentado hasta abril y mayo, dijo un empleado familiar actual familiarizado con las evaluaciones de riesgo de productos que no se le permitió hablar públicamente sobre las operaciones internas.

Protti dijo que la automatización de las revisiones de riesgos y la proporción de más equipos de productos sobre los riesgos potenciales representados por las actualizaciones de productos en el 90% de los casos están destinados a «simplificar la toma de decisiones». Pero algunos expertos dicen que el resumen rosado de la eliminación de humanos del proceso de evaluación de riesgos minimiza los problemas que los cambios pueden causar.

«Creo que es bastante irresponsable, dada la intención de por qué existimos «, dijo el objetivo funcional cerca del proceso de revisión de riesgos». Proporcionamos la perspectiva humana de cómo las cosas pueden salir mal. »

MundoDaily – #Planes #objetivos #para #reemplazar #los #seres #humanos #con #para #evaluar #los #riesgos #

Publish: 2025-05-31 05:00:00

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *