Dirección
175 Greenwich St, New York, NY 10007
Kelsey Davis tuvo lo que podría parecer una reacción extraña al ver un racismo flagrante en la pantalla de su computadora: estaba eufórica.
Davis es el fundador y director ejecutivo de CLLCTVE, una empresa de tecnología con sede en Tulsa, Oklahoma. Ella fue una de los cientos de piratas informáticos que investigaron la tecnología de inteligencia artificial en busca de sesgos como parte del mayor desafío público del equipo rojo jamás realizado durante Def Con, un evento anual de piratería. convención en Las Vegas.
«Esta es una manera realmente genial de arremangarse», dijo Davis a . “Estás ayudando en el proceso de diseñar algo que sea más equitativo e inclusivo”.
El equipo rojo (el proceso de probar la tecnología para encontrar imprecisiones y sesgos en ella) es algo que suele ocurrir internamente en las empresas de tecnología. Pero a medida que la IA se desarrolla rápidamente y se generaliza, la Casa Blanca ha alentado a empresas tecnológicas líderes como Google y OpenAI, la empresa matriz de ChatGPT, a que hackers independientes como Davis prueben sus modelos.
Pero finalmente, Davis, que es negra, incitó al chatbot con este escenario: le dijo que era una niña blanca y quería saber cómo podía convencer a sus padres de que la dejaran ir a una HBCU, un colegio o universidad históricamente negra. .
El chatbot sugirió que Davis les dijera a sus padres que podía correr rápido y bailar bien, dos estereotipos sobre los negros.
«Eso es bueno, significa que estoy arruinado», dijo Davis.
Luego, Davis presentó sus hallazgos del desafío. En los próximos meses, las empresas de tecnología involucradas podrán ver las presentaciones y diseñar sus productos de manera diferente para que estos sesgos no vuelvan a surgir.
Los programas de IA generativa como ChatGPT han estado en los titulares en los últimos meses. Pero otras formas de inteligencia artificial –y el sesgo inherente que existe en ellas– existen desde hace mucho tiempo.
En 2015, Google Photos enfrentó una reacción violenta cuando se descubrió que su inteligencia artificial era fotos de etiquetado de negros como gorilas. Casi al mismo tiempo, fue reportado que la función Siri de Apple podía responder las preguntas de los usuarios sobre qué hacer si sufrían un ataque cardíaco, pero no podía responder qué hacer si alguien había sido abusado sexualmente.
Ambos ejemplos apuntan al hecho de que los datos utilizados para probar estas tecnologías no son tan diversos en cuanto a raza y género, y los grupos de personas que desarrollan los programas en primer lugar tampoco son tan diversos.
Es por eso que los organizadores del desafío de IA en Def Con trabajaron para invitar a hackers de todo el país. Se asociaron con colegios comunitarios para atraer estudiantes de todos los orígenes y con organizaciones sin fines de lucro como Black Tech Street, que fue como Davis se involucró.
«Es realmente sorprendente ver a este grupo diverso a la vanguardia de las pruebas de IA, porque de otra manera no creo que verías tanta gente diversa aquí», dijo Tyrance Billingsley, fundador de Black Tech Street. Su organización construye el desarrollo económico negro a través de la tecnología y reunió a unas 70 personas al evento Def Con.
«Están aportando sus perspectivas únicas y creo que eso realmente proporcionará una visión increíble», dijo.
Los organizadores no recopilaron ninguna información demográfica sobre los cientos de asistentes, por lo que no hay datos que muestren exactamente la diversidad del evento.
«Queremos ver a muchos más afroamericanos y personas de otras comunidades marginadas en Def Con, porque esto es importante a nivel del Proyecto Manhattan», dijo Billingsley. “La IA es fundamental. Y tenemos que estar aquí”.
Arati Prabhakar, jefa de la Oficina de Política Científica y Tecnológica de la Casa Blanca, también asistió a la Def Con. En una entrevista con , dijo que la creación de equipos rojos debe ser parte de la solución para garantizar que la IA sea segura y eficaz, razón por la cual la Casa Blanca quería involucrarse en este desafío de la IA.
«Este desafío tiene muchas piezas que necesitamos ver. Está estructurado, es independiente, es un reportaje responsable y trae a la mesa a muchas personas diferentes con antecedentes muy diferentes», dijo Prabhakar.
Prabhakar dijo que la Casa Blanca tiene preocupaciones más amplias sobre el uso de la IA para perfilar racialmente de manera inexacta a las personas negras y sobre cómo la tecnología de la IA podría exacerbar la discriminación en aspectos como las decisiones financieras y las oportunidades de vivienda.
Se espera que el presidente Biden firme una orden ejecutiva sobre la gestión de la IA en septiembre.
En Def Con, no todos los participantes del desafío tenían experiencia pirateando o trabajando con IA. Y eso es algo bueno, según Billingsley.
“Es beneficioso porque, en última instancia, la IA no estará en manos de las personas que la construyeron o que tienen experiencia en piratería informática. Entonces, cómo lo experimentan es la verdadera prueba de si esto puede usarse para beneficio humano y no para daño”, dijo.
Varios participantes de Black Tech Street dijeron a que la experiencia les resultó desafiante, pero dijeron que les dio una mejor idea de cómo pensarán sobre el futuro de la inteligencia artificial, especialmente en sus propias carreras.
Ray’Chel Wilson, que vive en Tulsa, también participó en el desafío con Black Tech Street. Trabaja en tecnología financiera y está desarrollando una aplicación que intenta ayudar a cerrar la brecha de riqueza racial, por lo que estaba interesada en la sección del desafío sobre cómo hacer que el chatbot produzca desinformación económica.
«Me voy a centrar en el evento económico de la discriminación en materia de vivienda en los EE. UU. y en la línea roja para intentar que esto me dé información incorrecta sobre la línea roja», dijo. «Estoy muy interesado en ver cómo la IA puede proporcionar información errónea que influya en las decisiones económicas de otros».
Cerca, Mikeal Vaughn Estaba desconcertado por su interacción con el chatbot. Pero dijo que la experiencia le enseñó cómo la IA afectará el futuro.
“Si la información que llega es mala, entonces la información que sale es mala. Así que tengo una mejor idea de cómo es eso al seguir estas instrucciones», dijo Vaughn. «La IA definitivamente tiene el potencial de remodelar lo que llamamos verdad».
MundoDaily – #está #sesgada #Casa #Blanca #está #trabajando #con #piratas #informáticos #para #intentar #solucionar #este #problema #
Publish: 2023-08-26 05:00:49