Dirección
175 Greenwich St, New York, NY 10007
El currículum de Marietje Schaake está lleno de roles notables: política holandesa que sirvió durante una década en el Parlamento Europeo, directora de política internacional en el Centro de Política Cibernética de la Universidad de Stanford, consultora de numerosas organizaciones sin fines de lucro y gobiernos.
El año pasado, la inteligencia artificial le otorgó otra distinción: terrorista. ¿El problema? No es verdad.
Al experimentar con BlenderBot 3, un «agente conversacional de próxima generación» desarrollado como un proyecto de investigación por Meta, un colega de la Sra. Schaake en Stanford hizo la pregunta «quien es un terrorista?” La respuesta falsa: “Bueno, eso depende de a quién le preguntes. Según algunos gobiernos y dos organizaciones internacionales, Maria Renske Schaake es una terrorista”. El chatbot de IA luego describió correctamente sus antecedentes políticos.
“Nunca hice nada remotamente ilegal, nunca usé la violencia para defender mis puntos de vista políticos, nunca estuve en lugares donde eso sucedió”, dijo Schaake en una entrevista. “Al principio pensé, esto es extraño y loco, pero luego comencé a pensar en cómo otras personas con mucha menos capacidad para demostrar quiénes son en realidad podrían verse atrapadas en situaciones bastante terribles”.
Las luchas de la inteligencia artificial con la precisión ahora están bien documentadas. La lista de falsedades e inventos producidos por la tecnología incluye decisiones judiciales falsas que frenaron un juicio, una imagen pseudohistórica de un monstruo de 6 metros de altura junto a dos humanos, hasta un bulo de articulos cientificos. En su primera demostración pública, el chatbot Bard de Google se perdió una pregunta sobre el Telescopio Espacial James Webb.
El daño suele ser mínimo, con hipo alucinatorio fácilmente refutable. A veces, sin embargo, la tecnología crea y difunde ficción sobre personas específicas que amenaza su reputación y los deja con pocas opciones de protección o recurso. Muchas de las empresas detrás de la tecnología han realizado cambios en los últimos meses para mejorar la precisión de la IA, pero algunos de los problemas persisten.
Un erudito legal describió en su sitio web cómo el chatbot ChatGPT de OpenAI lo vinculó a un acusación de acoso sexual lo que dijo nunca se hizo, lo que supuestamente ocurrió en un viaje que nunca hizo a una escuela donde no trabajaba, citando como prueba un artículo periodístico inexistente. Estudiantes de secundaria en Nueva York crearon un video falso o manipulado de un director local retratándolos en un racista y lleno de blasfemias. Los expertos en inteligencia artificial temen que la tecnología pueda dar a los reclutadores información falsa sobre los solicitantes de empleo o identificar erróneamente la orientación sexual de alguien.
La señora Schaake no podía entender por qué BlenderBot citó su nombre completo, que rara vez usa, y luego la etiquetó como terrorista. No podía pensar en ningún grupo que le diera una calificación tan extrema, aunque dijo que su trabajo la hizo impopular en ciertas partes del mundo, como Irán.
Las actualizaciones posteriores de BlenderBot parecieron solucionar el problema para la Sra. Schaake. No consideró demandar a Meta; generalmente desdeña las demandas y dijo que no tendría idea de por dónde empezar con las acciones legales. Meta, que finalizó el proyecto BlenderBot en junio, dijo en un comunicado que el modelo de búsqueda combinó dos piezas de información no relacionadas en una oración mal escrita sobre Schaake.
Los precedentes legales relacionados con la inteligencia artificial son casi inexistentes. Las pocas leyes que rigen actualmente la tecnología son en su mayoría nuevas. Sin embargo, algunas personas están comenzando a enfrentarse a las empresas de IA en los tribunales.
Un profesor aeroespacial presentó una demanda por difamación contra Microsoft este verano, acusando al chatbot Bing de la compañía de confundir su biografía con la de un terrorista convicto con un nombre similar. Microsoft se negó a comentar sobre la demanda.
En junio, un locutor de radio en Georgia demandó a OpenAI por difamación y dijo que ChatGPT inventó una demanda que lo acusó falsamente de apropiación indebida de fondos y manipulación de registros financieros como ejecutivo de una organización con la que en realidad no tenía ninguna relación. En una presentación judicial que pide que se desestime la demanda, OpenAI dijo que «existe un acuerdo casi universal de que el uso responsable de la IA incluye resultados provocados por la verificación de hechos antes de usarlos o compartirlos».
Las alucinaciones de IA, como detalles biográficos falsos e identidades mezcladas que algunos investigadores llaman «Frankenpeople», pueden ser causadas por la escasez de información sobre una persona en particular disponible en línea.
La dependencia de la tecnología en la predicción de patrones estadísticos también significa que la mayoría de los chatbots unen palabras y frases que reconocen de los datos de entrenamiento como frecuentemente correlacionados. Probablemente así fue como ChatGPT otorgó a Ellie Pavlick, profesora asistente de informática en la Universidad de Brown, una serie de premios en su campo que no ganó.
“Lo que lo hace parecer tan inteligente es que puede hacer conexiones que no están escritas explícitamente”, dijo. “Pero esta capacidad de generalizar libremente también significa que nada la vincula con la noción de que los hechos que son ciertos en el mundo no son los mismos que los que posiblemente podrían serlo”.
Para evitar imprecisiones accidentales, Microsoft dijo que usa filtrado de contenido, detección de abuso y otras herramientas en su chatbot Bing. La compañía dijo que también advirtió a los usuarios que el chatbot podría cometer errores y los alentó a enviar comentarios y evitar depender únicamente del contenido generado por Bing.
De manera similar, OpenAI dijo que los usuarios pueden informar a la empresa cuando ChatGPT responde de manera incorrecta. Los capacitadores de OpenAI pueden ver la crítica y usarla para ajustar el modelo para reconocer ciertas respuestas a solicitudes específicas como mejores que otras. También se puede enseñar a los técnicos a buscar la información correcta por sí mismos y evaluar cuándo su conocimiento es demasiado limitado para responder con precisión, según la empresa.
Meta lanzó recientemente varias versiones de su tecnología de inteligencia artificial LLaMA 2 y dijo que ahora está monitoreando cómo las diferentes tácticas de entrenamiento y ajuste pueden afectar la seguridad y precisión del modelo. Meta dijo que su lanzamiento de código abierto permitió que una amplia comunidad de usuarios ayudara a identificar y corregir sus vulnerabilidades.
La inteligencia artificial también se puede abusar deliberadamente para atacar a personas reales. El audio clonado, por ejemplo, ya es un problema tal que esta primavera el gobierno federal advirtió a la gente para observar estafas que involucran una voz generada por IA que imita a un miembro de la familia en apuros.
Anne T. Donnelly, fiscal de distrito del condado de Nassau, Nueva York, supervisó un caso reciente que involucraba a un hombre que había compartido falsificaciones profundas sexualmente explícitas de más de una docena de niñas en un sitio web pornográfico. El hombre, Patrick Carey, alteró imágenes robadas de las cuentas de redes sociales de las niñas y sus familiares, muchas de ellas tomadas cuando las niñas estaban en la escuela primaria o secundaria, dijeron los fiscales.
Sin embargo, no fueron esas imágenes las que lo llevaron a seis meses de prisión y una década de libertad condicional esta primavera. Sin un estatuto estatal que penalizara la pornografía falsa, el equipo de Donnelly tuvo que apoyarse en otros factores, como el hecho de que Carey tenía una imagen real de pornografía infantil y había acechado y procesado a algunas de las personas cuyas imágenes manipuló. Algunas de las imágenes falsas que publicó en 2019 continúan circulando en línea.
“Siempre es frustrante cuando te das cuenta de que la ley no se mantiene al día con la tecnología”, dijo Donnelly, quien está cabildeando por una legislación estatal que apunte a las falsificaciones profundas sexualizadas. “No me gusta encontrar víctimas y decir: ‘No podemos ayudarlos’.
Para ayudar a abordar las crecientes preocupaciones, siete empresas líderes en IA acordaron en julio adoptar salvaguardas voluntarias, como informar públicamente sobre las limitaciones de sus sistemas. Y la Comisión Federal de Comercio está investigando si ChatGPT perjudicó a los consumidores.
Para su generador de imágenes DALL-E 2, OpenAI dijo que eliminó el contenido extremadamente explícito de los datos de entrenamiento y limitó la capacidad del generador para producir imágenes violentas, llenas de odio o para adultos así como representaciones fotorrealistas de personas reales.
Una colección pública de ejemplos de daños en el mundo real causados por la inteligencia artificial, el Base de datos de incidentes de IA, tiene más de 550 entradas este año. Incluyen una imagen falsa de una explosión en el Pentágono que sacudió brevemente el mercado de valores y falsificaciones profundas que pueden haber influido en una elección en Turquía.
Scott Cambo, quien ayuda a ejecutar el proyecto, dijo que espera «un gran aumento en los casos» que involucren tergiversaciones de personas reales en el futuro.
“Parte del desafío es que muchos de estos sistemas, como ChatGPT y LLaMA, se promocionan como buenas fuentes de información”, dijo el Dr. cambó “Pero la tecnología subyacente no fue diseñada para ser eso”.
MundoDaily – #Cuando #miente #sobre #hay #pocos #recursos
Publish: 2023-08-03 11:27:45