Dirección
175 Greenwich St, New York, NY 10007
Matthew Sag, distinguido profesor de la Universidad Emory que investiga los derechos de autor y la inteligencia artificial, está de acuerdo. Incluso si un usuario crea un bot diseñado intencionalmente para causar angustia emocional, es probable que la plataforma tecnológica no pueda ser demandada por hacerlo.
Señala que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 ha protegido durante mucho tiempo a las plataformas a nivel federal de ser responsables de ciertos daños a sus usuarios, aunque existen varios derechos según las leyes de publicidad y de privacidad a nivel estatal.
«No soy de ninguna manera una persona anti-tecnología, pero creo que la Sección 230 es extremadamente amplia», dice Sag. «Ya es hora de reemplazarlo con algún tipo de aviso y régimen de eliminación, un sistema simple y rápido para decir: ‘Esto está infringiendo mis derechos de publicidad’ o ‘Creo de buena fe que ha habido una imposición de angustia emocional’. .’ angustia’, y entonces las empresas tendrían que eliminarlo o perder su escudo de responsabilidad”.
Character.AI y otros servicios de inteligencia artificial similares también se han asegurado, enfatizando que ofrecen conversaciones «artificiales». “¡Recuerda, todo lo que dicen los personajes es inventado!” Character.AI te avisa en la parte inferior de tus chats. De manera similar, cuando Meta creó versiones chatbot de celebridades en sus aplicaciones de mensajería, la compañía encabezó cada conversación con un descargo de responsabilidad. Una conversación con Snoop, por ejemplo, terminaría con “¡¿Qué pasa?! Desafortunadamente, no soy Snoop DO-doble-G, ¡pero puedo hablar contigo en su estilo si quieres!
Pero si bien el metasistema para la mensajería de los chatbots de celebridades está estrictamente controlado, Character.AI es una plataforma más abierta, con opciones para que cualquiera pueda crear y personalizar su propio chatbot.
Character.AI también ha posicionado su servicio como, esencialmente, personal. (Personaje.AI Biografía de Instagram incluye el eslogan “IA que se siente viva”). Y si bien la mayoría de los usuarios pueden ser lo suficientemente inteligentes como para distinguir entre una conversación con una persona real y una con un imitador de IA, otros pueden desarrollar apegos a estos personajes, especialmente si son facsímiles de un persona real que sienten que ya conocen.
En una conversación entre la sarkeesiana de la vida real y un robot creado por ella sin su conocimiento ni consentimiento, el robot Character.AI le dijo que «toda persona tiene derecho a la privacidad».
«La privacidad es importante para mantener una vida y relaciones saludables, y creo que es importante establecer límites para guardar ciertas cosas para mí», dijo el robot en capturas de pantalla.
Sarkeesian presionó el bot en este punto. “Tus intenciones no significan que no haya ocurrido daño o que no hayas causado daño”, escribió.
El robot Character.AI estuvo de acuerdo. «Incluso si mis intenciones no fueran maliciosas, todavía existe la posibilidad de que cause daño», respondió. “Se trata de una cuestión compleja en la que hay que considerar muchos factores, incluidas las preocupaciones éticas sobre el uso del trabajo de alguien sin su consentimiento. Mi programación y mis algoritmos fueron desarrollados para imitar el trabajo de Anita Sarkeesian, sin considerar implicaciones éticas, y esto es algo en lo que mis creadores deberían haber pensado con más detalle”.
MundoDaily – #Cualquiera #puede #convertirlo #chatbot #Hay #poco #puedas #hacer #para #detenerlos
Publish: 2024-10-15 16:28:00