Dirección 

175 Greenwich St, New York, NY 10007

TikTok está permitiendo que las personas apaguen su infame algoritmo y piensen por sí mismos

TikTok está permitiendo que las personas apaguen su infame algoritmo y piensen por sí mismos – MundoDaily

TikTok anunció recientemente que sus usuarios en la Unión Europea pronto podrán apagar su infame y atractivo algoritmo de selección de contenido. O Ley de servicios digitales de la UE (DSA) está impulsando este cambio como parte de un esfuerzo más amplio en toda la región para regular la IA y los servicios digitales de acuerdo con los derechos humanos y los valores.

Algoritmo TikTok aprende de las interacciones del usuario—cuánto tiempo ven, qué les gusta, cuándo comparten un video, para crear una experiencia altamente personalizada e inmersiva que puede dar forma a sus estados mentales, preferencias y comportamientos sin su pleno conocimiento o consentimiento. Una característica de exclusión voluntaria es un gran paso hacia la protección libertad cognitiva, el derecho fundamental a la autodeterminación sobre nuestros cerebros y experiencias mentales. En lugar de estar confinados a páginas y feeds en vivo seleccionados algorítmicamente, los usuarios podrán ver videos de tendencias en su región e idioma, o un feed de «Seguidores y amigos» que enumera a los creadores que siguen en orden cronológico. Esto prioriza el contenido popular en su región sobre el contenido curado para su pegajosidad. La ley también prohíbe los anuncios dirigidos a usuarios de entre 13 y 17 años y brinda más información y opciones de informes para marcar contenido ilegal o dañino.

En un mundo cada vez más moldeado por la inteligencia artificial, los grandes datos y los medios digitales, la urgente necesidad de proteger la libertad cognitiva está ganando atención. la propuesta La ley de IA de la UE ofrece algunas salvaguardas contra la manipulación mental. de la UNESCO acercamiento a la IA se centra en los derechos humanos, la administración Biden compromisos voluntarios de las empresas de IA se ocupa del engaño y el fraude, y la organizacion para la cooperacion economica y el desarrollo incorporó la libertad cognitiva a su principios para un gobierno responsable de tecnologías emergentes. Pero si bien las leyes y propuestas como estas están avanzando, a menudo se centran en subconjuntos del problema, como la privacidad por diseño o la minimización de datos, en lugar de trazar un enfoque explícito e integral para proteger nuestra capacidad de pensar libremente. Sin marcos legales sólidos en todo el mundo, los desarrolladores y proveedores de estas tecnologías pueden escapar de la responsabilidad. Esta es la razón por la cual los simples cambios incrementales no serán suficientes. Los formuladores de políticas y las empresas necesitan urgentemente reformar los modelos de negocios en los que se basa el ecosistema tecnológico.

Un plan bien estructurado requiere una combinación de regulaciones, incentivos y rediseños de negocios con un enfoque en la libertad cognitiva. Los estándares regulatorios deben regir los modelos de participación del usuario, intercambio de información y privacidad de datos. Deben existir fuertes salvaguardas legales contra la interferencia con privacidad mental y manipulación. Las empresas deben ser transparentes sobre cómo funcionan los algoritmos que implementan y tienen el deber de evaluar, divulgar y adoptar salvaguardas contra influencia indebida.

Al igual que con las pautas de responsabilidad social corporativa, las empresas también deben estar legalmente obligadas a evalúa tu tecnología por su impacto en la libertad cognitiva al proporcionar transparencia sobre algoritmos, uso de datos, prácticas de moderación de contenido y modelado cognitivo. Esfuerzos en evaluaciones de impacto ya forman parte de propuestas legislativas en todo el mundo, incluida la Ley de servicios digitales de la UEpropuesta de EE.UU. Ley de responsabilidad algorítmica Es Ley de privacidad y protección de datos de EE. UU.y mecanismos voluntarios tales como el marco de gestión de riesgos de 2023 del Instituto Nacional de Estándares y Tecnología de EE. UU.. Una herramienta de evaluación de impacto para la libertad cognitiva mediría específicamente la influencia de la IA en la autodeterminación, la privacidad mental y la libertad de pensamiento y toma de decisiones, con un enfoque en la transparencia, las prácticas de datos y la manipulación mental. Los datos requeridos incluirían descripciones detalladas de los algoritmos, fuentes de datos y recopilación, así como evidencia de los efectos de la tecnología en la cognición del usuario.

Las exenciones fiscales y la financiación también pueden impulsar la innovación en las prácticas comerciales y los productos para reforzar la libertad cognitiva. Investigadores líderes en ética de la IA Enfatice que una cultura organizacional que priorice la seguridad es esencial para combatir los muchos riesgos que presentan los grandes modelos de lenguaje. Los gobiernos pueden fomentar esto ofreciendo exenciones fiscales y oportunidades de financiación como las que se incluyen en la propuesta. Plataforma ley de rendición de cuentas y transparencia, para empresas que colaboran activamente con instituciones educativas para crear programas de seguridad de IA que promuevan la autodeterminación y las habilidades de pensamiento crítico. Los incentivos fiscales también podrían apoyar la investigación y la innovación para herramientas y técnicas que revelan el engaño por modelos de IA.

Las empresas tecnológicas también deben adoptar principios de diseño que incorporen la libertad cognitiva. Opciones como configuraciones ajustables en TikTok o mayor control sobre las notificaciones en dispositivos Apple son pasos en la dirección correcta. Otras características que permiten la autodeterminación, incluido el etiquetado de contenido con «insignias» que especifican el contenido como generado por humanos o máquinaso pedir a los usuarios que participen críticamente con un artículo antes de volver a compartirlo– debería convertirse en la norma en las plataformas digitales.

El cambio de política de TikTok en Europa es una victoria, pero no es el final del juego. Necesitamos urgentemente actualizar nuestro libro de reglas digital, implementando nuevas leyes, regulaciones e incentivos que salvaguarden los derechos de los usuarios y responsabilicen a las plataformas. No dejemos el control de nuestras mentes solo a las empresas de tecnología; es hora de que la acción global priorice la libertad cognitiva en la era digital.


MundoDaily – #TikTok #está #permitiendo #las #personas #apaguen #infame #algoritmo #piensen #por #sí #mismos

Publish: 2023-08-14 11:25:47

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *