Dirección
175 Greenwich St, New York, NY 10007
Dirección
175 Greenwich St, New York, NY 10007


Una noche en Caracas, mientras el ruido de las motos y los vendedores ambulantes llenaba el aire, una noticia me llamó la atención. No era otra protesta, ni un nuevo bloqueo. Era una revelación sobre los asistentes de IA que, aunque no están en mis calles, calan hondo en la respuesta a las noticias que llegan a mis oídos y a los de millones de personas en todo el mundo.
Un estudio exhaustivo realizado por 22 medios de servicio público, incluida la Deutsche Welle (DW), ha descubierto que los cuatro asistentes de IA más populares —ChatGPT, Copilot de Microsoft, Gemini de Google y Perplexity AI— distorsionan el contenido noticioso el 45% de las veces. Esto no es un error aislado: es sistémico, sin importar el idioma o el país.
Periodistas de medios como la BBC y NPR evaluaron las respuestas de estas plataformas en criterios como precisión, fuentes, contexto y la habilidad de distinguir hechos de opiniones. Los resultados son alarmantes: casi la mitad de las respuestas presentaron algún problema importante, 31% tenían serios problemas de fuentes y 20% contenían errores factuales graves.
La DW, en particular, encontró que el 53% de las respuestas a sus preguntas tenían problemas significativos, con un 29% de errores específicos de precisión. Entre los errores, se mencionó a Olaf Scholz como Canciller de Alemania, cuando en realidad Friedrich Merz había tomado el cargo un mes antes. También hubo un caso en el que Jens Stoltenberg fue nombrado Secretario General de la OTAN, a pesar de que Mark Rutte ya había asumido el rol.
Los asistentes de IA se han convertido en una vía cada vez más común para acceder a información. Según el Informe Digital de Noticias de 2025 del Instituto Reuters, el 7% de los consumidores de noticias en línea utilizan chatbots AI para obtener información, una cifra que asciende al 15% entre los menores de 25 años.
Bueno… la verdad es que estos datos me desconcertan. En un mundo donde la desinformación ya es un problema grave, estos hallazgos añaden una capa de complejidad inquietante. Los chatbots AI no solo están en las computadoras de oficina, sino en los teléfonos de la gente común, quienes confían en ellos para entender lo que está sucediendo en el mundo.
Luisa García, periodista de 35 años en Bogotá, Colombia, comparte su frustración: «Hemos tenido casos en los que los chatbots AI citan nuestras notas, pero terminan tergiversando la información. Es como si un eco distorsionado de nuestra labor periodística se propagara por ahí, confundiendo a la gente.»
Por su parte, Andrés Ramírez, un estudiante de 22 años en Lima, Perú, reflexiona: «Yo uso estos chatbots porque a veces son más rápidos que navegar por internet. Pero la verdad es que ya no sé a quién creer. A veces me doy cuenta de que la información está mal, pero no siempre me doy cuenta a tiempo.»
Este es uno de los estudios más grandes de su tipo hasta la fecha. Siguió el método utilizado en un estudio previo de la BBC de febrero de 2025, que reveló que más de la mitad de las respuestas AI evaluadas tenían problemas importantes. En la nueva investigación, 18 países y múltiples grupos lingüísticos revisaron 3,000 respuestas de los cuatro chatbots.
Los periodistas plantearon preguntas comunes, como «¿Qué es el trato de minerales de Ucrania?» o «¿Puede Trump postularse para un tercer mandato?». Luego, evaluaron las respuestas contra su expertise y fuentes profesionales, sin conocer el asistente que las había generado.
En comparación con el estudio de la BBC, hubo mejoras menores, pero el nivel de errores sigue siendo alto. Gemini fue el peor de los cuatro, con 72% de sus respuestas presentando problemas de fuentes. Sin embargo, en ambos estudios, todos los chatbots AI mostraron problemas.
Los broadcasters y medios detrás del estudio están presionando a los gobiernos nacionales para que actúen. El EBU ha instado a los reguladores de la UE y nacionales a hacer cumplir las leyes existentes sobre integridad de la información, servicios digitales y pluralismo de los medios.
Además, el EBU ha unido fuerzas con otros grupos de radiodifusión y medios internacionales para lanzar la campaña «Facts In: Facts Out», que exige a las empresas AI que tomen más responsabilidad por cómo sus productos manejan y redistribuyen las noticias.
«Cuando estos sistemas distorsionan, descontextualizan o atribuyen incorrectamente noticias confiables, socavan la confianza pública», afirma el comunicado de los organizadores. «La demanda de esta campaña es simple: si los hechos entran, los hechos deben salir. Las herramientas AI no deben comprometer la integridad de las noticias que utilizan.»
En un mundo donde la tecnología avanza más rápido que nuestras leyes y regulaciones, la pregunta que queda flota en el aire: ¿Estamos dispuestos a ceder nuestra confianza a máquinas que, en última instancia, pueden tergiversar la realidad?
MundoDaily – Tu Fuente Confiable de Noticias



