Desinformación, IA y elecciones: arriesgado coctel del año | El Nuevo Siglo
Las tecnologías a la vanguardia de la Inteligencia Artificial admiten que estos programas podrían inundar internet de desinformación e influir en la decisión de los votantes./Archivo AFP
Viernes, 19 de Enero de 2024
Redacción internacional con AFP

El espectro de la desinformación nunca ha planeado tan intensamente sobre el mundo como en 2024, con la inquietante llegada de la inteligencia artificial (IA).

Cerca de la mitad de la población mundial vive en países donde se celebrarán elecciones en 2024.

Los taiwaneses fueron los primeros en votar, el 15 de enero, en unas presidenciales que ganó Lai Ching-te, del Partido Progresista Democrático.

Durante meses, los abonados a la red social TikTok en la isla se vieron inundados de videos engañosos que atacaban particularmente a los candidatos favorables a la mantener la independencia frente a China.

"Uno de los desafíos más importantes será comprobar si los avances, especialmente en IA, se utilizarán a una escala lo suficientemente crítica como para modificar el curso de las votaciones. Es una incógnita importante", señala Julien Nocetti, investigador asociado del Centro Rusia/ Eurasia del Instituto Francés de Relaciones Internacionales (Ifri).

Está en juego la "capacidad de resistencia del modelo democrático a los ataques de actores" externos, advierte.

El contexto es propicio para la desinformación, cuyo objetivo principal es avivar las disensiones en temas controvertidos (inflación, migración, religión...). Máxime con la polarización política existente y el deterioro de la confianza en los medios de comunicación y los líderes políticos. Y con importantes conflictos: Ucrania y Gaza.

La IA generativa, que permite crear fácilmente imágenes falsas o imitar voces, y cuyo uso se ha generalizado, es una herramienta temible.

En los últimos meses circularon las imágenes de una supuesta detención de Donald Trump, un video falso que mostró al presidente Joe Biden anunciando una movilización general para apoyar el esfuerzo de guerra de Ucrania, o el uso manipulado de la voz de mandatarios como el francés Emmanuel. Macron.

La desinformación, incluida la generada por IA, es uno de los mayores riesgos mundiales a corto plazo y podría generar perjuicios para gobiernos recién elegidos en las principales potencias económicas, advirtió la semana pasada el Foro Económico Mundial.

Según los expertos, el temor a la desinformación electoral comenzó hace años, pero el fácil acceso a potentes generadores de texto e imágenes basados en IA aumentaron la amenaza, especialmente si los usuarios no pueden distinguir fácilmente si el contenido es falso o fue manipulado.

"Sofisticación"

China y Rusia son los dos países que despiertan recelo en la escena internacional.

La campaña de desinformación en Taiwán antes de las elecciones presidenciales, según expertos, fue orquestada por Pekín, que reclama la isla como parte integral de su territorio.

En Estados Unidos, que votará en noviembre, el grupo de análisis Insikt anticipa que "Rusia, China, Irán, activistas violentos y piratas informáticos llevarán a cabo muy probablemente campañas de desinformación a diversos niveles, en función de su magnitud y sofisticación, para dar forma o perturbar" las elecciones, según un informe de diciembre.

La desinformación socava la legitimidad de los resultados mediante campañas de desacreditación de los candidatos, dudas sobre el proceso electoral y el fomento de la abstención.

Las consecuencias a veces son peligrosas para la democracia, como lo mostraron las acusaciones recurrentes de Trump sobre supuestos fraudes electorales que llevaron a sus seguidores a asaltar el Capitolio el 6 de enero de 2021.

Según Julien Nocetti, la Unión Europea podría enfrentarse en las elecciones de junio a campañas que "deslegitiman la cohesión y el proyecto europeo, así como el apoyo a Ucrania", como ya ha ocurrido en los últimos meses.

Meta (Facebook, Whatsapp e Instagram) y las autoridades francesas ven la mano de grupos cercanos al Kremlin en la operación "Doppelgänger", que consiste en usurpar la identidad de medios para difundir desinformación, especialmente contra Ucrania.

Paradójicamente, algunos regímenes represivos podrían aprovechar la lucha contra la desinformación para imponer medidas que atenten contra los derechos humanos, advierte el Foro Económico Mundial en un informe reciente.

"Automatización" de la lucha

Los Estados intentan prepararse para la batalla, pero el tiempo político es más lento que el de las redes sociales y la tecnología.

El gobierno indio anunció una ley sobre el sector digital que sin embargo no estará lista para las elecciones de primavera.

En la UE, la legislación sobre servicios digitales impone obligaciones a las plataformas, como actuar "rápidamente" para eliminar contenido denunciado como ilegal o suspender a los usuarios que infrinjan regularmente las prohibiciones.

"Mejoras útiles pero limitadas", explica la investigadora Federica Marconi en un estudio para el Instituto de Asuntos Internacionales y el Centro Europeo de Política publicado a finales de 2023.

En cuanto al proyecto de ley específica sobre la IA en la Unión Europea, el primero de esas características, no debería entrar en vigor antes de... 2026.

En Estados Unidos, Biden firmó un decreto en octubre sobre reglas y orientaciones para las empresas de tecnología, pero no hay una ley federal vinculante.

Instados a actuar, los gigantes del sector insisten en nuevas iniciativas: la obligatoriedad de mencionar el uso de la IA en la publicidad en Meta, una herramienta de Microsoft que permite a los candidatos autentificar sus contenidos con una marca de agua digital.

Pero esas empresas confían cada vez más sus tareas de moderación a la propia IA.

"Una automatización de la lucha contra la desinformación que no parece ser la mejor opción si se quiere entender las estrategias hostiles de sus emisarios", señala Julien Nocetti.

La firma estadounidense OpenAI, creadora del robot virtual ChatGPT que impulsó una revolución de la inteligencia artificial (IA), pero también provocó advertencias de especialistas de que estos programas podrían inundar internet de desinformación e influir en la decisión de los votantes anunció que lanzará herramientas contra la desinformación.

Así dijo que no permitirá que su tecnología -incluidos ChatGPT y el generador de imágenes DALL-E 3- sean utilizados en campañas políticas.

"Queremos asegurarnos de que nuestra tecnología no se use para socavar" procesos democráticos, afirmó OpenAI en un blog.

"Todavía estamos trabajando para comprender la eficacia de nuestras herramientas para la persuasión personalizada. Hasta que sepamos más, no permitimos construir aplicaciones para campañas políticas y grupos de presión", añadió la firma.

"A principios de este año implantaremos las credenciales digitales de la Coalition for Content Provenance and Authenticity (Coalición para la Autenticidad y Procedencia de los Contenidos), un enfoque que codifica los detalles sobre la procedencia de los contenidos mediante criptografía", declaró la empresa.

La coalición, también conocida como C2PA, pretende mejorar la identificación y rastreo de contenidos digitales. Entre sus miembros figuran grandes empresas como Microsoft, Sony, Adobe y las japonesas especializadas en imagen Nikon y Canon. /Resumen AFP

 

Alerta de la OMS

Una guía sobre la ética y la gobernanza de grandes modelos multimodales (LMM en inglés), un tipo de tecnología de inteligencia artificial (IA) generativa de rápido crecimiento con aplicaciones en toda la atención sanitaria lanzó la Organización Mundial de la Salud (OMS).

El médico británico Jeremy Farrar, científico jefe de la OMS, dijo al presentar la guía que “las tecnologías de IA generativa tienen el potencial de mejorar la atención sanitaria, pero solo si quienes las desarrollan, regulan y utilizan, identifican y tienen plenamente en cuenta los riesgos asociados”.

Estos LMM pueden utilizar varios tipos de datos, incluidos texto, imágenes y videos, y generar resultados que no se limitan al tipo de datos introducidos en el algoritmo.

La organización define cinco áreas que podrían utilizar esta tecnología: el cribado, para responder por ejemplo a peticiones escritas de los pacientes; la investigación científica y el desarrollo de fármacos; la educación médica y de enfermería; las tareas administrativas; y el uso por parte de los pacientes, por ejemplo para analizar síntomas.

Pero detrás del gran potencial, la OMS advierte que estos LMM pueden dar resultados falsos, inexactos, sesgados o incompletos.

"A medida que se utilizan cada vez más los LMM en la asistencia sanitaria y la medicina, los errores, el mal uso y, por ende, los perjuicios para las personas son inevitables", señala la OMS.

El documento también presenta nuevas directrices sobre la ética y la gestión de los LMM, con más de 40 recomendaciones para los gobiernos, las empresas tecnológicas y proveedores de atención sanitaria sobre cómo beneficiarse de esta tecnología de forma segura.

La OMS pide que se establezcan normas de responsabilidad para "garantizar que los usuarios perjudicados por un LMM sean indemnizados adecuadamente o dispongan de otras formas de recurso".

También subraya que existen dudas sobre el cumplimiento de la normativa vigente por parte de los LMM, especialmente en materia de protección de datos.

Además, el hecho de que los LMM sean a menudo desarrollados e implantados por gigantes tecnológicos también preocupa según la OMS, que recomienda que los profesionales de la salud y pacientes también participen en el proceso.

La organización también advierte sobre su vulnerabilidad ante los riesgos de ciberseguridad, que podrían poner en peligro la información de los pacientes e incluso la fiabilidad de la asistencia sanitaria.

Por último, concluye que los gobiernos deberían encargar a las autoridades reguladoras que aprueben el uso de los LMM en la atención sanitaria, y pide que se realicen auditorías para evaluar el impacto de esta tecnología.