El desarrollo de la inteligencia artificial (IA) y los riesgos asociados a ella no pueden depender de los "caprichos" del mercado, alertaron expertos de la ONU, que reclaman herramientas de cooperación internacional sin llegar a pedir una instancia reguladora global.
El secretario general de Naciones Unidas, António Guterres, estableció en octubre del año pasado un comité de unos cuarenta especialistas en los campos de la tecnología, el derecho y la protección de datos personales, procedentes del mundo académico, de los gobiernos o del sector privado, incluidas firmas como Microsoft, Google-Alphabet u OpenAI.
Su informe final, publicado a pocos días de la "Cumbre del Futuro" que se celebrará en Nueva York, constata la "falta de gobernanza mundial en materia de IA" y la exclusión de los países en desarrollo de las discusiones sobre este asunto existencial.
De los 193 Estados miembros de la ONU, solo siete forman parte de las grandes iniciativas relacionadas con la IA (en el marco de la OCDE, del G20 y del Consejo de Europa) y 118 están totalmente ausentes, en su mayoría países del sur.
Sin embargo, la naturaleza "transfronteriza" de estas tecnologías "exige un enfoque mundial", insisten.
"La IA debe servir a la humanidad de forma justa y segura", reiteró esta semana Guterres. "Sin control, los peligros que genera la inteligencia artificial podrían tener implicaciones graves para la democracia, la paz y la estabilidad" del planeta.
Papel "crucial" de los gobiernos
En este contexto, el comité de expertos pide a los Estados miembros de la ONU que establezcan herramientas para mejorar la cooperación mundial en la materia, alentar los avances de la humanidad y evitar los abusos.
"Nadie puede predecir en la actualidad la evolución de estas tecnologías" y los que toman las decisiones no tienen voz en el desarrollo y uso de sistemas que ni siquiera "comprenden".
En estas circunstancias, el "desarrollo, el despliegue y el uso de estas tecnologías no puede depender únicamente de los caprichos del mercado", advierten los expertos, antes de señalar el papel "crucial" que deben tener los gobiernos y las organizaciones regionales.
Entre las conclusiones, sugieren la creación de un grupo internacional de expertos científicos sobre la IA, que se inspire del modelo de especialistas de la ONU sobre el clima (IPCC), cuyos informes son referencia para la descripción del calentamiento global, su impacto y las soluciones para mitigarlo.
Estos científicos asesorarían a la comunidad internacional sobre los riesgos emergentes, los sectores donde es necesaria mayor investigación y podrían identificar la forma en que algunas tecnologías podrían ayudar a cumplir los objetivos de desarrollo sostenible (eliminación del hambre y la pobreza, la igualdad de género o el clima, entre otros).
Esta idea forma parte del proyecto de Pacto Digital Mundial, que está siendo discutido, y que se espera que sea adoptado el domingo durante la "Cumbre del Futuro" en la ONU.
Los expertos sugieren también que se instaure un diálogo político intergubernamental regular sobre el asunto y se cree un fondo para ayudar a los países rezagados.
Evitar las sorpresas
Todo ello bajo el paraguas de una estructura ligera dentro de la propia Secretaría de la ONU, sugieren.
Sin embargo, no están de acuerdo con la creación de una entidad internacional de gobernanza a la imagen del Organismo Internacional para la Energía Atómica (OIEA), como ha llegado a sugerir Guterres, salvo que los riesgos se hagan "más serios y más concentrados".
En ese caso, "podría ser necesario que los Estados creen una institución internacional con poderes de vigilancia, alerta, verificación y ejecución", añaden.
En un mensaje, el jefe de la ONU ofrece "su apoyo total" a estas recomendaciones que "esbozan los planes" para "construir una arquitectura internacional de la IA inclusiva, flexible y eficaz para hoy para el futuro".
En un sector que evoluciona muy rápidamente, los expertos identifican varios peligros de la IA, entre ellos, la desinformación que amenaza las democracias, los "deepfakes" (videos ultrafalsos) más personales, sobre todo sexuales, violaciones de los derechos humanos, armas autónomas y su utilización por grupos criminales o terroristas.
"Dada la rapidez, la autonomía y la opacidad de los sistemas de la IA, esperar a que surja una amenaza podría significar que ya es demasiado tarde para responder", admiten, por lo que abogan por una evaluación científica constante, y los intercambios políticos para que "el mundo no se vea tomado por sorpresa".
Por otra parte, una treintena de empresas tecnológicas, entre ellas Meta (Facebook, Instagram) y Spotify, así como investigadores y asociaciones pidieron en una carta abierta a la Unión Europea que aclare su normativa sobre inteligencia artificial (IA).
"Europa se ha vuelto menos competitiva y menos innovadora que otras regiones y hoy corre el riesgo de perder aún más terreno en la era de la IA debido a decisiones regulatorias inconsistentes", dice la carta.
"En los últimos tiempos, las regulaciones se han vuelto fragmentadas e impredecibles", argumentan los firmantes, que consideran que las intervenciones de las autoridades europeas "han generado mucha incertidumbre sobre el tipo de datos que se pueden utilizar para entrenar modelos de IA."
Por eso piden a los responsables políticos europeos "decisiones armonizadas, coherentes, rápidas y claras sobre las regulaciones de datos en la UE".
RECUADRO
Entrada de legislación
En agosto entró oficialmente en vigor la nueva legislación europea para regular la IA, pionera a nivel mundial, que tiene el objetivo de impulsar la innovación protegiendo al mismo tiempo la vida privada.
La normativa impone restricciones a los sistemas de IA si suponen un peligro para la sociedad. También obliga a los sistemas como ChatGPT a garantizar la calidad de los datos y el respeto de los derechos de autor.
DESTACADO
El comité de expertos pide a los Estados miembros de la ONU que establezcan herramientas para mejorar cooperación