Judicatura emite lineamientos para el uso responsable de la IA | El Nuevo Siglo
El Acuerdo rige desde el 16 de diciembre de 2024. / Foto: Platzi
Miércoles, 18 de Diciembre de 2024
Redacción Web

El Consejo Superior de la Judicatura expidió el AcuerdoPCSJA24-12243, con el que se adoptan reglas y lineamientos para el uso de herramientas de Inteligencia Artificial (IA) en la Rama Judicial, en el objetivo de su aprovechamiento respetuoso, responsable, seguro y ético.

Para la presidenta del Consejo Superior de la Judicatura, Diana Alexandra Remolina Botía, estos lineamientos son “el primer impulso al uso de la IA con autocontrol, pero también son reglas que deben ir evolucionando conforme avance la tecnología, la normatividad y la jurisprudencia”.

El Acuerdo establece los usos permitidos de las herramientas de inteligencia artificial en el ejercicio de las funciones de los servidores judiciales, organizados en tres categorías principales:

  1. Gestión administrativa o de soporte: para optimizar procesos administrativos y facilitar tareas de apoyo a la gestión judicial.
  2. Usos con revisión detallada: aquellos que exigen una verificación minuciosa de los productos y resultados antes de ser utilizados o interpretados.
  3. Usos que requieren altos estándares éticos: aplicaciones que demandan un estricto cumplimiento de los deberes de transparencia, responsabilidad y protección de la privacidad.

Con la adopción de estos lineamientos, se impulsa el aprovechamiento responsable de las tecnologías de IA en la Rama Judicial para que la ciudadanía se beneficie con una justicia más ágil y, al mismo tiempo mantenga su imparcialidad e independencia.

Deberes para el uso de la IA

De igual manera, se establecieron deberes en el empleo de la Inteligencia Artificial, recordando a los servidores judiciales sobre su responsabilidad de informarse sobre las funcionalidades, limitaciones, riesgos y el manejo de los datos que ejecutan estas herramientas. 

Adicionalmente, se enfatiza la necesidad de controlar y verificar la fiabilidad de la IA generativa, así como la obligación de informar explícitamente su uso en cualquier expediente, carpeta, actuación, documento o decisión judicial. Esto incluye detallar el nombre de la herramienta utilizada, el modelo y la empresa proveedora, así como la fecha en que fue usada y la confirmación de que los términos y condiciones fueron leídos, comprendidos y aceptados.

Además, se debe explicar el propósito para el cual fue empleada la IA, describir en detalle cómo se utilizó, incluyendo los prompts o instrucciones dados, y especificar con claridad la ubicación de los productos o resultados generados. Para diferenciarlos del resto del texto, se recomienda utilizar formatos como comillas, negrillas o cursivas, garantizando así la transparencia y claridad en la incorporación de estos elementos.

Por su parte, la Unidad de Transformación Digital e Informática (UTDI) y las dependencias que implementen proyectos y soluciones institucionales basadas en IA generativa deberán validar el cumplimiento de las pautas y lineamientos para su uso respetuoso, responsable y seguro.

A su vez, la Escuela Judicial Rodrigo Lara Bonilla, con el apoyo de la UTDI, desarrollará un plan de formación para el aprendizaje y fortalecimiento de competencias digitales.

Este Acuerdo, que también da pautas para la ejecución de proyectos con IA generativa, aplica para los magistrados, jueces y empleados de todas las jurisdicciones y especialidades, así como los directores y empleados de las unidades y dependencias administrativas de la Rama Judicial, quienes deberán cumplir las reglas y servir de guía para los demás actores involucrados en los servicios de justicia, con el fin de maximizar los beneficios y potencialidades de esas tecnologías.