¿Cómo implementar Inteligencia Artificial en la Corte Constitucional? la pregunta que nos montó en una colaboración academia, sociedad civil y la propia corte.

2019-09-02 Leer en voz alta

Por Lucía Camacho

El pasado 8 de julio la Fundación Karisma junto con Datasketch, DeJusticia, ISUR, Ius Digna, Oscar Maldonado, director del departamento de sociología de la Universidad del Rosario y Sandra Botero docente de la misma universidad, René Urueña del CIJUS de la Universidad de los Andes y Santiago Pardo director del Legal Desing Lab de esa misma universidad, organizamos un taller ante la Corte Constitucional sobre Inteligencia Artificial ¿por qué y con qué fin?, aquí les contamos.

¿Inteligencia Artificial en la Corte Constitucional?

Seguramente recordarán que hace un par de meses, medios anunciaban con bombos y platillos una nueva “herramienta de inteligencia artificial [que] llegó a la Corte Constitucional para mejorar la productividad en la selección de tutelas”. Esta herramienta, llamada Prometea, le permitiría a la Corte, según su presidente de entonces, el magistrado Alejandro Linares, actuar con mayor transparencia de frente a la ciudadanía en el proceso de selección de tutelas, además de acelerar al trabajo interno de ese alto tribunal.

En el proceso de selección de tutelas, la Corte determina cuáles casos, entre los más de 2700 que llegan a diario, merecen ser escogidos para someterlos a su revisión teniendo en cuenta unos criterios definidos por la propia Corte. Los creadores de Prometea aseguraban que podía ayudar a buscar los más importantes casos y aliviar con ello la carga de trabajo, por ejemplo, al adelantar en dos minutos el trabajo de selección de 2016 expedientes que le tomaría a una persona al menos 96 días hábiles entre leer y revisar. Una promesa de ahorro de tiempo que resulta atractiva, ¿verdad?

Sin embargo, desde que Prometea fue presentada oficialmente a inicios de año, varias voces críticas de diferentes disciplinas y sectores hemos llamado la atención sobre la necesidad de ahondar en detalles que nos permitan saber ¿qué es realmente Prometea y cómo funciona?, ¿cómo impacta en la acción de tutela y los derechos fundamentales de sus partes?, ¿cómo se adaptará a nuestra realidad siendo una solución extranjera?, ¿cuál es o será el despliegue en la Corte?, entre otras.

En ese contexto, profesionales, desde el derecho, la sociología y hasta la ciencia de datos, nos fuimos encontrando en eventos que prometían, sin mucho éxito, dar mayor información sobre Prometea, y fuimos compartiendo preocupaciones comunes sobre el uso de tecnologías automatizadas aplicadas en la administración de justicia.

Un espacio compartido entre la Corte, la academia y sociedad civil colombianas

Viendo el interés y conocimiento en la materia de nuestro grupo, que se acercaba al tema desde diversas disciplinas, propusimos a la Corte Constitucional la creación de un espacio para acercar nuestros conocimientos en la materia desde una mirada crítica sobre el uso de tecnologías y sistemas automatizados que dicen resolver problemas de la administración de justicia. Así fue como nació la idea del taller que se presentaba también como una oportunidad de diálogo y que fue aceptada por la Secretaria de ese tribunal, Martha Sáchica. 

En concreto, a lo largo del taller nos propusimos transmitir tres ideas centrales. La primera, que es preciso una revisión crítica de las tecnologías automatizadas de toma de decisiones aplicadas en la justicia, por las consecuencias que pueden derivarse de éstas e impactar en el ejercicio de los derechos humanos de la ciudadanía. La segunda, que la IA no es la herramienta resuelta e infalible que se piensa por muchos. Y la tercera, que es necesario el cuestionamiento constante sobre las necesidades de la propia Corte y las capacidades reales de la herramienta que llegue a serle ofrecida por terceros a éste tribunal y que prometan soluciones tecnológicas integrales a la administración de justicia especialmente aplicables a la selección de tutela.

Este taller contó con la presencia de Martha Sáchica, así como de varios magistrados y magistradas auxiliares, miembros del equipo de sistemas de la Corte y del coordinador de selección de tutelas. Se desarrolló en tres partes.

En la primera parte abordamos algunos conceptos que se usaban con frecuencia cuando se presentaba en medios a Prometea, tales como inteligencia artificial (IA), machine learning y algoritmo. Si bien procuramos dar claridad sobre ellos y sus limitaciones, también hablamos de la vaguedad e imprecisión que los circunda. Sobre todo, aterrizamos tanto como pudimos, a través de ejemplos reales cómo algunas incursiones de IA en diversos campos han presentado problemas en la realidad y expusimos las expectativas sobredimensionadas que a veces se tienen en estos sistemas como solución para todos nuestros problemas.

En la segunda parte del taller, propusimos la lectura de un caso en el que el grupo asistente tuviera que identificar posibles riesgos asociados al uso de herramientas automatizadas de toma de decisiones en la vida cotidiana, para introducir así la discusión sobre riesgos potenciales que se han derivado del uso de IA en diversos ámbitos.

Vinculado a los riesgos identificados, en esta segunda parte del taller se entregó a quienes asistieron, un documento con la descripción de ciertos criterios que debían poder satisfacer las soluciones que prometan en un futuro a la Corte Constitucional la automatización de la toma de decisiones en los procesos judiciales que se surten ante ésta.

La tercera y última parte del taller, tenía como objetivo compartir con la Corte una metodología que le permitiera a sus integrantes cuestionar y cuestionarse sobre las herramientas de automatización de procesos que puedan llegar a ser ofertadas a esta corporación en el futuro.

La metodología se diseñó a partir de preguntas que cuestionan sobre aspectos de vital importancia que debe satisfacer una herramienta de este tipo en su fase de diseño, implementación y monitoreo. Estas preguntas se encuentran acompañadas de escenarios de posibles respuestas y en ellas indicamos qué escenarios resultan más deseables que otros, que debieran en todo caso evitarse.

Así, a partir de este taller se consolida un grupo de sociedad civil y academia que piensa y comparte desde la reflexión crítica sobre las tecnologías automatizadas de decisión aplicadas a la justicia y al que hemos decidido bautizar Mesa Colombiana de Inteligencia Artificial.

Por último, veremos qué rumbo toma este grupo al que se pueden sumar personas y organizaciones interesadas en la inteligencia artificial desde una perspectiva de derechos humanos, mientras seguimos monitoreando las iniciativas del Estado relacionadas con herramientas que aseguran ser inteligencia artificial y que dicen automatizar procesos con diversos fines como la predicción de hechos de corrupción, predicción del riesgo en seguridad ciudadana, entre otros.

2 comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.