Acuerdo Sobre el uso de la IA, Consejo Superior de la Judicatura regula el uso de la inteligencia artificial en el ejercicio de la administración de justicia, respecto de la gestión administrativa y su implementación para soluciones jurídicas de acuerdo con un marco ético y profesional.
El Acuerdo PCSJA24-12243 del 16 de diciembre de 2024, emitido por el Consejo Superior de la Judicatura, regula el uso de herramientas de inteligencia artificial (IA) en la Rama Judicial, al establecer lineamientos para su aprovechamiento respetuoso, responsable, seguro y ético. Reconoce el potencial de la IA para mejorar la eficiencia, el acceso a la justicia y la transparencia, pero advierte sobre riesgos como sesgos, errores, vulneración de derechos fundamentales y problemas de seguridad de datos.
Entre sus puntos más relevantes, se prohíbe el uso de herramientas generativas gratuitas o comerciales sin transparencia y se exige que todo uso de IA sea supervisado y controlado por humanos, dejando claro que las decisiones judiciales no pueden ser delegadas a estos sistemas. Además, establece principios como la primacía de los derechos fundamentales, la explicabilidad, la transparencia, la protección de datos personales y la no sustitución de la racionalidad humana.
El Acuerdo también fomenta la capacitación del personal judicial, el desarrollo de soluciones tecnológicas propias y la integración de herramientas con otros sistemas institucionales, garantizando así un uso confiable y alineado con los estándares éticos y jurídicos nacionales e internacionales.
Elemento | Contenido |
---|---|
Tipo de decisión | Acuerdo |
Autoridad judicial | Consejo Superior de la Judicatura |
Fecha de la decisión | 16 de diciembre de 2024 |
Radicación | PCSJA24-12243 |
Consideraciones | 1. Contexto normativo: El Consejo Superior de la Judicatura actúa en ejercicio de sus facultades constitucionales y legales para regular el uso de la IA en la Rama Judicial, en concordancia con el artículo 257 de la Constitución Política y la Ley 270 de 1996, modificada por la Ley 2430 de 2024. 2. Potencial de la IA: Se reconoce que la IA puede mejorar la eficiencia, el acceso a la justicia y la seguridad jurídica, apoyando tareas administrativas y judiciales como la gestión documental, síntesis de textos y análisis de cargas laborales. 3. Riesgos asociados: El uso de la IA genera preocupaciones sobre seguridad de la información, sesgos, posibles errores y vulneración de derechos fundamentales, especialmente en herramientas generativas como chatbots o modelos de lenguaje a gran escala. 4. Principios orientadores: La Corte Constitucional, en la Sentencia T-323 de 2024, estableció principios y criterios para el uso de IA en el ámbito judicial, destacando la necesidad de garantizar la transparencia, la protección de datos personales, la supervisión humana y el respeto por los derechos fundamentales. 5. Participación y consulta: Se realizaron mesas de trabajo y talleres con servidores judiciales, universidades y actores del sector justicia, además de una alianza con UNESCO para alinear los lineamientos con estándares internacionales. 6. Encuesta sobre IA: Una encuesta a servidores judiciales reveló que cerca del 30% usa herramientas de IA, con preocupaciones éticas sobre sesgos, fiabilidad y seguridad de los datos. El 91,68% consideró necesaria la regulación de la IA en la Rama Judicial. |
Principales argumentos | 1. El Acuerdo prioriza el uso responsable, seguro y ético de la IA en la Rama Judicial, basándose en principios como la primacía de los derechos fundamentales, la transparencia, la responsabilidad, la supervisión humana y la explicabilidad. 2. Los sistemas de IA no pueden sustituir la racionalidad humana en la toma de decisiones judiciales ni en la valoración de pruebas. Toda decisión en que se use IA será atribuida al funcionario judicial responsable. 3. Se establecen directrices específicas para el uso de IA en funciones administrativas, tareas de apoyo judicial y actividades que requieren supervisión rigurosa, como resúmenes de hechos, clasificación jurisprudencial y análisis estadístico. 4. El desarrollo y adopción de herramientas de IA deben respetar estándares de protección de datos, evitar sesgos y priorizar herramientas que permitan auditorías y expliquen sus procesos. Se prohíbe el uso de IA generativa gratuita o sin garantías de transparencia. 5. La capacitación del personal judicial es esencial para garantizar un uso informado y evitar riesgos asociados con estas tecnologías. |
Fuentes jurídicas citadas | – Constitución Política de Colombia, artículo 257. – Ley 270 de 1996 (Estatuto Orgánico de la Administración de Justicia), artículos 85 y 95, modificados por la Ley 2430 de 2024. – Sentencia T-323 de 2024 de la Corte Constitucional. |
Decisión | Se adoptan lineamientos para el uso respetuoso, responsable, seguro y ético de la inteligencia artificial en la Rama Judicial, incluyendo principios, directrices y restricciones específicas para su implementación y uso por los servidores judiciales. |
Pingback:LA RAMA JUDICIAL ADOPTA LINEAMIENTOS PARA EL USO DE LA IA