INTELIGENCIA ARTIFICIAL. USO EN LA ADMINISTRACIÓN PÚBLICA Y ADMINISTRACIÓN DE JUSTICIA

ACTOS ADMINISTRATIVOS AUTOMATIZADOS: VENTAJAS Y RIESGOS

1. Es indiscutible que los sistemas digitales emergentes de tecnología avanzada como la IA, la robótica, el análisis de grandes datos, la computación en la nube, entre otros, han impactado y transformado distintos ámbitos vitales como la industria, el desarrollo humano y la Administración Pública y de justicia. Al respecto, la Asamblea General de las Naciones Unidas, mediante la resolución 78/213, observó que las tecnologías digitales, “sin las salvaguardas adecuadas, pueden utilizarse para amenazar gravemente la protección y el pleno disfrute de los derechos humanos”. De manera que la creación y seguimiento de estándares normativos es relevante para reducir o anular esas amenazas.

En el ámbito de la actividad de la Administración Pública, como ya se sostuvo en el apartado V.2 de esta decisión, la Ley de Procedimientos Administrativos contiene numerosas referencias al uso de tecnologías por parte de aquella. Como ejemplo de las aplicaciones de la IA en este ámbito se encuentran los actos administrativos automatizados, entendiendo que la actuación administrativa automatizada es la actividad “realizada íntegramente a través de medios electrónicos por una Administración Pública en el marco de un procedimiento administrativo y en la que no haya intervenido de forma directa un empleado público”[1]. Es decir, el rasgo principal de tales actos es la ausencia de participación directa de una persona humana al momento de decidir y el uso de sistemas que emulan el pensamiento humano que tradicionalmente estaría involucrado en dichas decisiones.

En términos muy generales, los actos administrativos automatizados presentan las siguientes ventajas: a) aumento de la eficiencia de la Administración Pública, en especial cuando se trata de decisiones regladas, pues por sus características son más predecibles y no requieren necesariamente de la intervención humana; b) disminuye la probabilidad de errores a los que es propensa la persona humana; c) incrementa las posibilidades de igualdad, pues a un mismo supuesto (input) se aplica la misma consecuencia (output); y d) pueden ser vistos como herramientas para combatir la corrupción, porque permiten parametrizar decisiones no manipulables por intereses personales[2].

No obstante, el reconocimiento de estas ventajas no debe conducir a ignorar los riesgos que trae consigo la automatización de la actuación de la Administración Pública. Por ello, es imprescindible que tales actos estén sujetos a la supervisión y control humanos, a fin de asegurar la fiabilidad de sus resultados y la licitud del uso de la IA. Dicho control puede ser previo, asegurando el seguimiento de los procedimientos previstos para garantizar los derechos de los interesados (por ejemplo, en el diseño del algoritmo), o posterior, con el fin de valorar la validez de la actuación o decisión adoptada de manera automatizada (ejemplo, los recursos administrativos o el proceso contencioso-administrativo)[3].”

 

USO DE LA INTELIGENCIA ARTIFICIAL EN EL SISTEMA DE JUSTICIA: OPTICAS

2. El empleo de herramientas de IA en los sistemas de justicia se puede apreciar desde dos ópticas: cuando es usada por los jueces y cuando es utilizada por usuarios y procuradores públicos o privados. En ambos casos, es claro que hay ventajas en la eficacia de las tareas judiciales, pero también hay peligros: su uso sin regulación y antiético puede dañar los derechos fundamentales. De modo que es recomendable que la construcción, desarrollo y uso de tales herramientas se realice sobre los pilares del servicio a favor de las personas (art. 1 inc. 1° Cn.), la protección de los derechos fundamentales (art. 2 inc. 1° Cn.) y la imposibilidad de reemplazar a los jueces y abogados en todas sus competencias (arts. 12 inc. 1° y 15 Cn.).

En ese orden, la premisa esencial en el uso de la IA en la administración de justicia es el respeto por los derechos fundamentales. Así lo ha reconocido la Asamblea General de las Naciones Unidas a través de la Relatoría Especial sobre independencia de los magistrados y abogados al advertir la creciente adopción de resoluciones a través de IA por los sistemas judiciales de todo el mundo[4]. Una de las cuestiones que destaca la Asamblea General es que el derecho a un tribunal independiente e imparcial requiere el acceso a un juez humano, así como el derecho a acceder a un abogado de elección requiere el acceso a un abogado humano. De lo contrario, la función jurisdiccional (juzgar y ejecutar lo juzgado) y de procuración (que se liga al derecho a elegir un defensor o a ser proveído de uno de oficio) recae en la IA generativa, muchas de los cuales son ofrecidas por particulares a quienes se “ceden” los datos personales de los intervinientes y hechos del caso, y no en la persona nombrada o autorizada para realizar dichas funciones.

Así, en Latinoamérica, algunos países han adoptado normativas o directrices relativas al uso de IA y de IA generativa en los sistemas judiciales[5], en armonía con las acciones de creación de sistemas digitales de administración documental y toma de decisiones autónomas en procesos judiciales[6], pero siempre sujetas a verificación y control humanos.

Por lo anterior, en el Informe de la Asamblea General de las Naciones Unidas antes referido se externan algunas preocupaciones ligadas a los derechos humanos involucrados en el uso de esta tecnología: a) el uso de “IA sesgada” en los sistemas penales conlleva el riesgo de que se produzcan resultados discriminatorios; b) la desigualdad en los medios procesales, especialmente en los casos de justicia penal, al desconocer los acusados del uso de IA para la determinación de su detención y enjuiciamiento; c) el uso de IA de “caja negra”[7] para la automatización de decisiones judiciales provocaría que su proceso de adopción sea oscuro y vulnere el derecho a un juicio imparcial; d) existe el riesgo de que el sesgo de automatización haga ineficaz la aportación humana; e) la independencia judicial puede ser afectada por la influencia ejercida en el diseño, desarrollo, entrenamiento y despliegue de las soluciones de IA utilizadas en los sistemas judiciales; y f) la IA podría potenciar la vigilancia intrusiva, la manipulación o la influencia indebida.

A la vez, este informe destaca las ventajas del uso de la IA, las cuales se centran en facilitar las labores de obtención de información, así como la eficacia en la gestión de los sistemas. Sin embargo, también resalta los escollos en los que puede derivar el uso de estas tecnologías, por ejemplo, que se facilite información inexacta y se confíe en ella, sin que exista un método de reparación; o la falta de conjuntos de datos personalizados, frente a lo que se recomienda que cualquier aplicación de IA debe estar sujeta a aprendizaje supervisado y a revisión continúa. Por ello, un problema significativo es el de las alegaciones de las partes o resoluciones judiciales elaboradas con IA generativa que incluyan “casos alucinados”, así como las responsabilidades y sanciones que se siguen a su constatación (suspensión de abogados o de jueces, incluyendo la posibilidad de inhabilitaciones o destituciones[8]).”


CRITERIOS ORIENTADORES PARA EL USO DE LA INTELIGENCIA ARTIFICIAL POR PARTE DE LOS DESPACHOS JUDICIALES, SEGÚN EL TRIBUNAL CONSTITUCIONAL DE COLOMBIA

“3. En línea con lo anterior, algunos tribunales constitucionales han afrontado casos en los que las valoraciones sobre los alcances del uso de la IA en la administración de justicia han sido determinantes.

Así, por ejemplo, la Corte Constitucional de Colombia conoció de la acción de tutela T-323/2024[9]. En el caso se constató que el juez de segunda instancia de la tutela hizo uso de IA para emitir su decisión, lo que llevó al tribunal a analizar este aspecto. Como punto de partida, estableció que “el juez, cuando encuentre necesario y pertinente recurrir a sistemas de IA, puede emplearlos razonada y ponderadamente”. No obstante, se debe regir por un enfoque de protección de derechos fundamentales que considere las mejores prácticas, así como la aplicación de criterios éticos y de respeto a los mandatos superiores. Por ello, “so pena de comprometer eventualmente su responsabilidad a raíz del uso indiscriminado e imprudente de estas tecnologías, el funcionario judicial que las emplee deberá respetar, como presupuesto mínimo en la materia, el criterio de no sustitución de la racionalidad humana, así como atender las cargas de transparencia, responsabilidad y privacidad.

Asimismo, determinó los criterios orientadores del uso de la IA por parte de los despachos judiciales, los cuales son los que siguen:

a) Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su conocimiento y la posibilidad efectiva de contradicción.

b) Responsabilidad, esto es, la obligación de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos de su uso, a fin de dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada, la cual debe verificarse.

c) Privacidad, que es el deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios del Órgano Judicial.

d) No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y responsabilidad del humano en la gestión de las actuaciones y decisiones judiciales.

e) Seriedad y verificación, que supone el deber de realizar un escrutinio de las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.

f) Prevención de riesgos, como mandato de aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tales tecnologías en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos o inconsistencias.

g) Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos.

h) Control humano, en el sentido que siempre se permita el escrutinio sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.

i) Regulación ética, es decir, el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores judiciales.

j) Adecuación a buenas prácticas y estándares colectivos, que requiere que se definan esquemas razonables para el funcionamiento del Órgano Judicial, desde su independencia, a partir de las definiciones que adopten sus autoridades.

k) Seguimiento continuo y adaptación, a fin que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando.

l) Idoneidad, ya que el uso de las tecnologías en la gestión y trámite de los procesos judiciales debe ser adecuado para facilitar y agilizar el acceso a la justicia.”

INCONSTITUCIONALIDAD 57-2025


 



[1] Díaz Díez, Cristian Andrés, “Voluntad y motivación en actos administrativos automatizados con inteligencia artificial: ¿un nuevo entendimiento de conceptos humanos?”, en InDret, n.° 4-2024, 2024, pp. 421-422.

[2] Sobre esto último, Capdeferro Villagrasa, Óscar y Ponce Solé, Juli, “Nudging e inteligencia artificial contra la corrupción en el sector público: posibilidades y riesgos”, en Revista Digital de Derecho Administrativo, n.° 28, 2022, pp. 225-258.

[3] Véase Cerrillo Martínez, Agustí, “Actuación automatizada, robotizada e inteligente”, en VV.AA., Manual de Derecho Administrativo, 1ª ed., Marcial Pons, España, 2025, pp. 537-554.

[4] Naciones Unidas, La inteligencia artificial en los sistemas de judiciales: promesas y escollos, Informe de la Relatora Especial sobre Independencia de Magistrados y Abogados, de 16 de julio de 2025.

[5] Por ejemplo, en la provincia de Chubut, Argentina, se aprobó mediante Acuerdo Plenario n.° 5435 del Superior Tribunal de Justicia las “Directivas para el uso ético y responsable de inteligencia artificial generativa en el Poder Judicial de Chubut”, emitidas el 1 de abril de 2025. También, puede observarse la Ley 2213 de 2022 de Colombia, mediante la cual se adoptan medidas para implementar las tecnologías de la información y comunicación en las actuaciones judiciales, agilizar los procesos judiciales y flexibilizar la atención a los usuarios del servicio de justicia. En Perú, existe la Ley 31814, aprobada en julio de 2023, que promueve la IA, y su reglamento reciente. Ver EFE, Perú reglamenta el uso de la IA, para promover el desarrollo económico y social del país. Consultado en: https://efe.com/ciencia-y-tecnologia/2025-09-11/peru-reglamenta-uso-ia/

[6] Se hace uso de la IA generativa, diseñada para fines de administración judicial y de investigación, en Brasil a través de VICTOR, en Argentina con PROMETEA, en Colombia con PretorIA y con PRISMA en el Ministerio Fiscal, EXPERTUS en México y Curia en Perú.

[7]Una IA de caja negra es un sistema de IA cuyo funcionamiento interno resulta un misterio para sus usuarios. Estos pueden ver las entradas y salidas del sistema, pero desconocen qué ocurre dentro de la herramienta de IA para producir dichas salidas”. Véase IBM, ¿Qué es la inteligencia artificial (IA) de caja negra? Consultado en: https://www.ibm.com/think/topics/black-box-ai.

[8] Hay que recordar que el art. 55 letra b) de la Ley de la Carrera Judicial establece que un miembro de la carrera judicial puede ser removido por “ineptitud o ineficiencia manifiestas en el desempeño del cargo”. Mientras, el art. 182 atribución 12ª Cn. prescribe que la Corte Suprema de Justicia tiene la competencia para suspender a los abogados “por incumplimiento de sus obligaciones profesionales, por negligencia o ignorancia graves”.

[9] Corte Constitucional de Colombia, sentencia de 2 de agosto de 2024, T-323/2024.