INTELIGENCIA ARTIFICIAL.
USO EN LA ADMINISTRACIÓN PÚBLICA Y ADMINISTRACIÓN DE JUSTICIA
ACTOS ADMINISTRATIVOS
AUTOMATIZADOS: VENTAJAS Y RIESGOS
“1. Es indiscutible que los
sistemas digitales emergentes de tecnología avanzada como la IA, la robótica,
el análisis de grandes datos, la computación en la nube, entre otros, han
impactado y transformado distintos ámbitos vitales como la industria, el
desarrollo humano y la Administración Pública y de justicia. Al respecto, la
Asamblea General de las Naciones Unidas, mediante la resolución 78/213, observó
que las tecnologías digitales, “sin las salvaguardas adecuadas, pueden
utilizarse para amenazar gravemente la protección y el pleno disfrute de los
derechos humanos”. De manera que la creación y seguimiento de estándares
normativos es relevante para reducir o anular esas amenazas.
En el ámbito de la actividad de la
Administración Pública, como ya se sostuvo en el apartado V.2 de esta decisión,
la Ley de Procedimientos Administrativos contiene numerosas referencias al uso
de tecnologías por parte de aquella. Como ejemplo de las aplicaciones de la IA
en este ámbito se encuentran los actos administrativos automatizados,
entendiendo que la actuación administrativa automatizada es la actividad
“realizada íntegramente a través de medios electrónicos por una Administración
Pública en el marco de un procedimiento administrativo y en la que no haya
intervenido de forma directa un empleado público”[1]. Es decir, el rasgo
principal de tales actos es la ausencia de participación directa de una persona
humana al momento de decidir y el uso de sistemas que emulan el pensamiento
humano que tradicionalmente estaría involucrado en dichas decisiones.
En términos muy generales, los actos
administrativos automatizados presentan las siguientes ventajas: a) aumento de
la eficiencia de la Administración Pública, en especial cuando se trata de
decisiones regladas, pues por sus características son más predecibles y no
requieren necesariamente de la intervención humana; b) disminuye la
probabilidad de errores a los que es propensa la persona humana; c) incrementa
las posibilidades de igualdad, pues a un mismo supuesto (input) se
aplica la misma consecuencia (output); y d) pueden ser vistos como
herramientas para combatir la corrupción, porque permiten parametrizar
decisiones no manipulables por intereses personales[2].
No obstante, el reconocimiento de estas
ventajas no debe conducir a ignorar los riesgos que trae consigo la
automatización de la actuación de la Administración Pública. Por ello, es
imprescindible que tales actos estén sujetos a la supervisión y control
humanos, a fin de asegurar la fiabilidad de sus resultados y la licitud del uso
de la IA. Dicho control puede ser previo, asegurando el seguimiento de los
procedimientos previstos para garantizar los derechos de los interesados (por
ejemplo, en el diseño del algoritmo), o posterior, con el fin de valorar la
validez de la actuación o decisión adoptada de manera automatizada (ejemplo,
los recursos administrativos o el proceso contencioso-administrativo)[3].”
“2.
El empleo de herramientas de IA en los sistemas de justicia se puede
apreciar desde dos ópticas: cuando es usada por los jueces y cuando es
utilizada por usuarios y procuradores públicos o privados. En ambos casos, es
claro que hay ventajas en la eficacia de las tareas judiciales, pero también
hay peligros: su uso sin regulación y antiético puede dañar los derechos
fundamentales. De modo que es recomendable que la construcción, desarrollo y
uso de tales herramientas se realice sobre los pilares del servicio a favor de
las personas (art. 1 inc. 1° Cn.), la protección de los derechos fundamentales
(art. 2 inc. 1° Cn.) y la imposibilidad de reemplazar a los jueces y abogados
en todas sus competencias (arts. 12 inc. 1° y 15 Cn.).
En ese orden, la premisa esencial en el
uso de la IA en la administración de justicia es el respeto por los derechos
fundamentales. Así lo ha reconocido la Asamblea General de las Naciones Unidas
a través de la Relatoría Especial sobre independencia de los magistrados y
abogados al advertir la creciente adopción de resoluciones a través de IA por
los sistemas judiciales de todo el mundo[4]. Una de las cuestiones que
destaca la Asamblea General es que el derecho a un tribunal independiente e
imparcial requiere el acceso a un juez humano, así como el derecho a acceder a
un abogado de elección requiere el acceso a un abogado humano. De lo contrario,
la función jurisdiccional (juzgar y ejecutar lo juzgado) y de procuración (que
se liga al derecho a elegir un defensor o a ser proveído de uno de oficio) recae
en la IA generativa, muchas de los cuales son ofrecidas por particulares a
quienes se “ceden” los datos personales de los intervinientes y hechos del
caso, y no en la persona nombrada o autorizada para realizar dichas funciones.
Así, en Latinoamérica, algunos países han
adoptado normativas o directrices relativas al uso de IA y de IA generativa en
los sistemas judiciales[5], en armonía con las
acciones de creación de sistemas digitales de administración documental y toma
de decisiones autónomas en procesos judiciales[6], pero siempre sujetas a
verificación y control humanos.
Por lo anterior, en el Informe de la
Asamblea General de las Naciones Unidas antes referido se externan algunas preocupaciones ligadas a los derechos humanos involucrados
en el uso de esta tecnología: a) el uso de “IA sesgada” en los sistemas penales
conlleva el riesgo de que se produzcan resultados discriminatorios; b) la
desigualdad en los medios procesales, especialmente en los casos de justicia
penal, al desconocer los acusados del uso de IA para la determinación de su
detención y enjuiciamiento; c) el uso de IA de “caja negra”[7] para la
automatización de decisiones judiciales provocaría que su proceso de adopción
sea oscuro y vulnere el derecho a un juicio imparcial; d) existe el riesgo de
que el sesgo de automatización haga ineficaz la aportación humana; e) la
independencia judicial puede ser afectada por la influencia ejercida en el
diseño, desarrollo, entrenamiento y despliegue de las soluciones de IA
utilizadas en los sistemas judiciales; y f) la IA podría potenciar la
vigilancia intrusiva, la manipulación o la influencia indebida.
A la vez, este informe destaca
las ventajas del uso de la IA, las cuales se centran en facilitar las labores
de obtención de información, así como la eficacia en la gestión de los
sistemas. Sin embargo, también resalta los escollos en los que puede derivar el
uso de estas tecnologías, por ejemplo, que se facilite información inexacta y
se confíe en ella, sin que exista un método de reparación; o la falta de
conjuntos de datos personalizados, frente a lo que se recomienda que cualquier
aplicación de IA debe estar sujeta a aprendizaje supervisado y a revisión
continúa. Por ello, un problema significativo es el de las
alegaciones de las partes o resoluciones judiciales elaboradas con IA
generativa que incluyan “casos alucinados”, así como las responsabilidades y
sanciones que se siguen a su constatación (suspensión de abogados o de jueces,
incluyendo la posibilidad de inhabilitaciones o destituciones[8]).”
CRITERIOS ORIENTADORES PARA EL USO DE LA INTELIGENCIA ARTIFICIAL POR PARTE DE LOS DESPACHOS JUDICIALES, SEGÚN EL TRIBUNAL CONSTITUCIONAL DE COLOMBIA
“3. En línea con lo
anterior, algunos tribunales constitucionales han afrontado casos en los que
las valoraciones sobre los alcances del uso de la IA en la administración de
justicia han sido determinantes.
Así, por ejemplo, la Corte Constitucional
de Colombia conoció de la acción de tutela T-323/2024[9]. En el caso se constató
que el juez de segunda instancia de la tutela hizo uso de IA para emitir su
decisión, lo que llevó al tribunal a analizar este aspecto. Como punto de
partida, estableció que “el juez, cuando encuentre necesario y pertinente
recurrir a sistemas de IA, puede emplearlos razonada y ponderadamente”. No
obstante, se debe regir por un enfoque de protección de derechos fundamentales
que considere las mejores prácticas, así como la aplicación de criterios éticos
y de respeto a los mandatos superiores. Por ello, “so pena de comprometer
eventualmente su responsabilidad a raíz del uso indiscriminado e imprudente de
estas tecnologías, el funcionario judicial que las emplee deberá respetar, como
presupuesto mínimo en la materia, el criterio de no sustitución de la
racionalidad humana, así como atender las cargas de transparencia,
responsabilidad y privacidad.
Asimismo, determinó los criterios
orientadores del uso de la IA por parte de los despachos judiciales, los cuales
son los que siguen:
a) Transparencia, entendida como la
obligación de evidenciar con claridad y precisión el uso, alcances y ubicación
en las actuaciones o decisiones de los resultados obtenidos por la utilización
de tales herramientas, que permita a los usuarios e interesados su conocimiento
y la posibilidad efectiva de contradicción.
b) Responsabilidad, esto es, la obligación
de que el usuario de la herramienta de IA se encuentre capacitado y comprenda
los impactos de su uso, a fin de dar cuenta del origen, idoneidad y necesidad
del uso de la IA y la información suministrada, la cual debe verificarse.
c) Privacidad, que es el deber de
custodiar y proteger la reserva de los datos personales y sensibles que se
ponen en conocimiento de la administración de justicia para cumplir con los
fines propios del Órgano Judicial.
d) No sustitución de la racionalidad
humana, como expresión de la imposibilidad ética y jurídica de sustituir la
acción y responsabilidad del humano en la gestión de las actuaciones y
decisiones judiciales.
e) Seriedad y verificación, que supone el
deber de realizar un escrutinio de las fuentes, alcances, restricciones,
posibilidades, falencias y riesgos que presente la herramienta de cara a la
actuación en curso o a la solución del problema jurídico correspondiente.
f) Prevención de riesgos, como mandato de
aplicar los estándares adecuados de control sobre situaciones que generen
riesgo por la aplicación de tales tecnologías en aspectos como imprecisiones,
desactualizaciones, alucinaciones, sesgos o inconsistencias.
g) Igualdad y equidad, en cuanto se
erradiquen todas las formas de discriminación relacionadas con la aplicación de
sesgos derivada del uso de tales tecnologías y su impacto negativo en la
eficacia de los derechos humanos.
h) Control humano, en el sentido que
siempre se permita el escrutinio sobre las actuaciones y decisiones en que se
usen herramientas de IA, mediante el acceso a la debida información y el uso de
recursos que deban ser resueltos por autoridades humanas.
i) Regulación ética, es decir, el
desarrollo de estándares de comportamiento individual que se adecúen a los
mandatos superiores y legales y a las pautas razonables para el uso de tales
tecnologías por parte de los funcionarios y servidores judiciales.
j) Adecuación a buenas prácticas y
estándares colectivos, que requiere que se definan esquemas razonables para el
funcionamiento del Órgano Judicial, desde su independencia, a partir de las
definiciones que adopten sus autoridades.
k) Seguimiento continuo y adaptación, a
fin que el uso de tales tecnologías consulte los avances jurídicos, sociológicos
y tecnológicos que se vayan implementando.
l) Idoneidad, ya que el uso de las
tecnologías en la gestión y trámite de los procesos judiciales debe ser
adecuado para facilitar y agilizar el acceso a la justicia.”
INCONSTITUCIONALIDAD 57-2025
[1] Díaz Díez, Cristian Andrés,
“Voluntad y motivación en actos administrativos automatizados con inteligencia
artificial: ¿un nuevo entendimiento de conceptos humanos?”, en InDret,
n.° 4-2024, 2024, pp. 421-422.
[2] Sobre esto último, Capdeferro
Villagrasa, Óscar y Ponce Solé, Juli, “Nudging e inteligencia artificial
contra la corrupción en el sector público: posibilidades y riesgos”, en Revista
Digital de Derecho Administrativo, n.° 28, 2022, pp. 225-258.
[3] Véase Cerrillo Martínez, Agustí,
“Actuación automatizada, robotizada e inteligente”, en VV.AA., Manual de
Derecho Administrativo, 1ª ed., Marcial Pons, España, 2025, pp. 537-554.
[4] Naciones Unidas, La
inteligencia artificial en los sistemas de judiciales: promesas y escollos,
Informe de la Relatora Especial sobre Independencia de Magistrados y Abogados,
de 16 de julio de 2025.
[5] Por ejemplo, en la provincia de
Chubut, Argentina, se aprobó mediante Acuerdo Plenario n.° 5435 del Superior
Tribunal de Justicia las “Directivas para el uso ético y responsable de
inteligencia artificial generativa en el Poder Judicial de Chubut”, emitidas el
1 de abril de 2025. También, puede observarse la Ley 2213 de 2022 de Colombia,
mediante la cual se adoptan medidas para implementar las tecnologías de la
información y comunicación en las actuaciones judiciales, agilizar los procesos
judiciales y flexibilizar la atención a los usuarios del servicio de justicia.
En Perú, existe la Ley 31814, aprobada en julio de 2023, que promueve la IA, y
su reglamento reciente. Ver EFE, Perú reglamenta el uso de la IA, para
promover el desarrollo económico y social del país. Consultado en: https://efe.com/ciencia-y-tecnologia/2025-09-11/peru-reglamenta-uso-ia/
[6] Se hace uso de la IA generativa,
diseñada para fines de administración judicial y de investigación, en Brasil a
través de VICTOR, en Argentina con PROMETEA, en Colombia con PretorIA y con
PRISMA en el Ministerio Fiscal, EXPERTUS en México y Curia en Perú.
[7] “Una IA de caja negra es un sistema de IA cuyo funcionamiento
interno resulta un misterio para sus usuarios. Estos pueden ver las entradas y
salidas del sistema, pero desconocen qué ocurre dentro de la herramienta de IA
para producir dichas salidas”. Véase IBM, ¿Qué es la inteligencia artificial
(IA) de caja negra? Consultado en: https://www.ibm.com/think/topics/black-box-ai.
[8] Hay que recordar que el art. 55
letra b) de la Ley de la Carrera Judicial establece que un miembro de la
carrera judicial puede ser removido por “ineptitud o ineficiencia manifiestas
en el desempeño del cargo”. Mientras, el art. 182 atribución 12ª Cn. prescribe
que la Corte Suprema de Justicia tiene la competencia para suspender a los
abogados “por incumplimiento de sus obligaciones profesionales, por negligencia
o ignorancia graves”.
[9] Corte Constitucional de Colombia,
sentencia de 2 de agosto de 2024, T-323/2024.