INTELIGENCIA ARTIFICIAL GENERATIVA
SISTEMAS CON CAPACIDAD PARA LA GENERACIÓN DE CONTENIDO UTILIZANDO PARA
SU APRENDIZAJE GRANDES CONJUNTOS DE DATOS
“La IA generativa “es una rama de la IA referente a aquellos sistemas
con capacidad para la generación de contenido, supuestamente único y original,
como texto, imágenes, música, programas informáticos, videos o videojuegos a
partir de grandes conjuntos de datos y [con base en] datos e instrucciones por
parte del usuario de los mismos. Es decir, no se limitan a analizar o realizar
acciones a partir de datos existentes, sino a generar contenidos distintos”[1].
No obstante, en la actualidad también se utiliza en otros rubros.
Los sistemas de IA generativa utilizan una técnica de aprendizaje
profundo a partir de grandes conjuntos de datos (eep learning), con una
capacidad de adaptabilidad que consiste en volver a entrenar y afinar el modelo
con nuevas interacciones. Se trata, pues, de algoritmos que imitan los procesos
de aprendizaje del cerebro humano para la producción de textos, imágenes,
videos, entre otros. Estos tienen como característica particular producir
textos originales, dada la cantidad de información que se les suministra. La IA
generativa se basa específicamente en lo que se denomina “modelos de lenguaje
de gran tamaño”[2].
Estos son capaces de procesar textos en lenguaje natural para producir
respuestas “a partir del entrenamiento llevado a cabo con la gran cantidad de
datos procesados”[3].
Estos modelos son los que se utilizan en ChatGPT, creado por OpenAI[4].
Se trata de “un agente conversacional que usa
lenguaje natural para interactuar con la IA Generativa que es capaz de procesar
el texto de la pregunta y generar una respuesta basada en los patrones
encontrados en su entrenamiento. En este modelo es básico el uso de los datos
que va recopilando, por ejemplo, de las preguntas de los propios usuarios y que
le permiten mejorar sus respuestas”[5]. No
obstante, ChatGPT no es la única herramienta que en la actualidad ha sido
creada con esas funciones. También existen otras como Gemini (Google), Copilot
(Microsoft) o Llama (Meta).”
RIESGOS DEL USO DE LA INTELIGENCIA ARTIFICIAL GENERATIVA
“4. Algoritmos, patrones y datos en la IA generativa.
En la IA generativa, los modelos de aprendizaje se concretan en
algoritmos que se componen de grandes datos de origen diverso y que emiten
resultados a partir de patrones generados por ellos. En esencia, los algoritmos
son un “conjunto de instrucciones o reglas definidas y no ambiguas, ordenadas y
finitas que permite, típicamente, solucionar un problema, realizar un cómputo,
procesar datos y llevar a cabo otras tareas y actividades”[6].
Según expertos en la materia[7],
los riesgos del uso de herramientas de IA generativa se concretan en tres: a)
problemas de sesgos en los datos de los que se alimenta; b) privacidad y protección
de datos; y c) transparencia y veracidad."
PRIMER RIESGO: LOS SESGOS EN LOS DATOS SURGEN DE SU ORIGEN VARIADO
"Respecto al primero, los sesgos en los datos surgen de su origen
variado, el que puede estar marcado por apreciaciones basadas en criterios
discriminatorios como la raza, sexo, religión o nacionalidad, entre otros. Este
contenido implícito puede llevar a la reproducción de estereotipos no deseados
que difícilmente pueden ser controlados por los usuarios, lo que implica para
estos realizar un escrutinio minucioso de la información proporcionada, pues de
lo contrario se podría generar la reproducción de discriminaciones
algorítmicas, causando así desequilibrios injustificados de ciertos grupos
sobre otros[8]."
SEGUNDO RIESGO: USO DE LOS DATOS, EN ESPECIAL DE LOS PERSONALES
"Sobre el segundo riesgo, uno de los problemas más representativos
en los sistemas de IA generativa es el uso de datos, en especial los
personales. Como el ingreso de información al modelo de aprendizaje de la
herramienta es a veces público, los usuarios podrían carecer de control sobre
el uso posterior de esa información, lo que trae consigo conflictos con su
derecho a la autodeterminación informativa o su derecho a la privacidad[9].
En virtud de ello, la Asamblea General de las Naciones Unidas ha alentado a los
Estados a promover sistemas de IA seguros, protegidos y fiables, a fin de
afrontar esos retos por medio de mecanismos para la protección de datos,
incluidas las políticas de privacidad[10]."
NECESIDAD DE LA VERIFICACIÓN HUMANA DE LOS RESULTADOS
“Finalmente, en relación con la transparencia y la veracidad, hay
dificultades en cuanto al conocimiento, por parte de los usuarios, de los
modelos de aprendizaje y algoritmos que utiliza la IA generativa. Esto
obstaculiza comprender el origen de la información que crea y su verificación.
Asimismo, como se indicó previamente, la capacidad de inferencia de la IA
facilita la elaboración de contenido o textos, pero puede acontecer lo que se
conoce como “alucinaciones” de la IA generativa, lo que robustece la necesidad
de verificación humana de sus resultados, en especial cuando estos se refieran
a hechos que, por su naturaleza misma, son susceptibles de verdad o falsedad.”
INCONSTITUCIONALIDAD 57-2025
[1] Muñoz Vela,
José Manuel, “Inteligencia artificial generativa. Desafíos para la propiedad
intelectual”, en Revista de Derecho UNED, n.° 33, 2024, p. 24.
[2] Se identifica
esta denominación en la explicación de expertos en IA generativa como IBM, MIT,
el Observatorio de Regulación Digital y Tecnología de la Universidad de
Navarra, el Instituto Tecnológico de Monterey y el Centro de Producción de
Recursos para la Universidad Digital de la Universidad de Granada.
[3] Centro de
Producción de Recursos para la Universidad Digital, ¿Qué es la IA
generativa? Universidad de Granada. Disponible en https://ceprud.ugr.es/formacion-tic/inteligencia-artificial/ia-generativa.
[4] Véase https://openai.com/es-419/policies/terms-of-use/.
[5] Centro de
Producción de Recursos para la Universidad Digital de la Universidad de
Granada, ¿Qué es la IA generativa?, ya citado.
[6] San Miguel
Caso, Cristina, “Inteligencia artificial y algoritmos: la controvertida
evolución de la tutela judicial efectiva en el proceso penal”, en Estudios
penales y criminológicos, n.° 44, 2023, p. 3.
[7] MIT,
Universidad de Granada, Universidad de Navarra, IBM, entre otros.
[8] Véase Grigore,
Andrea Elena, “Derechos humanos e inteligencia artificial”, en Ius Et Scientia, 8 (1), 2022, pp.
164-175.
[9] En la
jurisprudencia constitucional se ha dicho que “el derecho a la
autodeterminación informativa tiene por objeto preservar la información de las
personas que se encuentra contenida en registros públicos o privados frente a
su utilización arbitraria —especialmente la almacenada a través de medios
informáticos—, sin que necesariamente se deba tratar de datos íntimos. Desde
esa perspectiva, el ámbito de protección del aludido derecho no puede
entenderse limitado exclusivamente a determinado tipo de datos —es decir, los
sensibles o íntimos—, pues lo decisivo para fijar el objeto que con este se
busca conservar es la utilidad y el tipo de procesamiento que de la información
personal se haga”. Sentencia de 20 de octubre de 2014, amparo 142-2012.
[10] Asamblea
General de las Naciones Unidas, Aprovechar las oportunidades de
sistemas seguros, protegidos y fiables de inteligencia artificial para el
desarrollo sostenible, A/78/L.49, 11 de marzo de 2024.