INTELIGENCIA ARTIFICIAL GENERATIVA

SISTEMAS CON CAPACIDAD PARA LA GENERACIÓN DE CONTENIDO UTILIZANDO PARA SU APRENDIZAJE GRANDES CONJUNTOS DE DATOS

“La IA generativa “es una rama de la IA referente a aquellos sistemas con capacidad para la generación de contenido, supuestamente único y original, como texto, imágenes, música, programas informáticos, videos o videojuegos a partir de grandes conjuntos de datos y [con base en] datos e instrucciones por parte del usuario de los mismos. Es decir, no se limitan a analizar o realizar acciones a partir de datos existentes, sino a generar contenidos distintos”[1]. No obstante, en la actualidad también se utiliza en otros rubros.

Los sistemas de IA generativa utilizan una técnica de aprendizaje profundo a partir de grandes conjuntos de datos (eep learning), con una capacidad de adaptabilidad que consiste en volver a entrenar y afinar el modelo con nuevas interacciones. Se trata, pues, de algoritmos que imitan los procesos de aprendizaje del cerebro humano para la producción de textos, imágenes, videos, entre otros. Estos tienen como característica particular producir textos originales, dada la cantidad de información que se les suministra. La IA generativa se basa específicamente en lo que se denomina “modelos de lenguaje de gran tamaño”[2]. Estos son capaces de procesar textos en lenguaje natural para producir respuestas “a partir del entrenamiento llevado a cabo con la gran cantidad de datos procesados”[3]

Estos modelos son los que se utilizan en ChatGPT, creado por OpenAI[4]. Se trata de “un agente conversacional que usa lenguaje natural para interactuar con la IA Generativa que es capaz de procesar el texto de la pregunta y generar una respuesta basada en los patrones encontrados en su entrenamiento. En este modelo es básico el uso de los datos que va recopilando, por ejemplo, de las preguntas de los propios usuarios y que le permiten mejorar sus respuestas”[5]. No obstante, ChatGPT no es la única herramienta que en la actualidad ha sido creada con esas funciones. También existen otras como Gemini (Google), Copilot (Microsoft) o Llama (Meta).”

 

RIESGOS DEL USO DE LA INTELIGENCIA ARTIFICIAL GENERATIVA

“4. Algoritmos, patrones y datos en la IA generativa.

En la IA generativa, los modelos de aprendizaje se concretan en algoritmos que se componen de grandes datos de origen diverso y que emiten resultados a partir de patrones generados por ellos. En esencia, los algoritmos son un “conjunto de instrucciones o reglas definidas y no ambiguas, ordenadas y finitas que permite, típicamente, solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo otras tareas y actividades”[6].

Según expertos en la materia[7], los riesgos del uso de herramientas de IA generativa se concretan en tres: a) problemas de sesgos en los datos de los que se alimenta; b) privacidad y protección de datos; y c) transparencia y veracidad."

 

PRIMER RIESGO: LOS SESGOS EN LOS DATOS SURGEN DE SU ORIGEN VARIADO

"Respecto al primero, los sesgos en los datos surgen de su origen variado, el que puede estar marcado por apreciaciones basadas en criterios discriminatorios como la raza, sexo, religión o nacionalidad, entre otros. Este contenido implícito puede llevar a la reproducción de estereotipos no deseados que difícilmente pueden ser controlados por los usuarios, lo que implica para estos realizar un escrutinio minucioso de la información proporcionada, pues de lo contrario se podría generar la reproducción de discriminaciones algorítmicas, causando así desequilibrios injustificados de ciertos grupos sobre otros[8]."

 

SEGUNDO RIESGO: USO DE LOS DATOS, EN ESPECIAL DE LOS PERSONALES

"Sobre el segundo riesgo, uno de los problemas más representativos en los sistemas de IA generativa es el uso de datos, en especial los personales. Como el ingreso de información al modelo de aprendizaje de la herramienta es a veces público, los usuarios podrían carecer de control sobre el uso posterior de esa información, lo que trae consigo conflictos con su derecho a la autodeterminación informativa o su derecho a la privacidad[9]. En virtud de ello, la Asamblea General de las Naciones Unidas ha alentado a los Estados a promover sistemas de IA seguros, protegidos y fiables, a fin de afrontar esos retos por medio de mecanismos para la protección de datos, incluidas las políticas de privacidad[10]."

 

NECESIDAD DE LA VERIFICACIÓN HUMANA DE LOS RESULTADOS

 “Finalmente, en relación con la transparencia y la veracidad, hay dificultades en cuanto al conocimiento, por parte de los usuarios, de los modelos de aprendizaje y algoritmos que utiliza la IA generativa. Esto obstaculiza comprender el origen de la información que crea y su verificación. Asimismo, como se indicó previamente, la capacidad de inferencia de la IA facilita la elaboración de contenido o textos, pero puede acontecer lo que se conoce como “alucinaciones” de la IA generativa, lo que robustece la necesidad de verificación humana de sus resultados, en especial cuando estos se refieran a hechos que, por su naturaleza misma, son susceptibles de verdad o falsedad.”

INCONSTITUCIONALIDAD 57-2025

 


[1] Muñoz Vela, José Manuel, “Inteligencia artificial generativa. Desafíos para la propiedad intelectual”, en Revista de Derecho UNED, n.° 33, 2024, p. 24.

[2] Se identifica esta denominación en la explicación de expertos en IA generativa como IBM, MIT, el Observatorio de Regulación Digital y Tecnología de la Universidad de Navarra, el Instituto Tecnológico de Monterey y el Centro de Producción de Recursos para la Universidad Digital de la Universidad de Granada. 

[3] Centro de Producción de Recursos para la Universidad Digital, ¿Qué es la IA generativa? Universidad de Granada. Disponible en https://ceprud.ugr.es/formacion-tic/inteligencia-artificial/ia-generativa.

[4] Véase https://openai.com/es-419/policies/terms-of-use/.

[5] Centro de Producción de Recursos para la Universidad Digital de la Universidad de Granada, ¿Qué es la IA generativa?, ya citado.

[6] San Miguel Caso, Cristina, “Inteligencia artificial y algoritmos: la controvertida evolución de la tutela judicial efectiva en el proceso penal”, en Estudios penales y criminológicos, n.° 44, 2023, p. 3.

[7] MIT, Universidad de Granada, Universidad de Navarra, IBM, entre otros.

[8] Véase Grigore, Andrea Elena, “Derechos humanos e inteligencia artificial”, en Ius Et Scientia, 8 (1), 2022, pp. 164-175.

[9] En la jurisprudencia constitucional se ha dicho que “el derecho a la autodeterminación informativa tiene por objeto preservar la información de las personas que se encuentra contenida en registros públicos o privados frente a su utilización arbitraria —especialmente la almacenada a través de medios informáticos—, sin que necesariamente se deba tratar de datos íntimos. Desde esa perspectiva, el ámbito de protección del aludido derecho no puede entenderse limitado exclusivamente a determinado tipo de datos —es decir, los sensibles o íntimos—, pues lo decisivo para fijar el objeto que con este se busca conservar es la utilidad y el tipo de procesamiento que de la información personal se haga”. Sentencia de 20 de octubre de 2014, amparo 142-2012.

[10] Asamblea General de las Naciones Unidas, Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible, A/78/L.49, 11 de marzo de 2024.