Guía para Entidades Públicas y Privadas en Materia de Transparencia para AI Responsable
Guía para Entidades Públicas y Privadas en Materia de Transparencia para AI Responsable
y privadas en materia de
Transparencia y Protección de
Datos Personales para una
Inteligencia Artificial responsable
Versión preliminar
Autoridades
Beatriz Anchorena
Titular de la AAIP
Luciana Carpinacci
Directora Nacional de Evaluación de Políticas de Transparencia
Catalina Byrne
Directora de Transparencia Activa
Emiliano Arena
Director de Evaluación y Participación Ciudadana
Violeta Paulero
Directora Nacional de Protección de Datos Personales
Anastasia Dozo
Directora de Promoción del Derecho a la Privacidad
Maximiliano Rey
Director de Fiscalización y Regulación
Este programa fue desarrollado por la Dirección Nacional de Protección de Datos Personales y
Dirección Nacional de Evaluación de Políticas de Transparencia e impulsa procesos de análisis,
regulación y fortalecimiento de capacidades para acompañar el desarrollo y uso de la IA, en el
sector público y privado. Está destinado a instituciones públicas y privadas que utilicen siste-
mas de decisiones automatizadas con aplicaciones de IA.
El Programa cuenta con las siguientes líneas de acción: Observatorio sobre IA, para dar segui-
miento a los avances regionales y globales en materia de regulación de los desarrollos tecno-
lógicos basados en IA y promover la transparencia algorítmica; Gobernanza y participación
social, para promover el trabajo conjunto con órganos gubernamentales de gobernanza tecno-
lógica y jurídica en la materia; y Fortalecimiento de capacidades, para brindar capacitaciones y
asistencia técnica en materia de transparencia y protección de datos personales en el uso de la
IA y campañas de sensibilización, alfabetización mediática e informacional.
Coordinación general
Beatriz Anchorena
Coordinación metodológica
Luciana Carpinacci
Violeta Paulero
Equipo de trabajo:
Cecilia Buffa
Jorge Orovitz
Silvana Rica
Agustina Sirven
El equipo del Programa agradece los comentarios y aportes recibidos de: Anastasia Dozo, Catalina Byrne,
Emiliano Arena y Agustín Pérez Aleda.
Agencia de Acceso a la Información Pública (AAIP). Guía de recomendaciones para entidades públicas y privadas en
materia de transparencia y protección de datos personales para una Inteligencia Artificial responsable. Buenos Aires,
junio de 2024.
Índice
Introducción 6
01
Objetivo 9
02
Alcance 10
03
Definiciones y características de los sistemas de Inteligencia Artificial 11
04
Principales problemas y desafíos de la IA 16
05
Principios de Transparencia y Protección de Datos Personales 20
06
Recomendaciones de Transparencia y Protección de Datos Personales 26
en el ciclo de vida de Sistemas de IA
Etapa 1: Diseño del Sistema 27
Etapa 2: Verificación y validación 36
Etapa 3: Implementación 39
Etapa 4: Operación y mantenimiento 42
07
Consideraciones finales 49
08
Acrónimos 50
09
Referencias bibliográficas 51
Introducción
El desarrollo y el uso de los sistemas que integran tecnologías de Inteligencia Artificial ha crecido
exponencialmente en los últimos años. El mundo se encuentra ante una cuarta revolución indus-
trial potenciada por estos nuevos sistemas que generan cambios aceleradamente y de una forma
mucho más abrupta que las revoluciones industriales anteriores. La IA tiene el potencial de
mejorar el bienestar de las personas, aumentar la innovación y la productividad y ayudar a
responder a desafíos globales clave1.
Algunas ventajas de la incorporación de esta tecnología tanto para el sector público como para el
privado son: la personalización de la experiencia de los usuarios y la automatización de los
procesos evitando labores repetitivas; la reducción de los tiempos de respuesta; la toma de
decisiones basadas en evidencia, y la mejora en la precisión de los resultados; su contribución a
la detección preventiva del fraude y a los procesos de análisis y diseño de soluciones tecnológi-
cas, entre muchos otros aspectos2.
Hoy en día la Inteligencia Artificial se aplica a los campos de la salud, favoreciendo el diagnóstico
temprano de enfermedades; la industria y los servicios, automatizando tareas repetitivas o como
asistentes de atención automatizada, liberando a los trabajadores para enfocarse en actividades
de mayor valor y creatividad; transporte y logística; educación y muchos otros campos.
Si bien los sistemas de IA pueden aportar importantes beneficios a los usuarios y a la socie-
dad, provocan una serie de preocupaciones y riesgos, entre los que pueden mencionarse:
¹ OCDE. Recommendation of the Council on Artificial Intelligence, 2019. [2024]. Adoptado el 21/05/2019, corregido el 02/05/2024.
https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
2
Recomendaciones para una Inteligencia Artificial Fiable. Secretaría de Innovación Pública, Jefatura de Gabinete de Ministros, 2023.
https://www.argentina.gob.ar/sites/default/files/2023/06/recomendaciones_para_una_inteligencia_artificial_fiable.pdf
6 | Introducción
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
Estos riesgos podrían tener un mayor impacto en personas que se encuentran en una situación
especial de vulnerabilidad, tales como, niños, niñas y adolescentes, géneros y disidencias,
personas con discapacidades, minorías étnicas y raciales, personas de la tercera edad, perso-
nas en situación de pobreza, entre otras.
Para acompañar estos esfuerzos desde el ámbito de sus competencias, la AAIP creó en 2023
el Programa de Transparencia y Protección de Datos Personales en el uso de la Inteligencia
Artificial. Esta línea de acción tiene el propósito de impulsar procesos de análisis, regulación y
fortalecimiento de capacidades estatales necesarias para acompañar el desarrollo y uso de la
Inteligencia Artificial garantizando el efectivo ejercicio de los derechos de la ciudadanía en
materia de transparencia y protección de datos personales3.
3
Agencia de Acceso a la Información Pública. Resolución 161/2023. Programa de transparencia y protección de datos personales en el uso de la inteligencia artificial,
26/08/2023. RESOL-2023-161-APN-AAIP. https://www.boletinoficial.gob.ar/detalleAviso/primera/293363/20230904
7 | Introducción
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
En particular, uno de los componentes del Programa de trabajo de la AAIP consiste en el desa-
rrollo de capacidades en los actores del sector público y privado para comprender los desafíos
que implica la incorporación de la Inteligencia Artificial en los sistemas de toma de decisiones
automatizadas, brindando herramientas para su abordaje en el marco de los principios éticos
desarrollados por los instrumentos internacionales.
4
El instrumento, adoptado el 17 de mayo de 2024, en la 133rd Session of the Committee of Ministers, se abrirá a la firma el 5 de septiembre de 2024. En el siguiente
vínculo se encuentra disponible el texto adoptado https://shorturl.at/d7XWg
8 | Introducción
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
01
Objetivo
La presente guía hace foco en las implicancias de las tecnologías basadas en sistemas de
decisión automatizada, y en particular, aquellos que incorporan la Inteligencia Artificial, en rela-
ción a sus consecuencias sobre los derechos fundamentales y cómo abordar desde el punto de
vista normativo e institucional estos desafíos.
Con este instrumento, nos proponemos acompañar a los actores, tanto del sector público como
del privado, ofreciendo lineamientos que los ayuden a incorporar la transparencia y protección de
datos personales, como dos dimensiones sustantivas y transversales en los proyectos de desa-
rrollo tecnológico que implementen sistemas de Inteligencia Artificial, de modo que se garantice
el efectivo ejercicio de los derechos de la ciudadanía.
5
Recomendaciones para una Inteligencia Artificial fiable, 2023.
9 | Objetivo
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
02
Alcance
10 | Alcance
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
03
Definición y características de los sistemas
de Inteligencia Artificial
En este apartado, se presentan algunas definiciones clave sobre un ámbito complejo y diverso
como es el desarrollo tecnológico que cada vez más recurre a la Inteligencia Artificial para opti-
mizar sus productos.
Por ejemplo, un sistema de Inteligencia Artificial en finanzas puede utilizar modelos de aprendi-
zaje automático para evaluar el riesgo de crédito basándose en el historial financiero de un
cliente. La automatización se vuelve más efectiva, pues permite una mejora continua basada en
el análisis de datos en tiempo real. En el campo de la salud, los sistemas de machine learning se
utilizan para analizar imágenes médicas -como radiografías, resonancias magnéticas y mamo-
grafías- para detectar enfermedades como cáncer, fracturas óseas y anomalías cardíacas. Las
plataformas digitales utilizan algoritmos de machine learning para recomendar productos, pelícu-
las, series y música basándose en el historial de comportamiento del usuario. En síntesis, los
sistemas de Inteligencia Artificial pueden definirse como aquellos sistemas informáticos que
realizan acciones con cierto grado de autonomía para lograr objetivos específicos6.
6
Garrido, Romina; Lapostol, José Pablo y Paz Hermosilla, María. Transparencia algorítmica en el sector público. Consejo para la transparencia de Chile y Gob_Lab de la
Universidad Adolfo Ibáñez, 2021.
https://www.consejotransparencia.cl/wp-content/uploads/estudios/2021/10/ESTUDIO-TRANSPARENCIA-ALGORITMICA-EN-EL-SECTOR-PUBLICO-GOBLAB-cambio-tablas-1.pdf
También es posible ver a la IA como una disciplina que intenta replicar y desarrollar la inteligencia
natural, de humanos y seres vivos, a través de computadoras o máquinas. En este sentido, la
Fundación Sadosky (2022) plantea que “la IA debe entenderse como un campo de investigación
y aplicación que incluye más que enfoques técnicos. Este área debe pensarse en su diseño
desde la interdisciplina y se construye desde la lógica, la estadística, la filosofía, las ciencias de la
computación, las matemáticas, neurociencias, la lingüística, la psicología, la economía y otras
ramas de estudios sociales. Vincula lo técnico, lo científico, las prácticas sociales, gubernamen-
tales e industriales”.
Por su parte, la OCDE define a los sistemas de Inteligencia Artificial como “los sistemas basados
en una máquina que, para objetivos explícitos o implícitos, infieren, a partir de los datos que
reciben, cómo generar resultados tales como predicciones, contenidos, recomendaciones o
decisiones que puedan influir en entornos físicos o virtuales. Los diferentes sistemas de Inteli-
gencia Artificial varían en sus niveles de autonomía y adaptabilidad después del despliegue”.
En relación con esta última definición, es importante entender los alcances de lo que se denomi-
na la «inferencia de datos». Entendemos este concepto como el proceso de derivar conclusiones
y predicciones a partir de un modelo de aprendizaje automático ya entrenado. Es el paso donde el
modelo aplica el conocimiento aprendido durante el entrenamiento a nuevos datos para generar
7
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). Recomendación sobre la ética de la inteligencia artificial. Adoptada el 23 de
noviembre de 2021. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
8
Ley de Inteligencia Artificial de la Unión Europea, aprobada el 21 de abril de 2021 y en vigor desde el 13 de marzo de 2024, establece un marco normativo y jurídico
único para los sistemas de inteligencia artificial que operen en la Unión Europea. https://artificialintelligenceact.eu/es/el-acto/
9
https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_ES.pdf
resultados útiles. Ejemplos de inferencias de datos que pueden mencionarse son: la inferen-
cia de preferencias políticas a partir de los títulos de libros que una persona compra online,
el análisis de sentimientos a partir de las publicaciones de una persona en redes sociales, o
la posibilidad de acceder a programas sociales de acuerdo a datos proporcionados por
fuentes externas a la persona como agencias gubernamentales, bases de datos de crédito,
historiales laborales y de salud, etc.10
Como puede observarse en los casos mencionados, la inferencia de datos a partir de la utiliza-
ción de una Inteligencia Artificial entrenada, puede tener implicancias directas y profundas
sobre las personas tanto a nivel de sus derechos humanos, su privacidad y seguridad, así como
a nivel de la sociedad, por el impacto que puede tener en las políticas públicas, en la confianza
en las instituciones o la seguridad jurídica de una sociedad.
Existen muchos parámetros para caracterizar los impactos de estos sistemas, de acuerdo a
qué derechos afecta, qué datos utiliza, cuál es su función y/o campo de aplicación, qué nivel de
riesgo implica, qué incidencias tiene en procesos sociales críticos. Todo ello está siendo explo-
rado y puesto en consideración en la discusión a nivel global.
10
Fundación Vía Libre, Informe: Protección legal de datos personales inferidos, 2023.
Allí, se pueden observar los tres elementos principales que componen a un sistema de IA:
Los objetivos (por ejemplo, variables de salida) y las medidas de rendimiento (por ejemplo,
precisión, recursos para entrenamiento, representatividad del conjunto de datos) guían el
proceso de construcción.
En algunos casos, un modelo puede ofrecer una única recomendación, mientras que en otros
(por ejemplo, modelos probabilísticos), puede ofrecer una variedad. Estas recomendaciones
están asociadas con diferentes niveles de, por ejemplo, medidas de rendimiento como nivel
de confianza, robustez o riesgo. En algunos casos, durante el proceso de interpretación, es
posible explicar por qué se hacen recomendaciones específicas. En otros casos, dada la
complejidad del modelo, la explicación es casi imposible, lo que podría dificultar alcanzar
niveles de transparencia y explicabilidad adecuados.
04
Principales problemas y desafíos de la IA
Falta de calidad de los datos. Los sistemas de IA, suponen múltiples retos en cuanto a la
legitimidad de la fuente de datos que utilizan estos sistemas para funcionar, dado que en
muchos casos, los datos se obtienen de fuentes desactualizadas que, por ejemplo, pueden
contener datos que no son de calidad o bien con errores o información falsa. Por ejemplo,
el raspado de datos (“data scraping”)12 es una forma de extraer datos de un sitio web de
forma automática. Puede ser una herramienta eficiente para obtener información, pero
implica riesgos a la privacidad, ya que puede ser utilizada para cometer fraudes, ataques
de phishing, robo de datos,entre otros.
11
OECD, Artificial Intelligence in Society, 2019.
12
La Declaración Conjunta firmada en agosto de 2023 por la AAIP con otros países en el marco de la Asamblea Global de Privacidad (GPA), ofrece recomendaciones
dirigidas a individuos y empresas para mitigar los principales riesgos de usar técnicas automáticas para extraer y procesar datos personales en redes sociales y sitios
web. En particular afirma que “Las empresas de redes sociales que alojan datos personales de acceso público tienen la obligación de proteger la información personal
en sus plataformas contra la extracción ilegal de datos”. La Declaración completa se encuentra en:
https://ico.org.uk/media/about-the-ico/documents/4026232/joint-statement-data-scraping-202308.pdf
Uso inadecuado de datos personales. Los datos personales recopilados para un propósito
específico pueden ser utilizados para otros fines, violando principios de protección de datos.
También existe el riesgo de la comercialización de datos personales, si las empresas venden o
comparten datos personales con terceros sin el conocimiento o consentimiento del individuo, lo
que puede resultar en la explotación comercial de la información personal.
Fraude de identidad. Existen técnica como las “deepfakes" (videos, imágenes o audios que imitan la
apariencia y el sonido de una persona) que, mediante el uso de técnicas de IA (particularmente redes
neuronales profundas, un modelo de IA que imita la estructura y el funcionamiento del cerebro
humano), pueden sustituir la identidad y afectar la privacidad de las personas, así como a terceros
mediante engaños para obtener información sensible o acceso a sistemas. Las “deepfakes" puede
dañar la reputación personal y profesional de las personas, así como contribuir a la desinformación.
Falta de transparencia. Los modelos de IA pueden ser complejos y opacos, lo que dificulta la
comprensión de cómo se toman las decisiones. Los modelos utilizados pueden manejar una
gran cantidad de variables simultáneamente, complicando la explicación de cómo cada
variable influye en la decisión final. La falta de transparencia puede socavar la confianza de
los ciudadanos en el proceso y aumentar el riesgo de mal uso o abuso de la tecnología. La
transparencia se ve dificultada si no pueden conocerse el tipo de datos utilizados, los algorit-
mos aplicados y los procesos internos del modelo.
Para profundizar en este tema se puede consultar: Benítez Eyzaguirre, Lucía. Ética y transparencia para la
detección de sesgos algorítmicos de género. Revista Estudios sobre el Mensaje Periodístico. Ediciones
Complutenses, 2019. ISSN-e: 1988-2696. https://doi.org/10.5209/esmp.66989
13
Secretaría de Innovación Pública. Recomendaciones para una Inteligencia Artificial Fiable, 2023.
Si bien este tipo de avances podrían generar beneficios como el tratamiento de las personas
afectadas por trastornos neurológicos y enfermedades mentales, también podrían ocasionar
problemas éticos y de privacidad. Existe el riesgo de que los neurodatos sean recolectados y
utilizados sin el consentimiento explícito e informado de los individuos, lo que puede resultar
en una invasión de la privacidad, pues estas tecnologías pueden recolectar información
íntima sobre pensamientos, emociones y predisposiciones, que tradicionalmente han sido
privados y personales. Permiten incluso no solo acceder y evaluar sino también manipular la
estructura del cerebro actuando sobre nuestras identidades y emociones.
Existen problemas de transparencia asociados a los neurodatos. Las personas pueden no ser
plenamente conscientes de cómo se utilizan sus neurodatos y para qué fines, lo que socava
la transparencia y la confianza.
13
Secretaría de Innovación Pública. Recomendaciones para una Inteligencia Artificial Fiable, 2023.
05
Principios de Transparencia y Protección
de Datos Personales
Es importante que los datos para los sistemas de IA se recopilen, utilicen, compartan, archiven
y supriman de forma consistente con el derecho internacional y acorde a los valores y princi-
pios de la ley.
Licitud: el tratamiento de datos personales debe ser lícito y respetar todos los principios que
establece la ley y las reglamentaciones vigentes.
Finalidad: Los datos personales sólo pueden ser tratados para fines específicos y legítimos,
previamente informados al titular.
Calidad de los Datos: los datos deben ser exactos, completos y actualizados.
Seguridad: se deben implementar medidas de seguridad adecuadas para proteger los datos
personales contra su alteración, pérdida, acceso no autorizado y cualquier otro tratamiento
indebido.
Minimización: solo se deben recopilar y procesar los datos personales que sean estrictamente
necesarios para cumplir con un propósito específico y legítimo.
Derecho de acceso: los titulares tienen derecho a acceder a sus datos personales y solicitar
información sobre el tratamiento realizado.
Oposición: los titulares tienen derecho a oponerse al tratamiento de sus datos personales para
fines publicitarios.
Revocación del consentimiento: los titulares pueden revocar su consentimiento para el trata-
miento de sus datos personales en cualquier momento.
Datos personales
Un dato personal consiste en todo dato que identifica directa o indirectamente a una persona
por uno o varios elementos característicos de su identidad, como por ejemplo su domicilio,
profesión, teléfono, situación crediticia. También son datos personales el número de tarjeta
de crédito o débito, el historial crediticio, los ingresos salariales de una persona, la dirección
IP de la computadora personal, las cookies y otros identificadores en línea, la información de
empleo o de un contrato y el historial laboral, las calificaciones en evaluaciones de desempe-
ño, la historia clínica, la ubicación personal en tiempo real y el historial de esa ubicación, entre
otros cientos de ejemplos que son utilizados cotidianamente por los sistemas de Inteligencia
Artificial y que pueden ser vinculados a una única persona.
Datos sensibles
Por su parte, los datos sensibles son una categoría de datos que están especialmente prote-
gidos por la normativa porque hacen a la esfera íntima de la persona y poseen potencialidad
discriminatoria. Por ejemplo, datos que puedan revelar el origen étnico; creencias o conviccio-
nes religiosas, filosóficas y morales; afiliación sindical u opiniones políticas; salud, discapaci-
dad, orientación sexual, identidad de género y datos genéticos o biométricos cuando puedan
revelar datos adicionales cuyo uso pueda resultar potencialmente discriminatorio para la perso-
na y que estén dirigidos a identificarla de manera unívoca.
Asimismo, cabe resaltar que los datos genéticos y los datos biométricos que en muchos casos
son empleados en sistemas de Inteligencia Artificial, como por ejemplo a través de técnicas de
reconocimiento facial, son considerados de carácter sensible, siempre que identifiquen de
manera unívoca a una persona física y de ellos se pueda desprender o revelar información cuyo
uso pueda resultar potencialmente discriminatorio para su titular, al menos en Argentina en
virtud de la definición aportada por esta AAIP en la Resolución Nº 4/2019, Anexo I, criterio 4.
El Convenio 108 modernizado del Consejo de Europa, que fue ratificado en 2023 por Argentina
y está próximo a entrar en vigor, refuerza y actualiza el marco de protección de datos para
enfrentar los desafíos planteados por los avances tecnológicos, incluyendo la Inteligencia
Artificial y las decisiones automatizadas.
El mismo exige a los responsables del tratamiento el deber de proporcionar información sufi-
ciente sobre el procesamiento automatizado, incluyendo la lógica subyacente, sus propósitos y
las consecuencias para las personas; que las personas comprendan cómo y por qué se toman
decisiones automatizadas que les afectan; que las personas tengan el derecho a no ser objeto
de una decisión basada únicamente en el tratamiento automatizado de datos que les afecte
significativamente; y el derecho de obtener una intervención humana, expresar su punto de
vista y disputar la decisión.
Para más información consultar la Ley 27699 de Protección de las personas con respecto al tratamiento
automatizado de datos de carácter personal, 2022.
https://servicios.infoleg.gob.ar/infolegInternet/anexos/375000-379999/375738/norma.htm
06
Recomendaciones de Transparencia
y Protección de Datos Personales en
el ciclo de vida de Sistemas de IA
Tal como se analizó en la sección anterior, son numerosas las consecuencias y problemáticas
que pueden generarse para las personas y la sociedad, si no se garantizan estándares de trans-
parencia y de privacidad al desarrollar y adoptar aplicaciones de IA, especialmente cuando se
utilizan en procesos de toma de decisiones que afectan los derechos de las personas.
En principio, es importante aclarar que, cuando se hace referencia al ciclo de vida de los sistemas
de IA, se hace alusión a la importancia crucial de realizar un enfoque integral, que aplique a todas
las etapas del proyecto desde su diseño hasta su implementación para abordar los riesgos y los
posibles impactos adversos en los derechos humanos. Más allá del cumplimiento normativo, esta
guía promueve la implementación del uso ético de estas nuevas tecnologías.
1. 2. 3. 4.
Diseño de sistema Verificación y validación Implementación Operación y mantenimiento
Este ciclo de vida está comprendido por las siguientes 4 (cuatro) etapas, las cuales fueron
definidas tomando como punto de partida las definiciones de la OCDE14.
• Diseño del sistema: en esta etapa se planifica y diseña el sistema, considerando la selec-
ción y procesamiento de los datos de entrada, diseño del modelo algorítmico, entrena-
miento del modelo.
14
OECD, Artificial Intelligence in Society, 2019.
Criterios aplicables a las actividades dentro del ciclo de vida de los siste-
mas de inteligencia artificial
La transparencia y la explicabilidad de los sistemas de IA, suelen ser condiciones previas
fundamentales para garantizar el respeto, la protección y la promoción de los derechos huma-
nos, las libertades fundamentales y los principios éticos. Las personas deben tener la oportuni-
dad de solicitar explicaciones e información al responsable de la IA o a las instituciones corres-
pondientes del sector público. Dichos responsables deben informar a los usuarios cuando un
producto o servicio se proporcione directamente o con la ayuda de sistemas de IA de manera
adecuada y oportuna.
Se recomienda la aplicación de los siguientes criterios sugeridos para que las organizaciones
-sean públicas o privadas- los implementen internamente desde la etapa de diseño y en las
siguientes, con flexibilidad según el contexto y estructura organizativa particular15.
Criterios aplicables a las actividades dentro del ciclo de vida de los sistemas de Inteligencia Artificial
1. 2. 3. 4.
Diseño de sistema Verificación y validación Implementación Operación y mantenimiento
Esta etapa implica una serie de actividades que van desde la planificación y el diseño del
sistema, a la selección y procesamiento de los datos de entrada, el entrenamiento del sistema
y la construcción del modelo algorítmico para lograr los resultados esperados según los objeti-
vos planteados.
15
Estos principios se formularon tomando como referencia la Ley N° 25326 de Protección de Datos Personales, las buenas prácticas y estándares internacionales que
se incorporaron en el Proyecto de Ley de Protección de Datos Personales remitido al Congreso de la Nación (Mensaje 83/2023) y el Convenio 108 modernizado
aprobado por nuestro país mediante la Ley N° 27.699. En lo que respecta a Transparencia, se tuvieron en cuenta los estándares internacionales y las obligaciones de
transparencia establecidas en la Ley de Acceso a la Información N°27.275 para el sector público. El Proyecto de ley puede ser consultado en:
https://www.argentina.gob.ar/sites/default/files/mensajeyproyecto_leypdp2023.pdf
Por las razones anteriores, se sugiere que en esta instancia se definan los objetivos del proyec-
to, los integrantes del equipo que llevará a cabo todo el proceso, los responsables de cada
área, los costos y recursos necesarios, la viabilidad del proyecto, la gestión de riesgos, la forma
de rendición de cuentas de cada etapa, los requerimientos éticos, la adaptación al contexto y si
es posible, la construcción de un sistema inteligente a validar y verificar en la etapa siguiente.
En cuanto a la creación del modelo algorítmico, esto incluye el diseño del modelo y/o adapta-
ción de un modelo algorítmico preexistente, su calibración y entrenamiento, así como la inter-
pretación de los resultados, el cálculo de errores y la precisión del sistema16.
Este principio implica que las organizaciones no solo deben cumplir con las leyes y regulacio-
nes de protección de datos, sino también deben ser capaces de demostrar esta conformidad
de manera continua y efectiva.
Se trata de un principio transversal a todas las etapas del ciclo de un sistema de Inteligencia
Artificial, e incluye la evaluación de impacto y gestión de riesgos, monitoreo y documentación
detallada de las acciones, formación del personal, equipos técnicos especializados (también
llamados Delegados de protección de datos), gestión de incidentes, auditorias y revisiones,
entre otras medidas.
16
OECD, Artificial Intelligence in Society, 2019.
Evaluación de Impacto
Entre los riesgos que permite detectar está la reidentificación de personas, sesgos algorít-
micos, uso indebido de datos, entre otros, antes de que el sistema esté desarrollado.
Por lo general aquellas organizaciones que deberían realizar una evaluación de impacto
son las que tratan grandes volúmenes de datos, que realizan operaciones con datos sensi-
bles, o que realizan una indagación sistemática y exhaustiva de aspectos personales de las
personas que se base en un tratamiento automatizado y semiautomatizado, como la elabo-
ración de perfiles. Pueden ser grandes empresas pero también pequeñas startup cuyo
procesamiento de datos pueda conllevar riesgo para la privacidad de las personas y de las
instituciones del sector público.
Entre las etapas de una evaluación de impacto está la “gestión de riesgos”, proceso
mediante el cual se identifica, analiza y valora la probabilidad e impacto de las ocurrencias
de amenazas. El objetivo es establecer cuáles son las hipótesis de riesgo para, luego, en
una etapa posterior, definir el plan de tratamiento necesario para minimizarlos. En la Guía
de Evaluación de Impacto en la Protección de Datos, elaborada por las agencias de Argenti-
na y Uruguay, se propone una escala para la medición de probabilidad de impacto, con
cuatro niveles: probabilidad baja, media, alta y crítica17.
La relación entre los riesgos y la probabilidad de impacto permite construir una matriz de
riesgo que permitirá anticipar si el sistema que se está diseñando es de alto, medio o bajo
riesgo. Un proyecto que en el diseño de como resultado una matriz de alto riesgo probable-
mente deba ser desestimado y rediseñado. En la figura 3 se brinda un ejemplo de una
matriz de riesgo.
17
Agencia de Acceso a la Información Pública Argentina y Unidad Reguladora y de Control de Datos Personales Uruguay. Guía de Evaluación de Impacto en la
Protección de Dato, 2020.
https://www.argentina.gob.ar/noticias/argentina-y-uruguay-lanzan-la-guia-evaluacion-de-impacto-en-la-proteccion-de-datos
Probabilidad + Impacto
Matriz de riesgo
No presentan un riesgo
significativo para la
organización
Para mayor detalle, se recomienda tomar como referencia la evaluación de impacto ética
publicada por la UNESCO, la que principalmente tiene como objetivo evaluar si los algoritmos
se encuentran alineados con los valores, principios y orientaciones establecidos por su Reco-
mendación. Esta evaluación debería garantizar la transparencia siendo abierta al público la
información sobre estos sistemas y cómo se desarrollaron.
Este instrumento repasa los distintos principios de privacidad y realiza preguntas que el
responsable de tratamiento debería considerar para poder abordar adecuadamente los
riesgos de privacidad desde instancias tempranas, tal como se detalla en el cuadro a conti-
nuación en relación al principio de finalidad.
UNESCO. Ethical impact assesment. A tool of the Recomendation on the Ethics of Artificial Intelligence. Disponible en:
https://unesdoc.unesco.org/ark:/48223/pf0000386276
Evaluación de Impacto en la Protección de Datos, 2020. Disponible en: https://www.argentina.gob.ar/sites/default/files/guia_final.pdf
Riesgo inaceptable
Riesgo alto
Riesgo limitado
Riesgo mínimo
Fuente: Elaboración propia sobre la base de esquema de Shaping Europe’s digital future disponible en: digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
Riesgo inaceptable
Técnicas manipuladoras o engañosas para influir en decisiones; evaluación o clasificación de
personas según su comportamiento social, datos personales, que puedan ser usadas para discrimi-
nar o perjudicar a la persona.
Ejemplos:
Evaluaciones penales basadas solo en perfiles de personalidad; Inferencia de emociones en entornos laborales o
educativos; categorización de personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza,
opiniones políticas, entre otros.
Riesgo alto
Riesgo significativo para la salud, la seguridad o los derechos fundamentales. Los sistemas que
pueden presentar este tipo de riesgo no están prohibidos, pero deben cumplir estrictos requisitos
antes de ser desplegados.
Ejemplos:
El equipamiento médico, vehículos, infraestructuras críticas, etc., para evaluar la solvencia de personas y/o establecer
su calificación crediticia.
Riesgo limitado
Sistemas que interactúan con usuarios y notifican información. Tienen requisitos específicos
relacionados principalmente con la transparencia y el uso responsable.
Ejemplos:
Asistentes chatbots y asistentes virtuales, entre otros.
Riesgo mínimo
Estos sistemas representan un riesgo bajo o nulo para los derechos fundamentales y la seguridad.
No tienen requisitos adicionales más allá del cumplimiento de las normativas generales.
Ejemplos:
IA utilizada en videojuegos o aplicaciones de entretenimiento; filtros de spams en correos electrónicos, entre otros
que no afectan derechos fundamentales.
Asimismo, cabe resaltar que los datos genéticos y los datos biométricos que en muchos casos
son empleados en sistemas de Inteligencia Artificial, como por ejemplo a través de técnicas de
reconocimiento facial, son considerados de carácter sensible, siempre que identifiquen de
manera unívoca a una persona física y de ellos se pueda desprender o revelar información cuyo
uso pueda resultar potencialmente discriminatorio para su titular, al menos en Argentina en
virtud de la definición aportada por esta AAIP en la Resolución Nº 4/2019, Anexo I, criterio 4.
Alto
Los titulares de datos son afectados de manera significativa, causándoles dificultades y requirién-
doles soluciones complejas.
La privacidad “por defecto” garantiza que desde el propio diseño solo se recopilan, proce-
san y comparten los datos personales que son estrictamente necesarios y que se opta, en
cada nivel, por la opción más protectiva entre todas las alternativas posibles. También
deben ser tenidas en cuenta las opciones de configuración abogando por un procesamien-
to mínimamente intrusivo.
Principio de Licitud
Además, los archivos y bases de datos que permitan obtener información sobre las perso-
nas y alimenten un sistema de IA, sea público o privado, deben estar inscriptos en el Regis-
tro Nacional de Bases de Datos Personales18.
Medidas de seguridad
18
Toda la información sobre el Registro Nacional de Base de Datos puede encontrarse en: https://www.argentina.gob.ar/aaip/datospersonales
En la etapa de diseño del proyecto, estas medidas deben ser pensadas a partir de la evaluación
de impacto, y entre las medidas que suelen estar a disposición están:
• Implementación de controles en los ambientes de desarrollo
• Minimización de datos
• Cifrado de datos
• Control de acceso y de cambios
• Respaldo y recuperación
• Gestión de vulnerabilidades
• Protocolo de conservación y almacenamiento de la información
• Anonimización y seudonimización
• Monitoreo y auditoría
• Protocolo de gestión de incidentes de seguridad
• Protocolo de destrucción de la información
Los daños no deseados deben prevenirse y eliminarse durante todo el ciclo de vida de los
sistemas de IA. Las “Medidas de seguridad recomendadas para el tratamiento y conservación
de los Datos Personales en medios informatizados” elaborados por la AAIP pueden ser de
utilidad al sistematizar etapas y medidas específicas para reducir los riesgos y amenazas a la
integridad y preservación de los datos personales19.
Plazos de conservación
La ley vigente sostiene que los datos deben ser destruidos cuando hayan dejado de ser necesa-
rios o pertinentes a los fines para los cuales hubiesen sido recolectados. En la legislación regio-
nal y en gran parte de la internacional existen artículos específicos dedicados a los plazos de
conservación de los datos, puesto que cuanto más se conservan sin un fin o propósito de trata-
miento legítimo, más riesgos aparecen para la privacidad de las personas. Por lo tanto, ya en el
proceso de diseño de un sistema de IA, junto a la o las finalidades propuestas y a la base legal,
debe poder establecerse el plazo de conservación de los datos que se van a recolectar.
Principio de calidad
Establecer criterios claros para la calidad de los datos, definiendo las características que
deben cumplir los datos recolectados (precisión, integridad, relevancia, etc.).
19
La Resolución 47/2018 de la Agencia de Acceso a la Información Pública, aunque no esta pensada específicamente para las tecnologías de Inteligencia Artificial,
son recomendaciones que puede ser de utilidad para sistematizar una estrategia de seguridad de datos personales.
Las “Medidas de seguridad recomendadas para el tratamiento y conservación de los Datos Personales en medios informatizados”, se encuentran a disposición en:
https://servicios.infoleg.gob.ar/infolegInternet/anexos/310000-314999/312662/norma.htm
Minimización
Aunque en la etapa de diseño lo más probable es que se trabaje con datos anonimizados,
es importante establecer el tipo de dato que se necesitará recolectar. Al haber establecido
el principio de calidad de los datos, podemos diseñar el modelo sobre la base de la menor
cantidad de datos posibles.
Se debe minimizar la cantidad de datos personales procesados por las aplicaciones de IA,
reduciendo datos innecesarios y/o redundantes durante el desarrollo y fases de entrena-
miento. Los datos personales deben ser tratados de manera que sean adecuados, pertinen-
tes y limitados a lo necesario en relación con los fines para los que fueron recolectados.
Aplicar este principio ayuda a reducir los riesgos asociados con el manejo de grandes
volúmenes de datos personales y a proteger la privacidad de los individuos. En particular,
es importante establecer la exclusión total de datos sensibles innecesarios.
Las buenas prácticas exigen asegurar niveles razonables de apertura y claridad en la gober-
nanza de las actividades dentro del ciclo de vida de los sistemas de IA. Esto incluye la com-
prensión y accesibilidad de las partes interesadas a la información sobre los procesos de
toma de decisiones, los algoritmos y el funcionamiento interno de los modelos de IA.
La información vinculada al tratamiento de los datos será transparente si las personas son
informadas adecuadamente sobre los detalles de los datos utilizados para producir el siste-
ma, así como informar cuando interactúan directamente con un sistema de Inteligencia
Artificial o cuando sus datos personales sean procesados por dichos sistemas.
Criterios aplicables a las actividades dentro del ciclo de vida de los sistemas de Inteligencia Artificial
1. 2. 3. 4.
Diseño de sistema Verificación y validación Implementación Operación y mantenimiento
En esta instancia se deben realizar las verificaciones y validaciones de los diseños construidos
en la etapa anterior, lo que implica ejecutar y ajustar modelos con pruebas para evaluar el
rendimiento y el impacto en diversas dimensiones. Se debe verificar el diseño, los datos y los
modelos involucrados, aplicando los criterios definidos en la etapa anterior.
Adicionalmente, como una segunda buena práctica para transparentar las decisiones tomadas
durante esta fase, se sugiere la publicación de un acta de compromiso ético del proyecto de IA
que refleje el compromiso ético del equipo desarrollador, asentando su comprensión y respon-
sabilidad frente a los aspectos éticos mínimos necesarios.
Dicha acta debería detallar los responsables de roles críticos del proyecto como por ejemplo:
• la autoridad a cargo de la decisión de implementar un sistema IA,
• el/la responsable de validar los datos,
• el responsable de monitorear manualmente el comportamiento del sistema,
• el responsable de responder consultas y/o reclamos de información sobre el sistema y de
responder ante la ocurrencia de posibles incidentes.
Medidas de seguridad
Este es el momento preciso donde, además de monitorear y testear las medidas diseñadas, se
pueden tomar acciones para remediar vulnerabilidades de seguridad antes del despliegue del
sistema y su puesta en operación. Es el momento donde se pueden ajustar los tipos de datos que
se utilizan, el tipo de control de acceso, el tipo de cifrado o configurar los entornos virtuales, entre
otras medidas.
Anonimización y seudoanonimización
Principio de calidad
Etapa 3: Implementación
Criterios aplicables a las actividades dentro del ciclo de vida de los sistemas de Inteligencia Artificial
1. 2. 3. 4.
Diseño de sistema Verificación y validación Implementación Operación y mantenimiento
Esto es fundamental para facilitar la tarea de auditorías ante incidentes o como forma de preven-
ción de posibles daños, sesgos u otros errores20. En el caso de utilizar servicios tercerizados es
importante comprender, previo a la contratación, los niveles de trazabilidad, seguridad de la
información y facilidades de auditoría ofrecidas por el prestador para poder evaluar con anticipa-
ción si se cumplen los estándares requeridos. El prestador debe comprometese, una vez termi-
nado el contrato, a la devolución de los datos a la institución pública o garantizar su eliminación.
A su vez, otra cuestión a tener en cuenta en esta etapa es la facilidad del usuario para acce-
der y utilizar el sistema, por lo que se recomienda realizar una evaluación de la experiencia de
los usuarios para asegurar el mayor nivel de accesibilidad TIC21 posible y los estándares de
usabilidad y seguridad del usuario.
En todos los casos, previo a lanzar el sistema, es necesario que los resultados y las decisio-
nes estén debidamente identificadas mediante rótulo o etiquetado, tal como las marcas de
agua en imágenes, para permitir la detección y transparencia del contenido generado por los
sistemas de IA, de manera tal de notificar al usuario y proteger los derechos de autor.
Los sistemas deben contar con una «política de privacidad». Se trata de un documento redacta-
do de manera clara y sencilla que un responsable, público o privado, produce y divulga para
informar a los titulares de los datos cómo se recopilan, utilizan, procesan y protegen sus datos
personales, así como los derechos que los asisten y otra información que también debe estar
20
OECD, Artificial Intelligence in Society, 2019.
21
En Argentina rige la Ley N° 26.653 de “Accesibilidad Web” que promueve la accesibilidad de la información, facilitando especialmente el acceso a todas las
personas con discapacidad. https://www.argentina.gob.ar/normativa/nacional/175694/texto
disponible para las personas. La política de privacidad es fundamental para cumplir con las
regulaciones y establecer una base de confianza con los titulares de los datos. Es también el
medio por excelencia, por su naturaleza, para recoger su consentimiento.
La información debe incluir, entre otros datos que sean pertinentes, las finalidades del trata-
miento, los datos que se recolectan, los derechos que asisten a los titulares y cómo se
pueden ejercer, los plazos de conservación, si las medidas de seguridad son acordes a la
finalidad y el tipo de tratamiento, la inscripción en el Registro de la base de datos, las cesio-
nes a terceros que se hagan, si se realizan transferencias internacionales, el derecho de
iniciar un reclamo ante la Agencia de Acceso a la Información Pública y los medios y datos
de contacto para hacerlo , entre otros22.
Monitoreo
22
En lo que respecta al sector público, recomendamos tomar como guía la Resolución 40/18 referida a la política modelo de protección de datos en el sector público.
Dicha norma establece una serie de pautas para la elaboración de una política de privacidad. Disponible en:
https://www.argentina.gob.ar/normativa/nacional/resoluci%C3%B3n-40-2018-312130/texto
Criterios aplicables a las actividades dentro del ciclo de vida de los sistemas de Inteligencia Artificial
1. 2. 3. 4.
Diseño de sistema Verificación y validación Implementación Operación
y mantenimiento
Asimismo, durante esta fase es fundamental detectar y en su caso, comunicar cualquier inci-
dente ético y/o de seguridad a la autoridad competente correspondiente teniendo en conside-
ración el sector afectado en particular y los derechos implicados.
Los incidentes éticos pueden ser causados por diferentes motivos, tales como errores huma-
nos involuntarios en alguna de las etapas del ciclo de vida que provoquen un mal funciona-
miento del sistema, un uso intencional e indebido de una de las personas de la organización o
de los usuarios finales, un ataque interno o externo a la seguridad de la organización o de la
información, entre otros.
23
Los incidentes éticos pueden ser causados por diferentes motivos, tales como errores humanos involuntarios en alguna de las etapas del ciclo de vida que
provoquen un mal funcionamiento del sistema, un uso intencional e indebido de una de las personas de la organización o de los usuarios finales, un ataque interno o
externo a la seguridad de la organización o de la información, entre otros.
En línea con los principios de transparencia algorítmica existe una serie de dimensiones que
es posible publicar por parte de las entidades a cargo para darle mayor explicabilidad a los
sistemas de Inteligencia Artificial de cara a la ciudadanía24. Este listado comprende una serie
de características del sistema, que incluye aspectos generales del sistema, como así también
de la organización que lo diseña y lo implementa. Asimismo, se brindan aspectos específicos
que definen el tipo de tecnología e información útil dirigida al usuario que le corresponde
como derecho fundamental para cumplir con los estándares básicos de transparencia.
24
La AAIP ha diseñado una serie de estándares de calidad recomendables, sobre la base de lo trabajado en el marco de la Alianza para la Transparencia Algorítmica
(ALTA), de la cual forma parte, y que se construyó como un espacio de colaboración entre el sector público, la academia y la sociedad civil para desarrollar la
transparencia algorítmica en Latinoamérica.
Tipo de servidor donde se guardan los datos utilizados y los resultados generados por el
sistema (servidores propios, tercerizados locales o tercerizados extranjeros)
En conexión con los derechos antes expuestos y como medida de transparencia, es funda-
mental que las organizaciones responsables de la operación de estos sistemas, habiliten
canales de comunicación para que los usuarios puedan realizar consultas y en su caso,
interponer reclamos.
A nivel interno en la organización, es deseable que existan procedimientos para que se canali-
cen estas consultas en tiempo y forma. Asimismo, es importante que la comunicación sea lo
más clara y completa utilizando un lenguaje comprensible por una persona no experta en IA.
Para los casos dónde existan servicios brindados a través de tecnologías de IA, se sugiere
establecer la comunicación a través de una vía humana para atender a las personas que por
su perfil o su situación particular, no tengan acceso a los dispositivos y servicios tecnológi-
cos básicos necesarios para ser usuarios de los servicios de IA, o prefieran la atención de
una persona humana.
Se resalta como buena práctica -en línea con el principio de responsabilidad proactiva y
demostrada- que, dichos procedimientos se encuentren documentados para el eventual
supuesto que tenga que demostrarse ante la autoridad de aplicación correspondiente que se
ha obrado de manera diligente ante las solicitudes y/o reclamos recepcionados.
Principio de seguridad
En esta etapa, las medidas de seguridad se centran en garantizar que el sistema funcione de
manera segura y eficaz, protegiendo los datos personales y manteniendo la confianza de los
usuarios. Para ello, debe llevar a la práctica las medidas ya elaboradas en la etapa del diseño
del proyecto y llevar a cabo el Plan de Respuesta a Incidentes, con procedimientos detallados
para la identificación, evaluación, y respuesta a incidentes. Existen diversas herramientas de
monitoreo continuo y alertas automáticas.
También se deben aplicar los protocolos para los incidentes de seguridad, donde la respues-
ta inmediata, la transparencia hacia los ciudadanos y una comunicación fluida al interior y
exterior de la organización, ya que son cruciales para hacer frente al mismo. La Resolución
47/018 de la AAIP relativa a los incidentes de seguridad, estructura un modelo de respuesta a
los incidentes, para su mejor detección, evaluación, contención y respuesta, como así tam-
bién las actividades de escalamiento y corrección del entorno técnico y operativo25.
Plazo de conservación
25
AAIP. Resolución 47/2018 “Medidas de seguridad recomendadas para el tratamiento y conservación de los Datos Personales en medios informatizados”.
Nuevos derechos
En el Proyecto de Ley elaborado por la AAIP con aportes de la ciudadanía, y enviado por el Poder
Ejecutivo al Congreso de la Nación (mensaje 87/2023)26, se adicionan los derechos de limitación
y portabilidad, y en particular los siguientes vinculados a las decisiones automatizadas:
Derecho a la Limitación del Tratamiento: Permite a las personas solicitar a las organizaciones
que el tratamiento de sus datos personales sea limitado o restringido en ciertas circunstancias.
Derecho a la Portabilidad de los Datos: Permite a las personas recibir sus datos personales
en un formato estructurado, de uso común y legible por máquina, y a transferirlos a otro
responsable del tratamiento si así lo desean.
Derecho de oposición. El titular de los datos puede oponerse al tratamiento, o una finalidad
específica de este, si no prestó su consentimiento o si tuvieran por objeto la publicidad, la
prospección comercial o la mercadotecnia directa, incluida la elaboración de perfiles.
Derecho de no inferencia y revisión humana: El titular de los datos tiene derecho a no ser
objeto de una decisión que le produzca efectos jurídicos perniciosos, lo afecte de forma
negativa o tenga efectos discriminatorios, basada, única o parcialmente, en el tratamiento
automatizado de datos, incluida la elaboración de perfiles e inferencias. Se entiende por
decisiones parcialmente automatizadas o semiautomatizadas a aquellas en las que no
hubo intervención humana significativa.
En relación con lo anterior, la persona tiene derecho a solicitar la revisión por una persona
humana de las decisiones tomadas sobre la base del tratamiento automatizado o semiau-
tomatizado que afecten a sus intereses, incluidas las decisiones encaminadas a definir sus
aspectos personales, profesionales, de consumo, de crédito, de su personalidad u otros.
En caso de no poder proporcionarla por estas razones, la Autoridad de Aplicación puede realizar
auditorías para verificar, entre otros, aspectos discriminatorios o de contenido erróneo o sesga-
do en el tratamiento automatizado o semiautomatizado de información personal.
26
AAIP, Proyecto de Ley de Protección de Datos Personales (2023) Disponible en: https://www.argentina.gob.ar/sites/default/files/mensajeyproyecto_leypdp2023.pdf
27
Además, cabe remarcar el derecho de acceso a la información pública establecido por la Ley N° 27275, mediante la cual se garantiza el efectivo ejercicio a este
derecho, promoviendo la participación ciudadana y la transparencia de la gestión pública. Esto implica que toda persona humana o jurídica, pública o privada, tiene
derecho a solicitar a los sujetos obligados información pública y poder realizar reclamos ante la AAIP en caso de incumplimiento.
07
Consideraciones finales
Conscientes del largo camino a transitar atendiendo los distintos desafíos derivados del uso
de IA, el “Programa de Transparencia y protección de datos personales en el uso de la IA” y
la presente guía, son sólo las primeras líneas de trabajo de fortalecimiento y de soporte a las
organizaciones y a la ciudadanía, las que se irán complementando y actualizando.
08
Acrónimos
09
Referencias bibliográficas
• Argentina Ley Nacional N° 26.653 - “Accesibilidad de la información en las páginas web", 2010.
https://www.argentina.gob.ar/normativa/nacional/175694/texto
51 | Referencias bibliográficas
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
• Argentina Ley Nacional N° 27.699 - “Protección de las personas con respecto al tratamiento
automatizado de datos de carácter personal”, 2022.
https://servicios.infoleg.gob.ar/infolegInternet/anexos/375000-379999/375738/norma.htm
• Consejo de Europa (Council of Europe). Directrices éticas para una inteligencia artificial con-
fiable, 2019.
https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1
52 | Referencias bibliográficas
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
• Garrido, Romina; Lapostol, José Pablo y Paz Hermosilla, María. Transparencia algorítmica en el
sector público. Consejo para la transparencia de Chile y Gob_Lab de la Universidad Adolfo Ibáñez,
2021.
https://www.consejotransparencia.cl/wp-content/uploads/estu-
dios/2021/10/ESTUDIO-TRANSPARENCIA-ALGORITMICA-EN-EL-SECTOR-PUBLICO-GOBLAB-cambio-tablas-1.pdf
• Global Privacy Assembly (GPA). 40th International Conference of Data Protection and Priva-
cy Commissioners. Declaración de ética y protección de datos en inteligencia artificial.
Bruselas, 2018.
http://globalprivacyassembly.org/wp-content/u-
ploads/2018/10/20180922_ICDPPC-40th_AI-Declaration_ADOPTED.pdf
• Global Privacy Assembly (GPA). Joint statement on data scraping and the protection of
privacy, 2023.
https://ico.org.uk/media/about-the-ico/documents/4026232/joint-statement-data-scraping-202308.pdf
• Global Privacy Assembly (GPA). 45th Closed Session of the Global Privacy Assembly. Resolu-
tion on Generative Artificial Intelligence System, 2023.
https://www.edps.europa.eu/system/files/2023-10/edps-gpa-resolution-on-generative-ai-systems_en.pdf
• Hermosilla, María; González Alarcón, Natalia; Pombo, Cristina; Sánchez Ávalos, Roberto;
Denis, Gabriela; Aracena, Claudio. Banco Interamericano de Desarrollo (BID). Uso responsable
de IA para política pública: manual de formulación de proyectos, 2021.
https://publications.iadb.org/es/uso-responsable-de-ia-para-politica-publica-manual-de-formulacion-de-proyectos
53 | Referencias bibliográficas
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
• The White House. Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence,
2023.
https://www.whitehouse.gov/briefing-room/statements-relea-
ses/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
54 | Referencias bibliográficas
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
ANEXO I
A nivel internacional
El 8 de abril de 2019, el Grupo de expertos de alto nivel sobre IA del Consejo de Europa presen-
tó las “Directrices éticas para una inteligencia artificial confiable”, las que detallan que una IA
confiable debería ser: (1) legal: respetando todas las leyes y regulaciones aplicables (2) ética:
observando los principios y valores éticos y (3) robusta, tanto desde una perspectiva técnica
como teniendo en cuenta su entorno social29.
Estas recomendaciones resaltan que la IA debe beneficiar a las personas y al planeta impul-
sando el crecimiento inclusivo, el desarrollo sostenible y el bienestar; que los sistemas de IA
deben respetar el estado de derecho, los derechos humanos, los valores democráticos y la
28
Future of Life Institute. Asilomar AI Principles, 2017. https://futureoflife.org/open-letter/ai-principles
29
Consejo de Europa. Directrices éticas para una inteligencia artificial confiable, 2019.
https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1
30
La República Argentina tiene en el ámbito general de la OCDE el status de país observador y se encuentra entre los países no miembros que han suscrito estos
principios. Recommendation of the Council on Artificial Intelligence, 2019. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
55 | ANEXO
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
diversidad; también deben ser transparentes para garantizar que las personas comprendan
los resultados y puedan cuestionarlos; ser sólidos, seguros y protegidos durante todo su ciclo
de vida; y las partes interesadas deben colaborar para maximizar los beneficios de la IA y
minimizar sus riesgos.
En diciembre de 2020, el Comité Ad hoc sobre Inteligencia Artificial (CAHAI) del Consejo de
Europa publicó un informe titulado “Hacia la regulación de sistemas de IA”, documento que
mapea iniciativas internacionales y marcos legales nacionales y lineamientos éticos, así
como en el análisis de los riesgos y oportunidades que surgen de la Inteligencia Artificial, en
particular su impacto en los derechos humanos, el Estado de derecho y democracia31.
31
Towards Regulation of AI Systems. Global perspectives on the development of a legal framework on Artificial Intelligence (AI) systems based on the Council of
Europe’s standards on human rights, democracy and the rule of law, 2020.
https://rm.coe.int/prems-107320-gbr-2018-compli-cahai-couv-texte-a4-bat-web/1680a0c17a
32
Comisión Europea. Libro blanco sobre la inteligencia artificial. Un enfoque europeo orientado a la excelencia y la confianza, 2020.
https://commission.europa.eu/document/download/d2ec4039-c5be-423a-81ef-b9e44e79825b_es?filename=commission-white-paper-artificial-intelligence-feb2020_es.pdf
33
Red Iberoamericana de Protección de Datos Personales. “Recomendaciones generales para el tratamiento de datos en la inteligencia artificial”, 2019.
https://www.redipd.org/sites/default/files/2020-02/guia-recomendaciones-generales-tratamiento-datos-ia.pdf
34
Red Iberoamericana de Protección de Datos Personales. Orientaciones específicas para el cumplimiento de los principios y derechos que rigen la protección de los
datos personales en los proyectos de Inteligencia Artificial, 2019.
https://www.redipd.org/sites/default/files/2020-02/guia-orientaciones-espec%C3%ADficas-proteccion-datos-ia.pdf
35
UNESCO. Recomendación sobre la ética de la inteligencia artificial, 2021. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
36
Argentina es Estado miembro desde 1948. https://www.unesco.org/es/countries
56 | ANEXO
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
Esta Recomendación trata las cuestiones éticas relacionadas con el ámbito de la Inteligencia
Artificial y sirve de base para guiar a las sociedades para afrontar de manera responsable con
acciones, los efectos conocidos y desconocidos de las tecnologías de la IA, con respecto a la
gobernanza de datos, el medio ambiente, el género, la educación, la investigación, la salud y
el bienestar social, entre otros.
Los principios que declara son los de proporcionalidad e inocuidad, seguridad y protección,
equidad y no discriminación, derecho a la intimidad y protección de datos, supervisión y
decisión humanas, transparencia y explicabilidad, responsabilidad y rendición de cuentas,
sensibilización y educación, sostenibilidad y gobernanza y colaboración adaptativas de múlti-
ples partes interesadas.
También existen numerosas iniciativas de autorregulación que han surgido también desde el
sector privado, como el de ocho grandes empresas –GSMA, INNIT, Grupo Lenovo, LG AI
Research, Mastercard, Microsoft, Salesforce y Telefónica– que han firmado un acuerdo con
la UNESCO para construir una inteligencia artificial más ética, incorporando los valores y
principios de la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial en el
diseño y despliegue de sus propios sistemas de IA.
Los países del G7 (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido) y
la Unión Europea (UE) en mayo de 2023 realizaron una declaración acordando promover un
uso “responsable” de la Inteligencia Artificial ante el avance de estos sistemas y su potencial
uso para socavar la democracia y vulnerar la privacidad de las personas37. En la misma, se
citan cinco principios clave para regular el uso de la IA y otras tecnologías emergentes:
estado de derecho, garantías legales, democracia y respeto por los derechos humanos y
aprovechamiento de oportunidades para promover la innovación.
Por otra parte, se resalta que, la AAIP, en el marco de su trabajo como miembro de la Asam-
blea Global de Privacidad, ha co-sponsoreado distintas resoluciones relativas a temas de
Inteligencia Artificial.
37
Comisión Europea. G7 Leaders’ Statement on the Hiroshima AI Proces, 2023.
https://digital-strategy.ec.europa.eu/en/library/g7-leaders-statement-hiroshima-ai-process
38
Global Privacy Assembly. 40th International Conference of Data Protection and Privacy Commissioners. Declaración de ética y protección de datos en inteligencia
artificial. Bruselas, 2018. http://globalprivacyassembly.org/wp-content/uploads/2018/10/20180922_ICDPPC-40th_AI-Declaration_ADOPTED.pdf
39
Global Privacy Assembly. 45th Closed Session of the Global Privacy Assembly. Resolution on Generative Artificial Intelligence System, 2023.
https://www.edps.europa.eu/system/files/2023-10/edps-gpa-resolution-on-generative-ai-systems_en.pdf
57 | ANEXO
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
que el uso de sistemas de Inteligencia Artificial sean coherentes con sus fines originales,
delimitar y limitar determinados usos, garantizar la rendición de cuentas, establecer procesos
de gobernanza demostrables para todos los actores relevantes, como así también proporcio-
nar información adecuada sobre el propósito y sus efectos.
El 30 de octubre de 2023, Estados Unidos emitió una Orden Ejecutiva sobre IA segura y
confiable40, con el objetivo de que los desarrollos tecnológicos respeten medidas de seguri-
dad, privacidad, derechos civiles, principios de los consumidores y trabajadores.
El 13 de marzo de 2024, el Parlamento Europeo aprobó una Ley de Inteligencia Artificial (más
conocida como “IA Act”), cuyo objetivo es proteger los derechos fundamentales, la democra-
cia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto
riesgo, impulsando al mismo tiempo la innovación. El Reglamento fija una serie de obligacio-
nes para la IA en función de sus riesgos potenciales y su nivel de impacto, por ejemplo, prohi-
biendo ciertas aplicaciones de Inteligencia Artificial que atentan contra los derechos de la
ciudadanía, como los sistemas de categorización biométrica basados en características
sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de
cámaras de vigilancia para crear bases de datos de reconocimiento facial41.
En este punto, la AAIP ha participado activamente junto con otros países de las reuniones y
negociaciones para arribar a un texto consensuado en el marco de la Convención sobre Inteligen-
cia Artificial, Derechos Humanos, Democracia y Estado de Derecho (CAI)42 del Consejo de Europa.
Por otra parte, cabe resaltar que existen múltiples trabajos de recomendaciones para instru-
mentar soluciones éticas.
40
The White House. Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, 2023. https://www.whitehouse.gov/briefing-room/statements-releas-
es/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
41
Ley de Inteligencia Artificial de la Unión Europea, 2024.
42
Consejo de Europa. Convención sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho (CAI), 2024.
https://www.coe.int/en/web/artificial-intelligence/cai#{%22126720129%22:[],%22126720142%22:[1]
43
Banco Interamericano de Desarrollo (BID). Hermosilla, M. et al. Uso responsable de IA para política pública: manual de formulación de proyectos, 2021.
https://publications.iadb.org/es/uso-responsable-de-ia-para-politica-publica-manual-de-formulacion-de-proyectos
58 | ANEXO
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
A nivel nacional
El Plan Nacional de Inteligencia Artificial (ArgenIA, 2019) fue desarrollado por la Secretaría de
Gobierno de Ciencia, Tecnología e Innovación Productiva, a través de coordinación de la
Secretaría de Planeamiento y Políticas en Ciencia, Tecnología e Innovación Productiva
(SPPCTI). Durante 2018 y 2019 se llevaron adelante reuniones, consultas y mesas de trabajo
multisectoriales con diferentes instituciones y referentes en la temática.
44
Consejo para la Transparencia Chile y Gob Lab UAI. Transparencia algorítmica en el sector público, 2021.
https://goblab.uai.cl/wp-content/uploads/2021/11/ESTUDIO-TRANSPARENCIA-ALGORITMICA-EN-EL-SECTOR-PUBLICO-GOBLAB-vf.pdf
45
Consejo para la Transparencia Chile y Gob Lab UAI. Transparencia algorítmica en el sector público. Informe Anual 2023 - Repositorio Algoritmos Públicos, 2023.
https://goblab.uai.cl/informe-anual-2023-repositorio-algoritmos-publicos/
46
https://gigapp.org/ewp/index.php/GIGAPP-EWP
59 | ANEXO
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
En 2022 la Argentina firmó su adhesión al Pacto Global de Inteligencia Artificial (GPAI, por
sus siglas en inglés), promovido a partir de las recomendaciones de la OCDE y donde partici-
pan gobiernos, organismos internacionales y asociaciones civiles y académicas. Al día de
hoy incluye a 29 países con fuerte presencia europea y de Japón.
En el mismo año, la Fundación Dr. Manuel Sadosky, una institución público-privada cuyo
objetivo es favorecer la articulación entre el sistema científico-tecnológico y la estructura
productiva en todo lo referido a la temática de las Tecnologías de la Información y la Comuni-
cación (TIC), publicó una guía denominada “Innovar con Ciencia de Datos en el sector públi-
co” 47, la cual propone una hoja de ruta para pensar las políticas y servicios públicos tanto
desde su gestión, como desde el diseño y la implementación. También, presenta algunos
disparadores para problematizar el uso de la Ciencia de Datos e Inteligencia Artificial e inte-
rrogantes para profundizar sobre la calidad de los datos y el impacto de estas herramientas.
Fue desarrollado según el marco normativo argentino y tiene en cuenta las particularidades
del país. Además, contiene secciones específicas donde detalla recomendaciones respecto a
transparencia y protección de datos personales.
Este manual brinda un marco para la adopción tecnológica de sistemas de Inteligencia Artifi-
cial centrada en la ciudadanía y sus derechos. Para ello, realiza recomendaciones subdividi-
das en cada una de las etapas del ciclo de vida de la IA, es decir, para el diseño del sistema, la
verificación y validación, la implementación y la operación y mantenimiento del sistema.
Además, considera que existen aspectos transversales a todo el ciclo de la IA, dentro de los
cuales se encuentran el derecho a la intimidad y a la protección de datos y por el otro, la
transparencia y la explicabilidad.
47
Fundación Sadosky (2022). Innovar con Ciencia de Datos en el Sector Público.
https://innovacionpublicacondatos.fundacionsadosky.org.ar/descargar/HojaDeRuta.pdf
48
Secretaría de Innovación Pública (Mayo 2023). Recomendaciones para una Inteligencia Artificial Fiable. Subsecretaría de Tecnologías de la Información,
Jefatura de Gabinete de Ministros de Nación.
60 | ANEXO
Guía para entidades públicas y privadas en materia de Transparencia y Protección de
Datos Personales para una Inteligencia Artificial responsable
• Asimismo, cabe mencionar que la AAIP lleva adelante una estrategia federal de concien-
tización y tratamiento de la temática a través de la organización de diversos encuentros
junto a expertos y referentes de las provincias y ciudadanía local.
61 | ANEXO