Estrategia Nacional de Inteligencia Artificial del Uruguay 2024 – 2030

Principios

1 - IA para el bienestar de las personas y el desarrollo sostenible

El bienestar de las personas debe ser colocado en el centro de las decisiones, procesos y aplicaciones relacionados con la inteligencia artificial. 

Los avances tecnológicos representan nuevas oportunidades y también nuevos retos para asegurar el desarrollo sostenible, que involucra entre otras dimensiones, el crecimiento económico inclusivo, la inclusión social y la protección del ambiente. 

Aprovechar la IA como instrumento para el cumplimiento de estas metas requiere de políticas públicas, del esfuerzo conjunto y la colaboración entre el sector público, el sector privado y las partes interesadas, y la evaluación continua de las repercusiones sociales, económicas y ambientales implicadas en el desarrollo y aplicación de los sistemas de IA.

 

2 - Fortalecimiento de la democracia

El desarrollo y aplicación de la IA debe ser consistente con los valores democráticos. Esto supone aprovechar los potenciales beneficios que puede traer la incorporación de la IA para el funcionamiento de la democracia y abordar los retos que requieren atención. 

Tal propósito exige, por un lado, identificar y apropiarse de las posibilidades que ofrece la IA para fortalecer los pilares del funcionamiento democrático, tales como la transparencia y rendición de cuentas pública, la participación ciudadana y el acceso a la información, así como para la mejora de la eficiencia de la gestión pública a través de su incorporación a los procesos que se beneficien de la IA. 

Simultáneamente, exige atender los desafíos actuales y futuros amplificados por la IA en relación con la protección del debate público, el derecho de las personas a formar sus opiniones libremente, la libertad de expresión, y la integridad de los procesos electorales. Lo anteriormente mencionado demanda abordar las repercusiones de la IA en la desinformación de manera consistente con la libertad de expresión y otros derechos y buscando además aprovechar la IA para combatir este fenómeno. 

Este abordaje debe ser bajo un enfoque integral que involucre a las múltiples partes interesadas e incluir medidas para fortalecer la alfabetización digital e informacional en todos los segmentos de la población, medidas para la regulación legal y la co-regulación, y cuando sea pertinente, el apoyo a las medidas de autorregulación que sean adoptadas proactivamente en las áreas en las que este tipo de medidas pueda resultar adecuada y/o complementaria de las otras, de conformidad con los estándares internacionales.

Frente a los contenidos generados por IA este enfoque integral debe asegurar que las personas estén informadas cuando interactúan con un sistema de IA y comprendan cuándo el contenido ha sido generado o manipulado por IA. 

Desde una perspectiva amplia, implica considerar el impacto de la IA en la desinformación en los marcos que se desarrollen para la gobernanza de las plataformas; fortalecer las habilidades digitales instrumentales y fundamentales de las personas para interactuar de manera crítica en el entorno digital y comprender cómo funcionan los algoritmos y el uso de la IA en la moderación y curación de contenidos; así como asegurar la transparencia y rendición de cuentas de los marcos y procesos en que estos se sustentan.

La integración de la IA en la sociedad debe hacerse de manera que fortalezca, y no debilite, los principios fundamentales del Estado de derecho y la democracia. Al garantizar la transparencia, la responsabilidad, la integridad de la información y el respeto por la libertad de expresión, los actores de la IA pueden contribuir a un ecosistema informativo más seguro y confiable. La lucha contra la desinformación es un desafío continuo que requiere la colaboración de gobiernos, empresas tecnológicas, organizaciones civiles y la ciudadanía en general.

 

3 - Respeto de la dignidad y los derechos humanos 

Los sistemas de IA deben ser desarrollados y utilizados bajo principios éticos, de manera compatible con la dignidad humana y respetuosa de los derechos humanos protegidos por los instrumentos internacionales ratificados por el Estado y por la legislación nacional, asegurando la autonomía de las personas, su privacidad, libertades fundamentales, igualdad y no discriminación, entre otros derechos.

Con este fin la actuación de los actores de la IA del sector público se debe regir en función de la obligación jurídica del Estado de respetar, garantizar y proteger los derechos humanos. 

Esto supone, en primer lugar, abstenerse de usar los sistemas de IA de una manera que pueda vulnerar los derechos de las personas. Asimismo, y en función de la posición garante del Estado, implica el deber de los organismos públicos de mantener o adoptar en el ámbito de sus competencias, las medidas que resulten necesarias y adecuadas para proteger los derechos humanos en relación con las actividades tanto del sector público como privado, implicadas en el ciclo de vida de la IA.

Estas medidas deben incluir marcos y procedimientos que posibiliten identificar, evaluar, prevenir y mitigar, según corresponda ex ante o de manera iterativa durante el ciclo de vida de los sistemas de IA, los impactos adversos en los derechos humanos en función del riesgo y uso previsto implicado. Dichos marcos deben tener en cuenta el contexto y uso previsto de los sistemas de IA, así como la gravedad y probabilidad de los riesgos e impactos sobre los derechos humanos. Asimismo, tales medidas deberán asegurar que las vulneraciones de los derechos humanos que resulten de la actividad del sector público y privado implicadas en el ciclo de vida de los sistemas de IA puedan ser debidamente reparadas asegurando la disponibilidad de mecanismos y recursos para ello. 

Para los organismos públicos, la implementación de este principio supone el deber específico de mantener o adoptar medidas para asegurar que las soluciones tecnológicas que utilicen IA que desarrollen, adquieran o utilicen en el ejercicio de sus cometidos, respeten la dignidad humana y los derechos de las personas.

Al implementar este principio, la actuación de los actores del sector privado debe enmarcarse en la responsabilidad de las entidades privadas de respetar los derechos humanos y la obligación de cumplir las normas nacionales e internacionales que protegen tales derechos. Los Principios sobre Derechos Humanos y Empresas adoptados por el Consejo de Derechos Humanos de las Naciones Unidas en 2011, refieren a: 

La responsabilidad de respetar los derechos humanos constituye una norma de conducta mundial aplicable a todas las empresas, dondequiera que operen. Existe con independencia de la capacidad y/o voluntad de los Estados de cumplir sus propias obligaciones de derechos humanos y no reduce esas obligaciones. Se trata de una responsabilidad adicional a la de cumplir las leyes y normas nacionales de protección de los derechos humanos (ONU, 2011). 

La responsabilidad de respetar los derechos humanos exige la acción proactiva por parte de las entidades privadas. 

En tal sentido y siguiendo los Principios Rectores sobre Empresas y Derechos Humanos de las Naciones Unidas  tal deber implica: I) abstenerse de infringir los derechos humanos; ii) contar con un proceso de debida diligencia en materia de derechos humanos para identificar, prevenir, mitigar y rendir cuentas de cómo abordan su impacto sobre tales derechos, los cuales deben ser definidos en función de la gravedad de los riesgos e impactos implicados para los derechos humanos; iii) y mecanismos para remediar las vulneraciones en las que hayan incurrido.

El uso de sistemas de IA en la toma de decisiones plantea un desafío fundamental: asegurar que tales decisiones sean justas, transparentes y responsables. 

La supervisión y decisión humanas cumplen un papel fundamental para prevenir que las aplicaciones de los sistemas de IA puedan tener efectos negativos sobre los derechos de las personas. En aras de un uso de la IA ético y respetuoso de los derechos humanos los actores de la IAdeben asegurar que, cuando los sistemas de IA se utilicen para tomar decisiones o apoyar la toma de decisiones, siempre haya una supervisión humana sobre los resultados producidos por la IA, siendo pertinente considerar las características que debe tener dicha supervisión fundamentalmente en los sistemas de alto riesgo. Será un reto establecer controles sobre los datos y los sistemas, pero al igual que con los procesos automatizados utilizados antes del surgimiento de esta tecnología, es imperativo supervisar los resultados y asegurar su fiabilidad antes de tomar decisiones con base en ellos.

Otro aspecto de la gobernanza de la IA que particularmente requiere ser atendido bajo este principio rector es el desarrollo y uso de la inteligencia artificial en el campo de la neurotecnología.  En tal sentido, maximizar las oportunidades presentes y futuras implicadas en la neurotecnología para la humanidad, exige abordar los retos para los derechos humanos derivados de la convergencia, uso y desarrollo de la IA en este ámbito, tal y como ha sido planteado por el Comité experto Asesor del Consejo de Derechos Humanos en esta materia.

Aplicar el enfoque de derechos humanos a la gobernanza de la IA también exige maximizar las oportunidades de impacto positivo y abordar los riesgos diferenciados implicados para los grupos en situación de mayor vulnerabilidad. 

 

4 - Equidad y no discriminación

Los sistemas de IA deben ser desarrollados y utilizados de forma que se respete la igualdad, así como la prohibición de discriminación.

Con este fin los actores de la IA deben considerar durante todas las fases del ciclo de vida de los sistemas, las necesidades específicas y los impactos diferenciados en los grupos en situación de vulnerabilidad, incluyendo aquellos cuya situación puede verse potenciada por las características propias de los sistemas de IA y su aplicación en ámbitos específicos, tales como los niños, niñas y adolescentes, las personas mayores, y las personas en situación de discapacidad, entre otras.   

Asimismo, la implementación de este principio pone de manifiesto la importancia de la adopción de medidas proactivas para abordar las repercusiones de IA en relación con la igualdad de género y otras desigualdades estructurales. Tales medidas deben estar orientadas a evitar que los estereotipos y los sesgos discriminatorios debido a factores tales como el género, la identidad étnico-racial, la condición social, el origen nacional, entre otros, se vean reproducidos y/o perpetuados en los sistemas de IA y su aplicación.

Todos los actores de la IA deben trabajar colaborativamente para reducir la posibilidad de sesgos no deseados en los datos y modelos utilizados que puedan impactar de manera negativa en las personas, adoptando medidas que propendan a la calidad de los datos de entrenamiento y para ello es importante la diversidad e interdisciplinariedad de los equipos que participan en el diseño, desarrollo y monitoreo de estos sistemas. Con este mismo fin el sector público debe fomentar el desarrollo de modelos de IA que utilicen datos de calidad adoptando medidas que faciliten la apertura y el acceso a datos públicos que contribuyan a superar la subrepresentación estructural de diversos grupos de la sociedad.

Este principio abarca tanto a la discriminación basada en sesgo algorítmico, como la basada en sesgos de automatización, esto es, la tendencia humana a confiar excesivamente en el apoyo de algoritmos, incluso cuando estos cometen errores. 

Al implementar este principio, los actores del sector público deben velar en el ámbito de sus competencias por fomentar el acceso equitativo de todas las personas a los beneficios de las tecnologías de la IA, abordando las brechas digitales que habiliten el logro de ese objetivo. Asimismo, los esfuerzos que desarrollen el sector privado, las organizaciones de la sociedad civil y la academia son importantes para el logro de ese objetivo y deberían ser alentados.


5 - Protección y privacidad de los datos personales 

La protección y el respeto por la privacidad de los datos personales deben asegurarse desde el diseño y en todas las fases del ciclo de vida de los sistemas de IA. 

Para ello, los actores de la IA –del ámbito público o privado- deben garantizar que los datos que recopilen y utilicen, cumplan con la normativa vigente sobre protección y privacidad de datos personales, y los lineamientos de la Unidad Reguladora y de Control de Datos Personales (URCDP). Ello implica desde el cumplimiento de obligaciones formales como la inscripción de bases de datos o la notificación de vulneraciones de seguridad, hasta medidas de responsabilidad proactiva como la implementación de evaluaciones de impacto en la protección de datos personales, la designación de delegados de protección de datos, la adopción de medidas de privacidad por diseño y por defecto entre otros.

La transversalidad de los principios de la protección de datos contribuye a generar certeza en el uso de la información personal y de los sistemas de IA en particular, lo que se complementa con un conjunto de derechos que aportan a llevar transparencia a las actividades de tratamiento automatizado, y seguridad jurídica a los actores de la IA, entre otros. 

Los Principios de la Protección de Datos Personales establecidos por la Ley Nº 18.331 de 2008, de 11 de agosto de 2008, integran los principios de esta Estrategia, de conformidad con el artículo 74 de la Ley Nº 20.212, de 6 de noviembre de 2023. Estos principios, regulados en los artículos 5 a 12 de la Ley Nº 18.331 referida, son: legalidad, veracidad, finalidad, previo consentimiento informado, seguridad de los datos, reserva y responsabilidad –proactiva-.

 

6 - Transparencia y explicabilidad

La transparencia y explicabilidad cumplen un papel crucial para garantizar la efectividad de todos los principios anteriores. Los actores de la IA deben asegurar la transparencia y explicabilidad en relación con los sistemas de IA.  

Esto implica proporcionar información significativa adecuada al contexto y la situación específica, de manera equilibrada con la protección de otros derechos que puedan estar implicados. La información divulgada debe permitir que los resultados se hagan inteligibles y debe ser apropiada para habilitar que las personas puedan impugnarlos cuando se vean afectadas. 

Para ello deben asegurar que las personas sean informadas sobre el uso que se realiza de la IA y adoptar medidas que posibiliten la identificación de contenido generado por esta tecnología cuando sea técnicamente viable y apropiado.

En el caso específico del sector público, la implementación de este principio supone además que las entidades públicas que utilicen IA, ya sea en la entrega de servicios públicos o en el apoyo a la toma de decisiones, garanticen el acceso a la información pública respectiva, de conformidad con lo establecido por la Ley N° 18.381 de octubre de 2008 y sus decretos reglamentarios. 

La aplicación por los actores del sector público de la Ley N° 19.179 de 27 de diciembre de 2013, reglamentada por el Decreto N° 44/015, de 30 de enero de 2015, y la utilización de modelos de IA abiertos, también son elementos fundamentales para asegurar la transparencia y explicabilidad de los sistemas desarrollados, utilizados y adquiridos por el Estado.

 

7 - Responsabilidad y rendición de cuentas

Los actores de la IA deben ser responsables del correcto funcionamiento de los sistemas de IA y velar por que cumplan con todos los principios rectores.

De acuerdo con sus funciones, el contexto y el estado de la tecnología, deberán establecer los responsables y mecanismos para asegurar que sean auditables y la trazabilidad de los conjuntos de datos que utilicen. 

Los procesos de supervisión y rendición de cuentas deben ser transparentes para que el público y quienes utilizan los sistemas puedan ver cómo se están gestionando y supervisando.

Otro aspecto a considerar lo constituye la definición de los correspondientes ámbitos de responsabilidad de cada uno de los actores del sistema, a través de normas legales, reglamentarias o contractuales, cuando corresponda.

 

8 - Fiabilidad y seguridad

Los sistemas de IA deben ser fiables, seguros y resilientes, de forma que tengan capacidad para recuperarse en caso de fallos o ataques y generen resultados y acciones coherentes. Los actores de la IA deben asegurar que los sistemas de IA funcionen adecuadamente y no planteen riesgos en materia de seguridad, y cumplan con los principios de seguridad de la información desde el diseño.

Esto supone que deben adoptar medidas y procedimientos para asegurar la robustez y resiliencia de los sistemas, su actualización y mejora continua, la calidad de los datos, la precisión y consistencia de los modelos, la estabilidad de los sistemas, la transparencia y explicabilidad, la privacidad, la protección de datos personales y la seguridad frente a posibles ataques cibernéticos, así como su desarrollo y adopción bajo principios éticos.

Los lineamientos y la normativa relacionada con ciberseguridad vigentes en Uruguay que apliquen al desarrollo y uso de la IA se consideran parte de estos principios.

 

9 - Innovación responsable y segura

La implementación de estos principios debería realizarse sobre la base de la importancia que revisten la investigación y la innovación como factores clave para el desarrollo sostenible del país en sus diferentes dimensiones. 

La colaboración entre el sector público y privado, la academia y los centros de investigación y emprendimiento son esenciales para fomentar la innovación tecnológica orientada a potenciar y aprovechar los beneficios de la IA en favor de las personas y la sociedad. Igualmente lo son las redes de conocimiento y colaboración a nivel nacional e internacional.

La innovación responsable y segura en IA implica, entonces, desarrollar tecnologías alineadas con principios éticos y derechos humanos, incorporando medidas de seguridad y privacidad desde el diseño y durante todo el ciclo de vida, cumpliendo con regulaciones y adaptándose a cambios normativos. La innovación responsable implica también promover un impacto social positivo y evaluar y ajustar continuamente las innovaciones basándose en la retroalimentación para asegurar una implementación segura y ética.

 

10 - Múltiples partes interesadas

La gobernanza de la IA debe basarse en el enfoque de múltiples partes interesadas. 

Esto supone que debe avanzar con la participación del sector público, el sector privado, la sociedad civil, la comunidad técnica y la academia, entre otros actores, sustentada en un diseño institucional que contemple espacios y mecanismos que lo posibiliten.

Este principio es clave para habilitar una gobernanza de la IA en la que estén presentes distintas perspectivas, enfoques y disciplinas, e involucra una participación amplia, diversa e interdisciplinaria. 

Etiquetas