Recomendaciones sobre transparencia algorítmica

Evaluación de impacto

Durante toda la ejecución de los proyectos o casos de aplicación inteligencia artificial en los que se involucran datos personales, los organismos deben realizar la evaluación de impacto en la protección de estos datos, de acuerdo a lo dispuesto en el Decreto 64/020.

Además, se recomienda realizar una evaluación de impacto algorítmico. En ambos casos, se busca identificar los riesgos y su tratamiento, tener en consideración el marco de referencia a cumplir y las acciones asociadas. 

Se sugiere considerar estos métodos de evaluación y otros métodos existentes.

Conjunto mínimo de métodos a considerar

Para la evaluación de impacto se proponen dos herramientas para el análisis y la determinación de los pasos a seguir en la evaluación del impacto del sistema.

Una de ellas es la Guía de evaluación de impacto en la Protección de Datos (URCDP, 2020) de la Unidad Reguladora y de Control de Datos Personales (URCDP), que orienta a los organismos a identificar y tratar los riesgos que pueden producirse cuando involucran el tratamiento de datos personales.

Otra es la Guía para la evaluación del Estudio de Impacto Algorítmico (EIA) (AGESIC, 2020) de Agesic, para la identificación y reflexión sobre aspectos importantes al desarrollar sistemas, en particular sistemas con cierto grado de automatización. En su aplicación, permite a las organizaciones, tanto públicas como privadas, comprender mejor cómo afectan estos sistemas a las personas y a tomar medidas adecuadas para garantizar el uso responsable y transparente considerando su efecto en la sociedad.

Aunque ambas guías no son aplicables exclusivamente para sistemas de inteligencia artificial, son herramientas que pueden aplicarse en el estudio de estos sistemas.

Etiquetas