Charla de Café

Primera Charla de Café: “Protección de Datos en Inteligencia Artificial”

El 20 de abril se realizó la primera edición del año del ciclo Charlas de Café.
De derecha a izquierda: Gonzalo Sosa, Eduardo Bertoni, Felipe Rotondo, Maximiliano Maneiro

El panel estuvo integrado por Eduardo Bertoni, representante y coordinador de la Oficina Regional para América del Sur del Instituto Interamericano de Derechos Humanos; Maximiliano Maneiro, gerente de la División Tecnologías Emergentes de Agesic; Felipe Rotondo, miembro del Consejo Ejecutivo de la URCDP; y fue moderado por Gonzalo Sosa, coordinador de la URCDP.

En su exposición, Eduardo Bertoni destacó cuatro documentos relacionados con la Inteligencia Artificial (IA) elaborados por diferentes organizaciones con el objetivo de guiar y realizar recomendaciones en el uso de esta tecnología.

El primero fue realizado por el Consejo de Derechos Humanos de Naciones Unidas, denominado Impacto, oportunidades y retos que pueden tener las tecnologías digitales nuevas y emergentes con relación a la promoción y protección de derechos humanos”. 

El segundo fue creado por el Banco Interamericano de Desarrollo (BID) y se titula “Uso responsable de la inteligencia artificial para políticas públicas”. El objetivo de este documento es ayudar a los responsables de formular proyectos con IA durante su conceptualización y diseño, así como a liderar posteriormente su ejecución y monitoreo.

El tercero pertenece a la Red Iberoamericana de Protección de Datos Personales y engloba recomendaciones generales y una guía interpretativa. El cuarto documento al que hizo referencia Bertoni proviene del Centro Académico para la IA y la Política Digital y se trata de un ranking de IA y valores democráticos.

Por su parte, Maximiliano Maneiro presentó la Estrategia de Inteligencia Artificial para el Gobierno Digital que elaboró Agesic, desarrollada con el propósito de promover y fortalecer su uso responsable en la Administración Pública.

Maneiro hizo especial hincapié en la incorporación del principio de la privacidad por diseño de la Estrategia que prevé que las soluciones de IA contemplen desde su diseño la privacidad de las personas.

También se refirió a la Guía para la evaluación del Estudio de Impacto Algorítmico que es una herramienta que permite analizar y evaluar los tipos de sistemas que usan aprendizaje automático en las organizaciones.

Por último, Gonzalo Sosa complementó la presentación de la Estrategia de Inteligencia Artificial para el Gobierno Digital e indicó que además del principio de privacidad por defecto, se incluyó el respeto a los derechos humanos y al cumplimiento de los principios de la protección de datos. Además, repasó la normativa nacional de protección de datos aplicable a la IA haciendo especial énfasis en la responsabilidad proactiva y en la necesidad de la realización de evaluaciones de impacto.

 

Enlaces de interés:

 

Etiquetas