Subgrupo 5
Moderador: Andrés Pastorini, Agesic
Relatora: Janina Tiscornia, Agesic
Participaron 14 (catorce) personas de 9 (nueve) Instituciones públicas, Organizaciones de la Sociedad Civil, Academia y/o Sector Privado.
Resumen del Intercambio realizado en las diferentes rondas de conversación
Agesic - Mauro Ríos (Institución Pública)
Indica que el Estado tiene que ver hacía donde va a ir la IA y establecer un nuevo contrato social, por lo que destaca que las carreras a futuro deberían centrarse más en lo ético (Ejemplo: Filosofía, Ciencias Sociales, Derecho, etc.) y no tanto en lo informático. Agrega que hay mucho marketing sobre el tema, eso genera confusión y hay que evitar caer en lo comercial. Es importante saber diferenciar el automatismo con la IA.
Hay que regular servicios de forma neutra y no tecnología, para evitar que se cree una ley y quede obsoleta en poco tiempo, considerando que en nuestro país se tarda la aprobación de leyes. Es importante ver el tema de culpabilidad en caso de incidentes, por eso el ser humano debe intervenir en la IA para ver quién es responsable.
Agesic - Maximiliano Maneiro (Institución Pública)
Admite que se debe generar mayor difusión en las estrategias y en los contenidos creados en la Agencia sobre el tema. Actualmente se están realizando maestrías y cursos para los empleados públicos, pero habría que pensar en capacitación hacía la ciudadanía.
Con respecto a la regulación, ya hay una construcción y lo ético se debe aplicar desde el vamos. Actualmente la IA sirve para que se investigue, se entienda y se conozca para ver que impactos genera. Hay que ser “determinista” y buscar mecanismos para trasparentar su aplicación.
URCDP - Beatriz Rodríguez (Institución Pública)
La unidad está en constante participación con la IA, brinda capacitaciones a funcionarios, estudiantes de Derecho, se busca brindar conocimiento para dar a conocer sobre la regulación en datos biométricos, evaluaciones con algoritmos, etc.
Un punto a considerar importante es la transparencia sobre la protección de datos.
BPS - Andrea Ferraz (Institución Pública)
Hace hincapié en la falta de capacitación ya que a nivel general no saben de qué trata la IA. Agrega que los organismos deberían capacitar a los funcionarios de diferentes áreas para que se pueda aplicar, pero también destaca la importancia de que exista una carrera específica.
Por otra parte, es importante que realicen auditorias en las reglas y de cómo se van definiendo los algoritmos.
BSE - Krizia Osterkamp (Institución pública)
Menciona que en su área recolectan datos y consideran que hay herramientas que podrían aplicar, pero aún no se pueden implementar porque primero los organismos deben tomar los recaudos para garantizar la seguridad de datos de los pacientes. Plantea que la capacitación a todo nivel, técnico y no técnico, es un punto clave como medio para intentar mitigar la generación de brechas sobre la IA y sus posibles usos. Considera que hay un gran potencial, pero no se puede aplicar por las aprobaciones dentro del Estado.
BSE - Isabel Chiossi (Institución pública)
Manifiesta que hay que brindar capacitaciones para enfrentar el futuro, a su vez al adquirir conocimiento se podrían utilizar herramientas y evitar el rechazo del uso de la IA. Marcó las siguientes interrogantes; ¿para qué se usan los datos? ¿La IA suple el trabajo humano? ¿Cuál sería su uso y para que nos sería útil? Regularlo para proteger y cuidar.
Destaca que es algo que avanza constantemente y que en Uruguay se podría legislar y perder vigencia al poco tiempo.
Poder Legislativo - Cámara de Senadores- Caterina Di Salvatore (Institución pública)
Se debe considerar capacitación a nivel técnico, pero también a las autoridades para que se involucren en el tema y que estemos alineados. También menciona que se debe evaluar el aspecto ético, si es constructivo, positivo que aporte a la democracia y que no haya un interés detrás.
Brindar presupuesto para elaborar estrategias.
DGI - Alejandra Carratu (Institución pública)
Tiene conocimiento de las estrategias y las comparte con el grupo.
Considera que hay que pensar en pilares fuertes de estrategia para la regulación y monitorear constantemente para ver si la estrategia que cumplen es viable, también evaluar riesgos y monitorearlos.
Generar alineamientos para sectores públicos y privados.
DGI - Carlos Vidal (Institución pública)
Comenta que no conoce casos prácticos en Uruguay donde se haya realizado una aplicación de IA en forma exitosa. Remarca que la misma debe utilizarse de forma responsable ya que según lo que se conversó, los resultados pueden no ser del todo ciertos por tanto puede llevar a la toma de decisiones incorrectas, con las consecuencias que esto puede llegar a tener.
Agrega que la DGI, por tratarse de un organismo en donde la información juega un rol muy importante, debe ser tratada con un nivel de seguridad acorde. Además, como Administración Tributaria están alcanzados por el secreto tributario, lo que implica que cualquier uso indebido o fuga de información puede representar un problema serio a nivel institucional.
Entre otras cosas, la normativa vigente hace que deban tener su propio Data Center y que la información resida en sus instalaciones, con la consecuencia que se ven imposibilitados de la utilización de la nube pública.
Esto hace que sea más relevante dar a conocer los beneficios que tendrían el organismo y los usuarios (ciudadanos) en la implementación de su uso.
El tema presupuestal es un aspecto muy importante a considerar debido al volumen que este puede llegar a tener. Los proyectos de IA requieren una inversión fuerte en tecnología tanto a nivel de hardware como de software, así como la contratación de consultorías y/o personal con conocimientos necesarios. Si se tiene en cuenta que el presupuesto actual está bastante ajustado a necesidades de la Administración, cualquier iniciativa de este estilo requiere de un nivel importante financiación adicional.
MIEM - DNPI - Martin Aguiar (Institución pública)
Menciona que no hay ejemplos sobre el uso de la IA, lo que genera incertidumbre sobre si perjudica o no la trasparencia de datos.
Visualiza viable para aplicar analíticas de datos, en patentar ideas ya que un usuario podría consultar si ya existe la patente o brindar posibles mejoras, siempre y cuando no se pierdan fuente de empleo.
Agrega que se debería capacitar a los funcionarios.
IMC - Patricia Bentancur (Institución pública)
Al no contar con información genera miedos y/o dudas sobre el uso de la IA. Hay que brindar conocimientos de diferentes formas, para evitar el rechazo de su uso.
Con respecto a la regulación se nutre de mucha información por lo que se debería ver que es viable.
MDN - Gabriela Taibo (Institución pública)
Preocupa la seguridad de datos al utilizar la IA, saber qué ocurre cuando se ingresa información a determinada herramienta.
Hay una incertidumbre con respecto a la reducción de puestos de trabajos en caso de implementarse, por lo que es importante brindar capacitaciones desde diferentes áreas, sobre todo a los altos mandos para que también puedan utilizarla.
Udelar – FIng - Federico Lecumberry (Institución pública)
Solicita mayor difusión de contenido que brinda la Agencia.
Cómo docente menciona que desde la FING se están implementando cursos y maestrías con respecto a la IA para ofrecer un camino de información.
Agrega que es importante evaluar el impacto una vez aplicada, ver la finalidad (hacía donde apunta) y destaca que se debería considerar a la IA como un servicio con intervención del individuo generando que haya alguien responsable de la herramienta.
Hace hincapié en que debe considerarse una inversión que abarque varios niveles como, por ejemplo:
un plan de capacitación
una infraestructura centralizada
que exista soberanía sobre las herramientas implementadas y
preservar la diversidad y respaldo para llevar adelante la IA.
Udelar – FIng - Aiala Rosá (Institución pública)
Desde la FING cuentan con cursos, capacitaciones y maestrías para acceder. Algunas son sin costos otras con costo, les gustaría que desde Agesic se logre un convenio para seguir avanzando en el conocimiento y aprendizaje.
Agrega que al utilizar las herramientas se podrían sacar porcentajes y visualizar errores para poder mejorar. Considera que el uso de la IA debería ser una especie de asistente de información, análisis, etc. pero que el ser humano tome la decisión final.