Mesa de diálogo “Inteligencia Artificial: oportunidades y desafíos de una estrategia nacional”, Mujeres TI

Subgrupo: 4

  • Moderador: Andrés Pastorini Agesic
  • Relatora: Elena Machuca, Agesic
  • Participaron 11 (once) personas de 9 (nueve) empresas e instituciones.

Intercambio sobre alcance de la nueva estrategia

En esta sección se detallan los aportes en forma de resumen de ideas, de acuerdo a como fue registrada la relatoría.

Todas las participantes tuvieron espacio para compartir su visión, la cual se presenta a continuación en formato sintético no nominado.

Se proponen algunos disparadores para sintetizar los aportes emergentes

  • ¿Cómo llegar a todos y qué es lo que esto significa? Teniendo en cuenta las dificultades que presenta el ser inclusivo.
  • En la estrategia plantear consideraciones específicas respecto a:
    • Temas de sesgo. Tener en cuenta los inputs que se toman y el tipo de salidas que se generan. ¿Cómo cuidamos la información? ¿Quién es responsable de la inclusión de diferentes sectores en particular mujeres?
    • Inclusión. ¿Qué pasa con las personas que no quieran aportar sus datos o utilizar IA? Identificar por qué no se encuentran incluidos y analizar el impacto. ¿Se van a mantener los procesos no digitales, o qué se va a hacer para que no queden excluidos?
    • Uso. ¿Cómo van a ser utilizados los datos personales? Tener en cuenta el uso de la imagen, si se usan rasgos en aplicaciones virtuales. Que exista regulación, evaluación del impacto y como validar/fiscalizar que se cumpla con lo definido.
    • Gobierno. ¿Cuál es el rol del gobierno en este tema? ¿Cómo interviene? ¿Cómo se valida que el uso de los datos sea el adecuado? ¿Es garante el Estado de que los datos en general se usen acorde a la finalidad definida, teniendo especial consideración para el caso de datos sensibles?
      • Gobierno de datos. Tener en cuenta lo importante que es esto para cualquier sistema y en particular si se habla de datos personales u otros datos sensibles. ¿Cómo se va a gestionar/gobernar los datos y la información que se obtiene a través de ellos?

Es importante entender quién es el responsable del modelo de datos más allá de los datos en sí. También definir si los únicos responsables serán a nivel de gobierno o habrá comités integrados por representantes de la sociedad también. Parece algo bueno que el comité que defina el gobierno de datos no esté integrado por los dueños de los datos sino que esos sean roles diferentes.

  • Ética. Ver la posibilidad de contar con un comité de ética que evalúe más allá de los aspectos técnicos y valide los temas de inclusión. Se podría llegar a pensar en una especie de certificación sobre el uso ético de los datos (por ejemplo)
  • Respecto a la normativa:
    • Tener en cuenta si es posible normar sobre datos o algoritmos. ¿Cómo se entrenaron los algoritmos? ¿Con qué datos? ¿Qué reglas se siguieron? ¿Los datos se pagaron? ¿Se usaron con el fin solicitado?

Es necesario que haya normas que respalden cómo se usan los datos pero también tener en cuenta que si existe sobre - regulación para el uso de los datos podría atentar contra procesos por ejemplo de investigación, innovación, etc. Es necesario que exista un equilibrio. Hay que tener en cuenta la tensión que se genera entre el regular y exponer y cómo esto afecta los procesos de investigación.

  • Es muy importante la información sobre lo que es IA y cómo se usaría. Esta información debe llegar a la población en general porque hay temor con los temas de IA y de tecnología en general. Por esto la información debe ser sencilla, de fácil comprensión.
  • Debe haber procesos simultáneos de sensibilización y de capacitación sobre la temática. En la actualidad hay gente que no quiere aportar sus datos al censo porque no se siente confiada de cuál será el tratamiento que se dé a los mismos.

En general se identifica como IA a soluciones complejas como robots, etc., pero IA también implica cosas simples. Para que esto sea comprensible es importante la educación sobre la temática y la forma de pensarlo sería más como realizar una facilitación sobre el tema, muchas veces se confunden con soluciones de IA los modelos lineales que se desarrollan.

  • Siempre valorar el impacto de cómo afectan las decisiones a los derechos humanos en particular de las poblaciones minoritarias o excluidas (mujeres entre ellos) y demostrar cómo se entrenan los sistemas para no estar afectando derechos.
  • Los algoritmos no deberían ser oscuros en la mayor parte de los casos, pero cuando lo sean deben estar claras líneas de acción respecto a cómo proceder con este tipo de algoritmos y con los datos con que se entrenan.
    • Este tipo de algoritmos asociados a temas sensibles deberían contar con un aval humano multidisciplinario, integrado por minorías.
    • Tener en cuenta el uso ético de la tecnología. Sabemos que si esta es favorecedora al consumo impacta primero a la gente con más recursos pero por temas de seguridad, por ejemplo, es exactamente al revés. Es fundamental que se respeten los derechos de las personas sin importar las clases sociales ya que en general se publican los datos privados de las personas más vulnerables.
    • Es importante que se cuente y se mantenga el debido proceso por ejemplo si se va a usar la IA para definir la potencialidad de una persona de ser autora de un delito.
  • Es importante preservar la libertad de expresión versus las fake news. Ser cuidadoso con las burbujas que se crean en torno al pensamiento similar y que en algunos países la AI se utiliza para acallar voces que están en contra de la línea de gobierno de turno. Se debería regular respecto a fomentar la generación de desinformación.
  • Pensar en poder proveer plataformas y herramientas que permitan combatir distintos aspectos negativos como la generación de sesgos. Pensar si por ejemplo podrían llegar a proveerse bases de datos testeadas y probadas de forma que no contengan sesgos y que puedan servir para entrenamiento. Sabemos que esto tiene una dificultad asociada a como se usarán los datos y cómo es que estos se recaban.

También se sabe que existe una dificultad asociada a la capacidad de controlar la aplicación de la regulación y en garantizar la seguridad y privacidad de los datos.

Evaluar si podrán existir Sandboxes, datos sintéticos, etc., que faciliten los ambientes y datos de entrenamiento.

  • Es importante considerar aspectos de calidad no solamente asociada al comportamiento de los algoritmos sino también asociada a las fuentes de datos, tanto para el entrenamiento de algoritmos como para la construcción de modelos. Tener en cuenta para determinar aspectos vinculados a la calidad de una solución identificar cuál sería la fuente de los datos, cuál es su calidad, cómo se construyó esa base de datos, qué utilizó para entrenamiento, si es una base creada desde cero o parte de bases existentes, cuál es el contexto en que fue creada esa base y qué rango de datos abarca.
  • Seguridad y privacidad. Trabajar entre otros temas en suplantación de identidades y ver si es posible tomar resguardos para el caso de los menores y que se puedan generar alertas en este sentido. Al mismo tiempo tener cuidado y mantener un equilibrio con los temas de seguridad para que no se realicen controles innecesarios.

Líneas de acción identificadas

A continuación, se detallan las principales líneas de acción identificadas agrupadas por ejes temáticos:

Eje 1 - Ética

  • Inclusión y sesgo – a quiénes comprende y a quiénes no. No solo considerar la ciudadanía digital, sino tener en cuenta a aquellos ciudadanos que no quieren integrarse.
  • Contar con un comité de ética que vea más allá de los aspectos técnicos y valide los temas de inclusión teniendo en cuenta distintos aspectos.

Eje 2 - Gobierno de datos

  • En qué y cómo interviene el gobierno.
  • Cómo se valida el uso adecuado de los datos acorde a la finalidad definida
  • Quién vela por los temas de sesgo

Eje 3 - Regulación

  • Reglamentar el uso de las bases y algoritmos en temas sensibles
  • Protección y uso de los datos personales
  • Normar como se auditan los algoritmos y los datos usados para su entrenamiento.
  • Cómo se valida el uso adecuado de los datos acorde a la finalidad definida

Eje 4 - Transparencia

  • Evitar sesgos y preservar los derechos humanos.
  • Cuando se usan algoritmos oscuros poder demostrar cómo se realizó el entrenamiento.
  • Ver la posibilidad que los algoritmos puedan tener algún tipo de validación realizada por equipos multidisciplinarios, integrados por representantes de grupos minoritarios.

Eje 5 - Sensibilización y capacitación

  • Campañas de información de forma sencilla y de fácil comprensión.
  • Capacitación en forma temprana sobre la temática

Eje 6 - Uso de los datos e IA

  • Uso ético de los datos
  • Velar por el debido proceso, ser cuidadosos en el uso de IA.

Eje 7 - Privacidad y seguridad

  • Equilibrio en los temas de privacidad y seguridad.
  • Qué tipo de garantías se deben brindar
  • Responsabilidades que se deben asumir

Eje 8 - Plataformas y herramientas

  • Evaluar si se pueden proveer datos libres de sesgo
  • Herramientas para brindar capacidad de control sobre el cumplimiento de la regulación y normativa.
  • Creación de guías y modelos de buenas prácticas respecto a cuáles serían las fuentes de datos adecuadas, cómo fueron obtenidos los datos y cuáles serían los usos aconsejados de IA y cuáles no.
  • Sesgos en algoritmos y bases de datos versus  equipos diversos y equilibrados
  • Alcance (ciudadanía digital o compuesta)
    • Quien no quiere estar
    • Quien no está
    • Quien no va a estar
  • Transparencia
    • Bases de datos
    • Algoritmos
    • Uso
      • Quién
      • Cómo
      • Cuándo
      • Contralor independiente no gubernamental humano y diverso
    • Sello de calidad
      • Normativa y estándares
      • Regular
      • Desinformación
    • Riesgo de sobrelegislar y riesgo de exposición (cómo impacta la investigación)
  • Privacidad y seguridad
    • Ownership
    • Gestión
    • Garantías
    • Imagen y suplantación de identidad
  • Educación/sensibilización – Desmistificar
  • Ética
    • Tecnología
    • Personas vulnerables y más expuestas
  • Garantía de DDHH
    • Igualdad
    • Debido proceso
    • Libertad de expresión
    • Privacidad
    • Protección de infancias

Etiquetas