Lluita en comunitat, polítiques públiques transparents i agència estatal auditable

Com expliquem en els articles anteriors a finals de maig vam co-organitzar les JornadasDAR Democràcia, Algorismes i Resistències al costat d’Algorace, Algorights i Lafede.cat. Durant els tres dies que van durar les jornades vam tenir l’oportunitat d’escoltar ponències i xerrades al voltant d’una intel·ligència artificial més democràtica, decolonial i respectuosa amb els drets humans. En aquest cas compartim els resums de les sessions que van tenir lloc a Barcelona i aquí pots recuperar els vídeos complets.

Per què i com involucrar les comunitats més afectades per la Intel·ligència Artificial?

Una taula amb Safia Oulmane de GHETT’UP, Anna Colom de Democratic Society i Judith Membrives i Llorens del grup de treball de IA a Barcelona i del col·lectiu Algorights. Va estar moderada pel periodista Moha Gerehou.

Durant la conversa, Safia Oulmane va recalcar la importància de treballar en comunitat i trobar un equip amb el qual lluitar i no desistir. “Cal seguir, seguir i seguir. La generació més jove es fixa en nosaltres i podem ser un exemple per a una tecnologia més diversa i inclusiva”, va dir.

Anna Colom va compartir el concepte de “loteria cívica” que s’usa en democràcia deliberativa i consisteix en la participació en assemblees d’una mostra representativa de la població (barri, ciutat, país). Suposadament aquest sistema oferiria les mateixes oportunitats a tothom de participar i donar la seva opinió en processos ja que es trien persones a l’atzar d’unes llistes, però Colom posa en dubte la inclusivitat real d’aquest sistema.

En relació amb això i més específicament davant del dubte de com evitar que les polítiques públiques ens retornin discriminació, Colom va respondre: “S’han d’integrar els principis de justícia en la implementació d’aquestes polítiques i que hi hagi un espai de seguiment“.

Membrives i Llorens va fer èmfasi en el fet que a la tecnologia ha d’haver-hi diversitat, és una cosa imprescindible perquè hi hagi representació. I també va afegir que la formació és molt important per a entendre les implicacions de la IA, però també és imprescindible entendre els marcs narratius.

Participació ciutadana en la implementació de la intel·ligència artificial en el sector públic

Aquesta sessió va comptar amb la participació de Divij Joshi de l’Aliança OGP, Aidan Peppin de l’Ada Lovelace Institute, i Gemma Galdón de Fundación Éticas, i va estar moderada per Gala Pin.

Divij Joshi va fer un repàs per diferents experiències en les quals l’ús de la IA havia suposat discriminació i exclusió com:

  • l’ús d’un algorisme per a determinar les ajudes socials per part del govern holandès
  • el cas del govern britànic per a eliminar la selectivitat i permetre l’accés a la universitat generant una nota de tall a partir de diverses variables
  • l’ús del reconeixement facial per part dels cossos de seguretat que va revelar el moviment Black Lives Matter

Joshi va apuntar dues deficiències que es donen de manera recurrent a l’hora d’aplicar la transparència en procediments d’intel·ligència artificial. D’una banda està la qüestió tècnica, bé de dificultat o bé de coneixements. Per una altra, l’economia política de com s’implementa un algorisme. La pregunta és, segons Joshi, com la ciutadania pot participar en aquests espais. Per a això emfatitza la necessitat d’involucrar a la ciutadania des de l’inici, en els espais de rendició de comptes, però també de disseny.

En el cas de l’exemple explicat per Aidan Peppin, el Citizen Biometric Council, es tracta d’una pràctica per a abordar la qüestió del reconeixement facial. Peppin va explicar que els membres del consell van ser triats de manera aleatòria seguint diversos paràmetres per a garantir la diversitat del consell. Es tractava d’avaluar quan l’ús de dades biomètriques és adequat i quan no.

Del treball del consell van emergir diferents recomanacions i necessitats:

  • una regulació nova més contundent, fort
  • tenir un cos legal independent que supervisi el seu ús
  • tenir estàndards sobre l’ús d’aquesta mena de dades

En el cas d’Éticas, la primera entitat que proposa auditar algorismes en l’Estat espanyol, es desenvolupa una guia d’auditabilitat externa d’algorismes davant la dificultat de tancar un acord amb el govern per a auditar algorismes com el del programa VioGén. En el desenvolupament de l’auditoria externa d’aquest sistema van treure conclusions com que la policia delega en l’algorisme l’avaluació d’un possible cas de violència masclista.

Una idea potent que va sorgir en la taula és que el tecnosolucionisme no és la solució als problemes de les comunitats en situació de vulnerabilitat. I es va posar èmfasi en la resistència com a forma d’actuació.

Davant la pregunta de com com hauria de ser l’Agència estatal de supervisió d’intel·ligència artificial ideal per al seu bon funcionament, Joshi, Peppin i Galdón van respondre:

  • Ha de complir allò que es prometi després de la seva creació
  • Ha de tenir un punt de vista tècnic-social i una visió holística sobre l’algorisme.
  • És important saber a qui cal dirigir-se per a poder formalitzar una queixa.
  • Hauria de rendir comptes a les persones i a les comunitats que la *IA perjudica.
  • Hauria de ser supervisada per un ens extern.
  • Hauria de ser participativa i democràtica.
  • Que l’agència pugui inspeccionar i imposar sancions.
  • L’agència ha de tenir competències per a poder operar de manera efectiva.

Recorda que pots veure els vídeos d’aquestes trobades al nostre canal de Youtube!

Vols rebre l'agenda de Societat Oberta al teu correu?

Subscriu-te