Taula #2 Exclusió social automatitzada. Com evitar-la?

Els sistemes d’Intel·ligència Artificial poden reproduir i fins i tot perpetuar models injustos. Això pot deure’s a errors en diferents estrats del seu disseny i a idees o prejudicis preconcebuts. Per a evitar biaixos és imprescindible reclamar i assegurar la transparència de tots els passos de la creació dels algorismes, des de la seva definició a la rendició de comptes dels seus resultats, passant pel seu disseny i posada en marxa.

En la segona taula de la jornada Intel·ligència Artificial i DDHH: Riscos i Oportunitats vam comptar amb les intervencions de Gabriel González, de Fundació Esplai Ciutadania Compromesa, Javier Sánchez, investigador de la Universitat de Còrdova i Data Justice Lab; amb Sara Suárez-Gonzalo, investigadora a la Universitat Pompeu Fabra; i amb Irene Parra, responsable de comunicació de m4Social.

És possible dir que la Intel·ligència Artificial és un agent de canvi?

“Llançar una moneda a l’aire té la mateixa capacitat predictiva que la Intel·ligència Artificial fent prediccions de comportament individual sobre la base de dades estadístiques”, afirmava Javier Sánchez.

En efecte, l’estadística ofereix garanties per a descriure i predir amb major o menor precisió un comportament determinat a nivell de població, però no a nivell individual. “Actualment, s’usen eines poblacionals per a analitzar casos individuals, la qual cosa és erroni”, recordava Sánchez. I, a més, va afegir una qüestió important com és a qui van dirigides aquestes eines de predicció. “Es tendeix a vigilar a persones migrants o racializadas, comunitats en risc d’exclusió social o famílies amb baixos ingressos. Rarament s’usen per a localitzar i monitorar la delinqüència financera i a criminals de coll blanc”.

Com evitar els problemes de biaix i injustícia en els sistemes amb IA?

“Usar tecnologies com la IA no resol qualsevol tipus de problema, i, d’altra banda, sovint la introducció de la IA suposa restar altres recursos econòmics i tècnics, però també reduir l’atenció humana a aquests problemes”, assegurava Sara Suárez-Gonzalo. A més, la investigadora recalcava que “no és bo que el criteri que prevalgui en un estat del benestar, i en concret en relació als serveis socials, sigui l’eficiència ”.

Per a evitar els efectes indesitjats dels sistemes de IA que comentava Sánchez, Sara Suárez-Gonzalo proposa a les organitzacions socials i el conjunt de la ciutadania que se centrin en:

  1. Entendre la lògica bàsica del funcionament de la IA
  2. Desmitificar i deselititzar la IA
  3. Fomentar la participació social de la ciutadania

Per a què serveix introduir algorismes en l’àmbit dels serveis socials? Davant aquesta pregunta, Suárez-Gonzalo va alertar que actualment el seu ús respon a una motivació per augmentar l’eficiència dels processos en els quals s’insereix i obtenir un cert estalvi econòmic, a més de guiar-se per la suposada objectivitat de la tècnica.

Com conjugar l’eficiència i l’empatia quan usem IA en el servei social?

“És necessària una gran dosi d’empatia que asseguri que s’inclouen criteris d’imparcialitat per a un tracte equitatiu, de confiabilitat i seguretat, privacitat, governança i inclusivitat per a no deixar a ningú al marge, i transparència que asseguri que es conegui la finalitat dels objectius de la IA, el seu funcionament i les seves limitacions”. Així resumia Gabriel González els reptes de la integració dels algorismes i tecnologies en el sector social.

González també va ressaltar que el sector es va donant compte que es pot beneficiar de la tecnologia digital i l’atenció a les persones ha d’incloure-la en els seus processos, especialment quan el món està en plena acceleració de la transformació digital. Fan falta recursos, formació -o aprenentatge-, i sobretot acompanyament en aquest procés estratègic.

Enllaços relacionats d’interès comentats durant la taula:

No et perdis el resum de la primera taula de la jornada, sobre securitización i fronteres!

Vols rebre l'agenda de Societat Oberta al teu correu?

Subscriu-te