Ana Valdivia, Youssef M.Ouled, Javier Sánchez i Paula Guerra Cáceres, membres del col·lectiu Algorace, van obrir la sessió de ponències a Madrid de les JornadasDAR amb aquesta taula. A l’inici de la taula, Guerra Cáceres esmentava les tres dimensions en les quals s’emmarca el racisme: la institucional, la social i la individual, i recordava la definició del concepte de racialització i les connotacions que té normalment segons si es refereix a persones blanques o no.
Paula Guerra Cáceres assegurava que “la intel·ligència artificial es troba en el marc de racisme estructural i fa desaparèixer la persona i la reemplaça per decisions d’acord amb patrons i prejudicis històrics”.
Què cal fer llavors per a (des)racialitzar la IA? Segons Guerra Cáceres “hem de fer pedagogia sobre com ens afecta la intel·ligència artificial i quines són les administracions públiques i empreses que desenvolupen aquestes tecnologies”. Per a desracialitzar la intel·ligència artificial, Guerra Cáceres va proposar algunes idees:
- fomentar el debat de l’abast de l’ús de IA
- saber quin ús estan fent d’aquestes tecnologies les administracions públiques i empreses privades
- involucrar col·lectius de persones afectades per la IA
- promoure inclusió de persones racialitzades en carreres vinculades a la IA, per exemple amb beques
Precisament, segons Algorace existeix una hegemonia de perfils blancs en els llocs tècnics que desenvolupen la intel·ligència artificial. És per això que dins del col·lectiu s’està elaborant una agenda de professionals racialitzats, “perquè fan falta altres mirades per a poder dissenyar algorismes més justos”, justificava Sánchez.
Un altre dels punts interessants del treball d’aquest col·lectiu i que acosta el coneixement a un públic general és el fet de recopilar sistemes d’intel·ligència artificial problemàtics i explicar-los en llenguatge planer. Segons Sánchez, a més, desafien la filosofia tecnològica anglosaxona i busquen casos més pròxims perquè la gent es pugui sentir identificada amb experiències i lògiques europees.
“És important recordar que la intel·ligència artificial no entén de contextos i fa una lectura simplificada dels fets, només entén zeros i uns”, alertava Sánchez. Al seu torn, Valdivia exposava el cas d’un formulari racista de l’Ertzaintza utilitzat per a valorar el risc que tenien les supervivents de violència masclista de ser agredides de nou pel seu agressor. El qüestionari funcionava amb puntuació segons les respostes de les dones i en aquest es valorava major risc en cas que l’agressor fora d’origen migrant, quan les estadístiques a l’Estat espanyol mostren que els agressors són majoritàriament locals.
“Hem de tenir clar que la Intel·ligència Artificial part d’un origen patriarcal i colonialista, al servei dels poderosos”, assegurava Valdivia. Com a solució, proposava que les organitzacions i moviments socials es reapropiïn la tecnologia i els sistemes d’intel·ligència artificial i els usin en el seu benefici.
Si vols conèixer els apartats de l’informe en el qual estan treballant Ana Valdivia i Javier Sánchez al costat de la resta de l’equip d’Algorace i les respostes a les preguntes que va llançar el públic et recomanem que vegis el vídeo complet aquí!
Llegeix tots els resums de les #JornadasDAR aquí!