¿Es posible (des)racializar la IA y reapropiarse la tecnología?

Como venimos contando en artículos anteriores, a finales de mayo co-organizamos las JornadasDAR Democracia, Algoritmos y Resistencias con Algorace, Algorights y Lafede.cat. A lo largo de tres días pudimos disfrutar y aprender en ponencias y charlas alrededor de una inteligencia artificial más democrática, decolonial y respetuosa con los derechos humanos. Aquí encontrarás los resúmenes de las conversaciones que tuvieron lugar en el espacio Conciencia Afro de Madrid y recuerda que aquí puedes recuperar los vídeos al completo.

¿Cómo (des)racializar la inteligencia artificial? 

Ana Valdivia, Youssef M.Ouled, Javier Sánchez y Paula Guerra Cáceres, miembros del colectivo Algorace, abrieron la sesión de ponencias en Madrid con esta mesa. Durante su intervención, Paula Guerra Cáceres aseguraba que «la inteligencia artificial se encuentra en el marco de racismo estructural y hace desaparecer a la persona y la reemplaza por decisiones de acuerdo con patrones y prejuicios históricos”. 

¿Qué hay que hacer entonces para (des)racializar la IA? Según Guerra Cáceres “tenemos que hacer pedagogía sobre cómo nos afecta ésta y cuáles son las administraciones públicas y empresas que desarrollan estas tecnologías». Para desracializar la inteligencia artificial, Guerra Cáceres propuso algunas ideas: 

  • fomentar el debate del alcance del uso de la inteligencia artificial
  • saber qué uso están haciendo de estas tecnologías las administraciones públicas y empresas privadas
  • involucrar colectivos de personas afectadas por la inteligencia artificial
  • promover inclusión de personas racializadas en carreras vinculadas a la inteligencia artificial, por ejemplo con becas

Precisamente, según Algorace existe una hegemonía de perfiles blancos en los puestos técnicos que desarrollan la inteligencia artificial. Es por eso que dentro del colectivo se está elaborando una agenda de profesionales racializados, “porque hacen falta otras miradas para poder diseñar algoritmos más justos”, justificaba Sánchez. 

Otro de los puntos interesantes del trabajo de este colectivo y que acerca el conocimiento a un público general es el hecho de recopilar sistemas de inteligencia artificial problemáticos y explicarlos en lenguaje llano. Según Sánchez, además, desafían la filosofía tecnológica anglosajona y buscan casos más cercanos para que la gente se pueda sentir identificada con experiencias y lógicas europeas. 

«Tenemos que tener claro que la Inteligencia Artificial parte de un origen patriarcal y colonialista, al servicio de los poderosos”, aseguraba Valdivia. Como solución, Valdivia proponía que las organizaciones y movimientos sociales se reapropien la tecnología y los sistemas de inteligencia artificial y los usen en su beneficio. 

Si quieres conocer los apartados del informe en el que están trabajando Ana Valdivia y Javier Sánchez junto al resto del equipo de Algorace y las respuestas a las preguntas que lanzó el público te recomendamos que veas el vídeo completo aquí!

¿Cómo incorporar la perspectiva digital en una organización antirracista?

Conversación de Safia Oulmane de GHETT’UP con Miriam Hatibi de Algorace sobre los retos que tienen las organizaciones antirracistas para incorporar mecanismos digitales sin que supongan más riesgos para sus entidades y miembros. 

¿En qué ámbitos se centra GHETT’UP?

  • cambiar las narrativas acerca de las personas de clase trabajadora y que vive en las banlieues
  • empoderar a las personas jóvenes de esos barrios
  • abogar por la justicia social y ambiental
  • luchar contra el racismo

En la organización GHETT’UP, Oulmane explicó que también trabajan con el proyecto Justice, Equity and Technology de la London School of Economics and Political Science para entender el componente tecnológico dentro de la Ley de Securité Global en Francia propuesta en octubre de 2020. Una ley que, según ella misma explica, fue creada para dar más poder a la policía y “justificar el uso de drones en manifestaciones” entre otros.

Para Oulmane es fundamental hacer todo este trabajo para saber cómo les afecta en los barrios populares la relación entre la policía y la tecnología. Además, Oulmane explicó que están recabando datos sobre estos barrios para tener un relato propio. “Tenemos que explicar nuestra realidad directamente, si no, se nos acercan como si fuéramos un zoo. Es agotador el trabajo que hay detrás de la lucha en grupo, pero tenemos que crear nuestros propios datos y que no hablen de nosotros y nos estigmaticen”, aseguraba. 

Por otro lado, Oulmane destacó que además de luchar y resistir es importante mostrar cosas positivas de estos barrios y de su gente, para que “las nuevas generaciones se sientan orgullosas”. “Es un trabajo desgastante tanto a nivel físico como psicológico y todo esto hay que hacerlo en comunidad. No os rindáis, trabajad en equipo y recordad que los cuidados son política”, dijo Oulmane cuando Hatibi le preguntaba por la importancia de encontrar tiempo para cuidarse en la lucha antirracista.            

Conversación “Si queremos un futuro en libertad tenemos que reapropiarnos de la tecnología”

Al final de la tarde en Madrid y casi como colofón de las JornadasDAR dimos la bienvenida a Cinthya Rodriguez del colectivo Mijente. Un colectivo que se define como un nuevo hogar político para la organización Latinx y Chicanx.                       

Cinthya explicó las conexiones entre las grandes empresas tecnológicas y el departamento de inmigración de EEUU para la vigilancia y deportaciones de personas migrantes. Además presentó la campaña #NoTechforICE, que denuncia que las empresas tecnológicas crearon medios que permitían vigilancia, encarcelamiento y deportación de las comunidades migrantes. 

“Vemos que la tecnología que ha usado la policía para vigilar a personas indocumentadas es la que luego ha aplicado a toda la población. Hay que entender cómo funciona el sistema de migraciones y la policía, y luchar contra ambos».

¿Cómo construir un movimiento por un futuro libre de vigilancia?, se preguntaba Rodríguez. 

Como explicó Rodiguez, en Mijente se centran en aspectos como: 

  • quién vende los datos recopilados por los sistemas tecnológicos
  • qué compañías analizan los datos y qué hacen posteriormente con ellos
  • dónde se almacenan los datos y qué implicaciones tiene que haya data en la nube
  • cómo se generan los datos biométricos y qué pasa con las 200.000 personas en programas alternativos a la detención 
  • quién invierte en estas tecnologías de recopilación de datos y por qué lo hacen

Por último, Cinthya Rodriguez lanzó un mensaje de lucha y resistencia colectiva: «La manera en que vamos a ganar con la campaña #NoTechForICE es construyendo poder popular«.

Para terminar las #JornadasDAR, nos separamos por grupos para reflexionar sobre la decolonización de la IA, la democratización de la IA y el uso de IA en fronteras y en materia migratoria igual que hicimos el día anterior en Barcelona.

Recuerda que ya puedes ver todos los vídeos de las JornadasDAR: Democracia, Algoritmos y Resistencias y recuperar las intervenciones de los tres días.

¿Quieres recibir la agenda de Societat Oberta a tu correo?

Suscríbete