¿Cómo (des)racializar la inteligencia artificial?

Ana Valdivia, Youssef M.Ouled, Javier Sánchez y Paula Guerra Cáceres, miembros del colectivo Algorace, abrieron la sesión de ponencias en Madrid con esta mesa. Al inicio de la mesa, Guerra Cáceres mencionaba las tres dimensiones en las que se enmarca el racismo: la institucional, la social y la individual y recordaba la definición del concepto de racialización y las connotaciones que tiene normalmente según si se refiere a personas blancas o no

En esta línea, Paula Guerra Cáceres aseguraba que «la inteligencia artificial se encuentra en el marco de racismo estructural y hace desaparecer a la persona y la reemplaza por decisiones de acuerdo con patrones y prejuicios históricos”. ¿Qué hay que hacer entonces para (des)racializar la IA?

Según Guerra Cáceres “tenemos que hacer pedagogía sobre cómo nos afecta ésta y cuáles son las administraciones públicas y empresas que desarrollan estas tecnologías». Para desracializar la inteligencia artificial, Guerra Cáceres propuso algunas ideas: 

  • fomentar el debate del alcance del uso de la inteligencia artificial
  • saber qué uso están haciendo de estas tecnologías las administraciones públicas y empresas privadas
  • involucrar colectivos de personas afectadas por la inteligencia artificial
  • promover inclusión de personas racializadas en carreras vinculadas a la inteligencia artificial, por ejemplo con becas

Precisamente, según Algorace existe una hegemonía de perfiles blancos en los puestos técnicos que desarrollan la inteligencia artificial. Es por eso que desde Algorace se está elaborando una agenda de profesionales racializados, “porque hacen falta otras miradas para poder diseñar algoritmos más justos”, justificaba Sánchez. 

Otro de los puntos interesantes del trabajo de este colectivo y que acerca el conocimiento a un público general es el hecho de recopilar sistemas de inteligencia artificial problemáticos y explicarlos en lenguaje llano. Según Sánchez, además, desafían la filosofía tecnológica anglosajona y buscan casos más cercanos para que la gente se pueda sentir identificada con experiencias y lógicas europeas. 

“Es importante recordar que la inteligencia artificial no entiende de contextos y hace una lectura simplificada de los hechos, sólo entiende ceros y unos”, alertaba Sánchez. A su vez, Valdivia exponía el caso de un formulario racista de la Ertzaintza utilizado para valorar el riesgo que tenían las supervivientes de violencia machista de ser agredidas de nuevo por su agresor. El cuestionario funcionaba con puntuación según las respuestas de las mujeres y en éste se valoraba mayor riesgo en caso de que el agresor fuera de origen migrante, cuando las estadísticas en el Estado español muestran que los agresores son mayoritariamente locales. 

«Tenemos que tener claro que la Inteligencia Artificial parte de un origen patriarcal y colonialista, al servicio de los poderosos”, aseguraba Valdivia. Como solución, proponía que las organizaciones y movimientos sociales se reapropien la tecnología y los sistemas de inteligencia artificial y los usen en su beneficio. 

Si quieres conocer los apartados del informe en el que están trabajando Ana Valdivia y Javier Sánchez junto al resto del equipo de Algorace y las respuestas a las preguntas que lanzó el público te recomendamos que veas el vídeo completo aquí.

¡Lee todos los resúmenes de las #JornadasDAR aquí!

¿Quieres recibir la agenda de Societat Oberta a tu correo?

Suscríbete