Democratización, luchas colectivas y decolonización de la tecnología

El pasado mes de mayo co-organizamos las JornadasDAR Democracia, Algoritmos y Resistencias con Algorace, Algorights y Lafede.cat. Durante tres días nos reunimos en encuentros presenciales y en línea para trabajar por una inteligencia artificial más democrática, decolonial y respetuosa con los derechos humanos. Aquí compartimos un resumen del primer día, que se desarrolló online y contó con intervenciones interesantísimas que no te puedes perder. Además, ¡aquí puedes recuperar el vídeo completo!

Democratizar la Inteligencia Artificial en un contexto de ebullición política

Lucia Errandonea, como miembro parte de Algorights, reflexionó sobre cómo democratizar el uso de la inteligencia artificial e involucrar a la ciudadanía en el proceso de diseño. ¿Es posible? ¿Qué hace falta para conseguirlo? «La inteligencia artificial interviene en más aspectos de nuestra vida de los que pensamos. Pensemos sino en la evaluación de riesgo automática en el campo penal, en el perfilamiento racial, el protocolo RisCanvi”, recordaba. 

“Partiendo de la idea de que la tecnología no es neutral, es necesario tener a una sociedad informada desde una perspectiva global y crítica para garantizar los derechos humanos. Saber qué tipo de algoritmo se implementa, quién lo hace, con qué fin y cuánto cuesta es clave para velar por la transparencia de las instituciones”, añadió Errandonea.

“También es importante el papel de la ciudadanía en el desarrollo de la inteligencia artificial y su diseño. Hay que crear mecanismos de inclusión que aseguren la transparencia y legitimidad y también reparar el posible daño causado por decisiones automatizadas y así promover la justicia algorítmica”, proseguía. 

¿Entonces, cuál es la solución para la democratización de la IA? “El camino es promoviendo espacios de lucha conjunta”, concluyó Errandonea.

¿Cómo hackea la sociedad civil las desigualdades del sistema?

En estos últimos años el desarrollo de sistemas de inteligencia artificial y automatización ha aumentado, pero aún así es una cuestión que se le resiste a muchas organizaciones debido a una cultura digital precaria y la mistificación del relato de la IA. En esta mesa, moderada por Montse Santolino de Lafede.cat, se presentaron algunas experiencias e iniciativas de organizaciones y colectivos que han identificado la violación de derechos humanos relacionada con las tecnologías. 

Alberto Álvarez (Tito) – Observatorio Trabajo Algoritmo y Sociedad

Desde Élite Taxi se rodearon de varios expertos en inteligencia artificial para identificar qué tipo de plataformas de contratación de taxis realizan prácticas abusivas. Han realizado algunos estudios ya al respecto y han creado un algoritmo que vigila los precios de las carreras en la Costa del Sol y Madrid. Según Álvarez, “nos encontramos en la era del fascismo digital”, y reconoce que además de abogados para defender los derechos ahora hacen falta perfiles informáticos para observar y detectar irregularidades algorítmicas. Álvarez añadió además que “la administración va muy lenta y la tecnología va muy rápida”, por lo que denunció la falta de apoyo económico y reclamó la creación de una agencia de regulación y también de redes para avanzar en la lucha por los derechos de los taxistas incluso a nivel europeo. 

Simona Levi – XNET

Levi lamentó que el software libre no pueda competir en usabilidad con las plataformas de las big tech. “Hay una dejadez de funciones por parte de las instituciones ya que no invierten en código ni regulan el uso de estas plataformas en el ámbito digital”. 

“Las instituciones deben obligarse a ser digitalizadas por códigos públicos y abiertos para crear trabajo y que sean auditables”, insistió Levi. En este sentido, compartió los casos de escuelas en Cataluña que están dentro de una prueba piloto en la que hacen uso de software libre en sus aulas.

Youssef M. Ouled – Fronteras Digitales

“Hay que dejar de hablar de fronteras inteligentes y hablar de fronteras digitales”, apuntaba Ouled. En diciembre de 2021, a través de los medios de comunicación se supo que el gobierno español quería implementar fronteras digitales en Ceuta y Melilla mediante reconocimiento facial y huellas digitales y con un presupuesto de más de 220 millones de euros, según Fronteras Digitales. Ante esto, más de 80 organizaciones firmaron un manifiesto en el que señalaron “la violación de varios derechos humanos y que esta automatización refuerza la lógica racial y colonial de la UE”. 

Ouled lamentó que, a pesar de las peticiones de las organizaciones y algunos partidos de izquierdas de transparencia en estos sistemas, este tipo de iniciativas no están siendo suficientes para paliar este tipo de prácticas que vulneran los derechos humanos en frontera.

¿Qué le piden a la Agencia Estatal de Supervisión de Inteligencia Artificial (AESIA)?

  • Alberto Álvarez: Mucho control, que no se pueda “traficar con los datos”
  • Simona Levi: Aumentar la participación y que los parlamentos sean abiertos a mayor número de personas posible. Transparencia y auditable cuando los fondos que se reciben para su creación son públicos. 
  • Youssef M.Ouled: La participación activa de la sociedad civil, que realmente audite y ponga su foco en el uso de fronteras digitales en la frontera sur.

Decolonizando los derechos digitales: una mirada global con una acción inmediata

En esta conversación entre Paola Ricaurte y Paula de la Hoz, moderada por Oyidiya Oji Palino, se reflexionó sobre las implicaciones de la tecnología, la semántica que la rodea y los cuidados olvidados.

“Hablaría primero de decolonizar los derechos humanos, en general, para expandir agendas y considerar luego otros aspectos fundamentales. La mediación algorítmica pasa a ser una herramienta del estado para automatizar la opresión”, apuntaba Ricaurte. 

Por su lado, de la Hoz puso sobre la mesa el concepto de “constructora de tecnología” en lugar de consumidora de tecnología para “alejar la construcción de tecnologías de algo informático o técnico”. Además, recordó que el fomento de tecnologías privativas fomenta la pérdida de derechos digitales.

Ricaurte señaló que se ha pensado siempre la tecnología “fuera de los cuidados, sin tener en cuenta las afectaciones en los cuerpos y territorios” y recordó las implicaciones medioambientales que tiene el uso de tecnologías. Además, puso sobre la mesa que “automatizando políticas neoliberales, patriarcales y racistas se automatiza la pobreza y las desigualdades”. A modo de cierre, Ricaurte lanzó la idea de que “las iniciativas que dan esperanza son las que vienen de las comunidades” y habló del concepto autonomía y los valores comunitarios. 

Por su lado, de la Hoz concluyó con la siguiente propuesta: “podemos buscar la mejor tecnología aunque eso signifique dar un paso atrás en cuanto a eficiencia. Probemos el low tech, high life”. 

Recuerda que aquí puedes recuperar el vídeo completo del primer día de las JornadasDAR y leer todos los resúmenes aquí.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Quieres recibir la agenda de Societat Oberta a tu correo?

Suscríbete