Inteligencia artificial y justicia social, ¿dónde estamos?
La segunda mesa de la Jornada Inteligencia artificial y Derechos Humanos: ¿utopía o realidad? puso el foco en diferentes escenarios sociales en los cuales se usa la tecnología artificial. ¡No te pierdas las cuatro ponencias!
- Transparencia algorítmica: el caso del bono social eléctrico. David Cabo, de Fundación CIVIO
- ¿Cómo incorporar la tecnología en la defensa de derechos humanos? Adriana Ribas de Amnistía Internacional
- Dime con quién andas y te diré cómo te curo. César Nebot, experto en Inteligencia Artificial y sanidad
- Observatorio de algoritmos con impacto social (OASI): Sara Suárez, Eticas Research and Consulting
David Cabo, co-director de Civio, abordó la cuestión de transparencia algorítmica con el caso del Bono Social. Cabo contó que en 2018 desde Civio se empezó a investigar el sistema que otorgaba las ayudas para pagar facturas de electricidad a familias en riesgo de exclusión social. Esto fue debido a que con el cambio de programa respecto 2017, vieron que muchas personas no habían sido aceptadas para las ayudas. “Igual que tenemos derecho a conocer las leyes, tenemos derecho a conocer cómo funcionan los programas que toman decisiones”, asegura Cabo. Entonces se denunció que mucha gente no había podido acceder a esos bonos porque el proceso era “complejo y existía mucha desinformación al respecto”. Desde Civio pudieron demostrar que había un error en la aplicación que otorgaba las ayudas y, para evitar que esto vuelva a suceder en otras aplicaciones han tomado medidas drásticas. En septiembre de 2019 fueron a juicio contra la resolución del Consejo de Transparencia y solicitan conocer el código fuente de las aplicaciones que regulan las leyes. Por ahora el fallo del juicio se desconoce y habrá que esperar a que se retome la actividad en los juzgados post-covid.
Desde el punto de vista de la salud y la investigación de la inteligencia artificial y el big data, César Nebot hace referencia al juramento hipocrático. Ese juramento se basa en cuatro principios que suponen retos en el contexto actual, según Nebot. ¿Con la inteligencia artificial se difuminará el control al juramento hipocrático a favor de magnates y holdings? En cuanto al reto científico al que nos enfrentamos, la inteligencia artificial, según Nebot, permite encontrar patrones de forma eficiente con algoritmos de aprendizaje. ¿Todo se basa en los datos o necesitamos algo más? En investigación también es importante tener en cuenta la perspectiva que aplicamos. Y esto, Nebot lo relaciona con casos reales como son las correlaciones de datos entre renta e historial médico por ejemplo. “¿Los datos podrían condicionar el trasplante de un órgano?”, se pregunta. ¡Para conocer los retos en los que está trabajando Nebot actualmente no os perdáis el vídeo entero!
Sara Suárez presentó el Observatorio de Algoritmos con Impacto Social (OASI), un buscador creado por Eticas Foundation con el objetivo de aglutinar y clasificar algoritmos opacos y discriminatorios. “Sabemos que estos algoritmos pueden tener un efecto indeseable y queremos poner al servicio de la ciudadanía una herramienta para aumentar la conciencia sobre esta problemática”, explica Suárez. Asimismo, Suárez alertaba que “todo algoritmo debe ser auditable, y hay que prestar atención especialmente a los que pueden ser discriminatorios». Y para aterrizar estas peticiones, mostró -como veréis en el vídeo- varios ejemplos de casos reales en los cuales los algoritmos han actuado de forma discriminatoria por motivos raciales o de género, entre otros.
Por su parte, Adriana Ribas explicó cómo se incorpora la tecnología en la defensa de los derechos humanos en Amnistía Internacional. “Los sesgos que ya existen se pueden ver reforzados por el uso de la inteligencia artificial”, comenta Ribas. Es por eso que compartió tres enfoques desde los cuales trabaja la organización entorno a las tecnologías y los DDHH. En primer lugar, con formación dirigida a ciudadanía para saber cómo sacarle partido de la tecnología y conocer qué riesgos tiene. Y pone como ejemplo un curso sobre seguridad digital. “Hay una oportunidad de incidencia para el tercer sector”, dice Ribas. Es por ello que desde Amnistía Internacional también tejen alianzas con el sector tecnológico. Para establecer diálogo y contacto con empresas especializadas y así aportar enfoque de DDHH al desarrollo de proyectos de inteligencia artificial. Varias entidades han firmado la Declaración de Toronto, y os animamos a que leáis porque en ella se piden garantías para evitar la discriminación en el uso de los sistemas de aprendizaje automático. Además, el uso de la tecnología, comenta Ribas, también se debe a que se considera una plataforma o herramienta que permite maximizar el trabajo de la organización. Es el caso del Citizen Evidence Lab, una plataforma con fuentes de acceso público muy interesante en la cual podéis navegar y aprender. Por último, Ribas pone sobre la mesa la necesidad de transparencia y es por ello que trabajan desde un enfoque también de denuncia, campaña, incidencia con el fin de evitar estigmatización y discriminación algorítmica.
¡Mirad el vídeo hasta el final para conocer las propuestas sobre el rol de la sociedad civil de nuestras/os ponentes! A continuación, algunos enlaces comentados durante el encuentro:
- Sobre correlaciones espurias
- Gangs Matrix, discriminación en el área metropolitana de Londres
- Ethical guidelines for COVID-19 tracing apps, en Nature