Mesa #4 Herramientas predictivas

Predecir el futuro: herramientas predictivas y sociedades segmentadas

La cuarta mesa de la Jornada Inteligencia artificial y Derechos Humanos: ¿utopía o realidad? estuvo protagonizada por cuatro profesionales que abordaron una sesión con mirada sectorial. Se comentaron tendencias de la aplicación de la Inteligencia Artificial en la prevención del delito y la administración de la justicia. Además, tuvo cierta mirada futurista en tanto que pretendimos anticiparnos a escenarios un tanto distópicos en los cuales se mezclan justicia y tecnología predictiva.  

¿Cuáles son las oportunidades y riesgos que ofrece la Inteligencia Artificial y cómo evitar que vulnere los derechos políticos, sociales y civiles? Para responder a esta pregunta contamos con Cristina Goñi moderando las intervenciones de:

  • Juan José López Ossorio, jefe del área de Estudios del Gabinete de Coordinación y Estudios de la SES (Secretaria del Estado de Seguridad)
  • Gemma Galdon, experta en impacto social tecnológico y presidenta de Eticas Foundation
  • Andrés García Berrio, abogado experto en derechos civiles y políticos de IRÍDIA
  • Jorge Morell, responsable de la consultora Legaltechies y experto en justicia predictiva

Jorge Morell inició la ronda de presentaciones con la pregunta: justicia predictiva, ¿realidad o ficción?. “Mucha gente piensa en Minority Report cuando oye hablar de justicia predictiva, ya que en la película se podían predecir los crímenes antes de que se llegaran a cometer”. Morell advierte que, aunque no estemos todavía en ese punto, hay algunos indicios de que estamos en el camino y pone como ejemplo esta noticia sobre sentencias y algoritmos del TEDH. Pero ¿qué es la justicia predictiva? Morell la definió como “el punto intermedio entre Big Data, el análisis de datos y el uso de algoritmos”. Si veis el vídeo completo encontraréis una lista de ventajas y desventajas de este sistema y que Morell desgrana vastamente con ejemplos reales y muy interesantes. 

Tecnología contra la violencia de género

En su turno, Juan José López Ossorio presentó VioGén, el sistema de la Secretaría de Estado de Seguridad del Ministerio del Interior que usa la tecnología en la lucha contra la violencia de género. López Ossorio presentó esta herramienta vigente desde 2007 como un “ejemplo de cómo la tecnología puede ayudar ante un problema sociocriminal”. En este sentido, destacó cuatro pilares con los cuales se trabaja desde la Secretaría: los estudios científicos, la coordinación institucional, las unidades especializadas y la tecnología. Además, hizo hincapié en que se trabaja de forma incansable para mejorar y hacer crecer la herramienta poniendo especial atención en “detectar puntos ciegos y ver en qué medida podemos mejorar, sobre todo en cuanto a la valoración de riesgos”. 

Haciendo alusión a Morell, Galdon recuerda que “la historia de la policía ha ido muy ligada a la de la tecnología y siempre ha habido debates entorno a esta relación y la seguridad”. Y, si Morell mencionaba Minority Report, Galdon alude a The Wire como producto de ficción referente en el cual se trataban estas cuestiones. ¿La tecnología nos va a salvar de los delitos?, se pregunta. “La policía no está liderando en cuestiones de Inteligencia Artificial, y otros sectores de la administración social sí”, aseguró Galdon. Además, Galdon recalcó que el uso de tecnologías predictivas o avanzadas en asuntos policiales es mucho más sensible y peligroso que en otros campos como puede ser el marketing de consumo. “No es lo mismo que un algoritmo decida qué marca de yogur mostrarte cuando compras online que que te mande a la cárcel”. Por último y haciendo mención explícita al título de esta mesa, Gemma Galdon comentaba: «La población tiene expectativas demasiado altas sobre las capacidades de la tecnología. Hay que dismitificarla un poco. Los algoritmos no pueden adivinar cosas, sólo actúan sobre hechos anteriormente ocurridos».

Sociedades polarizadas

El encuentro lo cerró Andrés García Berrio, quien se preguntaba cómo se pueden generar algoritmos que no amplifiquen la polarización social. “Es más difícil construir sociedades plurales cuando los algoritmos muestran sólo algunos pensamientos», aseguró García Berrio.”Una de las cuestiones en justicia penal que más nos preocupa es que estamos volviendo a la individualización de la responsabilidad penal”, comentó. “Estamos olvidando que hay factores que determinan el por qué hay más representatividad de personas migrantes en el sistema penal que de personas blancas”. Y en efecto, como se ha podido ver a lo largo de estas jornadas, las decisiones relacionadas con las herramientas de predicción de delito futuro no son fortuitas ni casuales. “Estos mecanismo están hechos por personas y son ellas las que introducen valores o discriminaciones en estas herramientas”, recordó García Berrio. En la parte final de la intervención se habló de RisCanvi, un programa diseñado para prevenir la violencia en el ámbito penitenciario en Cataluña. ¿Queréis saber qué se dijo sobre este programa? ¡No os perdáis el vídeo completo

Y si llegáis al final del vídeo también podréis escuchar las reflexiones grupales a raíz de las preguntas que hicieron las personas asistentes. A continuación, algunos enlaces comentados durante el encuentro:

¿Quieres recibir la agenda de Societat Oberta a tu correo?

Suscríbete