Publicidad
24 Jun 2020 - 5:35 p. m.

Más de mil académicos piden que los matemáticos dejen de colaborar con la Policía

A raíz del asesinato de George Floyd en Estados Unidos, investigadores se unieron para pedirle a los matemáticos que dejen de ayudar a la Policía construyendo modelos que buscan predecir dónde pueden ocurrir los crímenes.
Imagen de las protestas generadas en Estados Unidos tras el asesinato de George Floyd.
Imagen de las protestas generadas en Estados Unidos tras el asesinato de George Floyd.
Foto: Stephen Maturen

El asesinato de George Floyd a manos de un policía de Estados Unidos le recordó al mundo que el racismo continúa siendo un enorme problema sin resolver. Los gestos de rechazo continúan extendiéndose por varios países. Uno más fue hecho público hace unos días por más de 1.400 académicos. En una carta hacen una particular petición: que los matemáticos, estadísticos e informáticos dejen de colaborar con la Policía. (Lea Científicos cartografían por primera vez el continente hundido de Zelandia)

Con fecha del 15 de junio, la misiva critica los modelos que suelen construir estos investigadores para ayudar a la Policía a hacer “vigilancia predictiva”, una técnica que busca evitar los crímenes antes de que ocurran. En otras palabras, se trata de un mecanismo en el que suelen analizar robustas bases de datos para, posteriormente, señalar en cuáles puntos podría haber más delincuencia y, por tanto, requieren más recursos policiales. 

Sin embargo, el evidente racismo de algunos miembros de la Policía de Estados Unidos ha generado disgustos en el mundo académico. Por eso, señalan los investigadores en la carta, “no creemos que los matemáticos deban colaborar con los departamentos de policía de esta manera”.

Como le dijo a la revista Nature Jayadev Athreya, matemático de la Universidad de Washington en Seattle (EE.UU.), “la actividad de colaborar con la policía no es algo que creemos que un matemático debería estar haciendo”. 

El ejemplo que usan en la carta es el de la empresa PredPol de Santa Cruz, California. Fue fundada por un matemático y desde hace varios años ayuda a los departamentos de Policía sugiriendo puntos en los que podría haber más delitos. 

Pero, como señala Nature, a los ojos de muchos críticos los datos que alimentan los algoritmos suelen contener prejuicios raciales. “Tenemos estudios que muestran que ciertos delitos como el consumo de drogas, es igual entre los blancos y los negros, pero en términos de quién es acusado por esos crímenes, quién es detenido o quién es condenado, existe un sesgo racial muy fuerte”, le dijo a esa revista Sandra Wachter, jurista de la Universidad de Oxford, Reino Unido.

La discusión sobre qué tan útiles son esos datos no es nueva y desde hace un tiempo ha sido examinada por la academia. En el caso de PredPol varios académicos han examinado su utilidad y las conclusiones sobre su efectividad han sido divergentes. Para Brian MacDonald, el presidente ejecutivo, la razón de la controversia tiene que ver también con una práctica no muy usual entre las compañías que construyen ese tipo de softwares: revelar cómo funcionan sus algoritmos.

Sin embargo, como advirtió a Nature Andrea Bertozzi, matemático de la Universidad de California (EE.UU.), estos algoritmos deben usarse con mucho más cuidado y es clave que los investigadores que están detrás de ellos incluyan en sus variables algo que no tienen en cuenta con mucha frecuencia: involucrarse más con las comunidades que pueden resultar afectadas. 

Síguenos en Google Noticias