Cuando las minorías en China padecen la inteligencia artificial
Un informe advierte que Huawei y la empresa Migvii estarían desarrollando tecnologías para detectar a las minorías étnicas.
Nicolás Marín
La violación a los derechos humanos sobre comunidades musulmanas en China es un secreto a voces desde hace años. Las denuncias han llegado desde gobiernos de todo el mundo hasta usuarios de la aplicación Tik Tok, pero ahora un informe publicado entre The Washington Post y la compañía estadounidense IPVM reveló que la compañía Huawei ha probado tecnologías basadas en reconocimiento facial e inteligencia artificial para enviar alertas automatizadas a las autoridades gubernamentales, que puedan ser rastreados de forma instantánea y en condiciones adversas.
Gracias por ser nuestro usuario. Apreciado lector, te invitamos a suscribirte a uno de nuestros planes para continuar disfrutando de este contenido exclusivo.El Espectador, el valor de la información.
La violación a los derechos humanos sobre comunidades musulmanas en China es un secreto a voces desde hace años. Las denuncias han llegado desde gobiernos de todo el mundo hasta usuarios de la aplicación Tik Tok, pero ahora un informe publicado entre The Washington Post y la compañía estadounidense IPVM reveló que la compañía Huawei ha probado tecnologías basadas en reconocimiento facial e inteligencia artificial para enviar alertas automatizadas a las autoridades gubernamentales, que puedan ser rastreados de forma instantánea y en condiciones adversas.
El ruido proviene de un documento confidencial filtrado por IPVM, que estuvo publicado unos cuantos instantes en la página oficial de Huawei y explica cómo en 2018, de la mano de la compañía Megvii, se probó la capacidad fotográfica para detectar la edad, el sexo y la etnia en grandes concentraciones de personas. Lo más grave del asunto es que si el programa detecta a un musulmán lanza una alarma que avisa al gobierno. Según IPVM, Megvii figura como un socio certificado de Huawei, que en su página oficial asegura que dicha tecnología de reconocimiento facial sirve para “prevenir el crimen y crear una atmósfera social armoniosa”. Sin embargo, las sospechas contra la compañía por supuestas violaciones a la privacidad y otros derechos digitales en pro del gobierno chino son tan numerosas como para creer ciegamente en esta afirmación.
Al respecto, John Honovich, fundador de IPVM, le dijo a The Washington Post: “Esta no es una empresa aislada. Esto es sistemático. Se pensó mucho en asegurarse de que esta ‘alarma uigur’ funcionara”.
De los 23 millones de musulmanes que hay en el país, solo en la provincia de Xinjiang (la que más musulmanes concentra) hay once millones de la minoría étnica uigur. Numerosos organismos internacionales, además del gobierno de Estados Unidos, han denunciado los “Centros de Transformación de Educación Concentrada”, donde se dice que hay más de un millón de musulmanes detenidos que serían forzados a abandonar su religión para ser “reeducados”.
Mike Pompeo, secretario de Estado de Estados Unidos, afirmó la semana pasada que rechazará el visado de los funcionarios chinos del Partido Comunista Chino y otros que se dedican al doxing; es decir, difundir datos personales en internet como forma de intimidación. “Seguiré aplicando esas restricciones de visado para dejar claro que los responsables de acciones que contravengan las normas internacionales no son bienvenidos en Estados Unidos”, dijo Pompeo.
La tecnología en cuestión, además, ha sido duramente criticada por el uso que le han dado actores gubernamentales y privados: “El uso del reconocimiento facial, tanto por parte de la Policía como de agentes privados, tiene un impacto sísmico en la forma en que nuestra sociedad es monitoreada o vigilada. El despliegue de una tecnología tan intrusiva no solo plantea importantes cuestiones de privacidad y protección de datos, sino también cuestiones éticas sobre si las democracias modernas deberían permitir alguna vez su uso”, asegura la organización británica Privacy International.
Justo el pasado miércoles la organización Human Rights Watch afirmó que encontró una lista de 2.000 detenidos entre 2016 y 2018 en Aksu, una prefectura de Xinjiang donde hay tensiones étnicas. Según la organización, estos detenidos han estado en la mira de las autoridades después de haber sido detectados por un programa informático bautizado “Plataforma integrada de operaciones conjuntas”, que analiza los datos que recaba el enorme dispositivo de vigilancia electrónica que hay en el área.
La asociación deduce que la inmensa mayoría de las personas denunciadas lo han sido sobre la base de comportamientos perfectamente legales, como recibir llamadas telefónicas del extranjero, no tener una dirección fija o apagar frecuentemente su teléfono celular. En el caso de un 10 % de personas de la lista no figuran las acusaciones de “terrorismo” ni “extremismo” que el régimen utiliza para justificar la represión en Xinjiang, según HRW.
La lista, que ha sido mostrada en parte a la AFP, menciona en numerosos casos que la persona fue simplemente “señalada” por el programa informático. Después, la Policía ha enviado a los sospechosos a los campos de reeducación política, según HRW.
Megvii, en el ojo del huracán
La empresa de tecnología, fundada en 2011, en pocos años se convirtió en un monstruo del mercado. Aplica excentricidades como escanear el rostro de las personas que quieran entrar a sus oficinas para vigilarlas con decenas de cámaras activas en las instalaciones. Además, su avalúo asciende a US$3.500 millones, lo cual evidencia lo que vale la inteligencia artificial.
Su estrecha y conveniente amistad con el gobierno chino le ha servido para integrarse a sistemas muy puntuales y peligrosos de la vida diaria de las personas, para lo que ellos consideran mejorar el funcionamiento de servicios como el metro o la verificación de transacciones bancarias. Incluso, han comenzado a incursionar en proyectos de ciudades inteligentes y automóviles autónomos. Todo esto, claro, a costa de un marco muy dudoso sobre los derechos digitales de la ciudadanía.
Como señala The Washington Post, Megvii y Huawei emplean tres tipos de tecnología de vigilancia confirmada, aunque todavía se desconoce si una de ellas es la que alerta sobre población uigur. Ambas empresas aseguraron que el documento es real, pero se encargaron, cada una por su cuenta, de desmentir la gravedad de las acusaciones. “Nuestras soluciones no están diseñadas ni personalizadas para apuntar o etiquetar grupos étnicos. Nuestro negocio se centra en el bienestar y la seguridad de las personas, no en el seguimiento de ningún grupo demográfico en particular”, le dijo Megvii a IPVM.
Por su parte, Glenn Schloss, portavoz de Huawei, le dijo a The Washington Post que el informe “es simplemente una prueba y no ha visto una aplicación en el mundo real. Huawei solo suministra productos de uso general para este tipo de pruebas. No proporcionamos algoritmos o aplicaciones personalizadas”.
El problema es que las compañías comienzan a alimentar algoritmos con estas masivas bases de datos y así logran determinar rasgos faciales y diferenciar entre un latino y un coreano, por ejemplo, muchas veces sin los permisos necesarios de privacidad. “Hay ciertas herramientas que simplemente no tienen una aplicación positiva y muchas aplicaciones negativas, y una herramienta de clasificación étnica es una de esas”, aseguró a The Washington Post Clare Garvie, asociada del Centro legal de Privacidad y Tecnología de Georgetown.
En un informe de 2019, la empresa de ciberseguridad Kaspersky aseguró: “Aunque no seas miembro de ninguna red social o hayas evitado subir una foto real tuya a ellas, tu cara puede colarse en la base de datos de una compañía de red social. En 2018, un ciudadano de Chicago demandó al servicio de fotos Shutterfly porque la web añadió su foto a su base de datos sin su consentimiento. Un tercero (probablemente un amigo) había subido su foto a Shutterfly y firmó la imagen”.
Justo este es uno de los paradigmas más importantes con respecto a este tipo de tecnología. Cuando uno ve que un monstruo como Megvii ni siquiera dice dónde están concentradas sus bases de datos es inevitable poner en tela de juicio los marcos éticos con los cuales se está manejando la información de millones de personas. Como afirmó, en febrero pasado, Wojciech Wiewiórowski, supervisor europeo de protección de datos: “Si bien la tecnología no puede resolver todos los problemas sociales, no debe exacerbarlos. La inteligencia artificial debe usarse para mejorar nuestras vidas, individualmente y como sociedad, pero tal mejora nunca debe producirse a costa de nuestros valores y derechos fundamentales”.
Le recomendamos: El Espectador le explica: ¿Quiénes son los uigures?
¿Ha pensado en sus derechos digitales a la hora de protestar?