Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Los terribles impactos del terrorismo y las acciones violentas en el mundo han reclamado -con mucha razón- la respuesta de la sociedad, exigiendo acciones contundentes y rápidas. Sin embargo, el justificado afán también sirve de incentivo perverso que, usado con ligereza, puede tener graves afectaciones en la libertad de expresión. The Intercept filtró los documentos que guían la moderación de contenidos de organizaciones y grupos extremistas en Facebook y revivió el debate.
The Intercept publicó no solo el artículo, sino también la lista de individuos y organizaciones peligrosas y las guías para moderación de contenidos que usa Facebook para sacar de su plataforma contenidos terroristas y violentos. La filtración confirma que Facebook modera estos contenidos basado en una lista negra, y nos muestra los criterios que usan como guía las personas que hacen esto. Al evidenciarse los detalles de cómo se hace este ejercicio se confirma también que hay riesgos para la libertad de expresión.
Hace 20 años, después del fatídico 11 de septiembre en Nueva York, la guerra contra el terrorismo desembocó en una cruzada en la que esta etiqueta fue usada a lo largo y ancho del globo con desproporcionado impacto para la población musulmana. En nuestro ámbito geográfico también tuvo impactos en la dinámica del conflicto armado en Colombia.
Por otra parte, también es importante reconocer que debido al impacto del rol de Facebook en situaciones recientes -como el genocidio de los Rohingya en Myanmar hasta la toma del capitolio en Estados Unidos en 2020-, le han puesto en el ojo del huracán y le han obligado a tomar acciones para evitar que su plataforma sirva para diseminar e incentivar contenidos terroristas y en extremo violentos. Por eso el contenido de la filtración no sorprende a nadie.
La filtración nos recuerda la preocupación porque una plataforma que usan miles de millones de personas en el mundo pueda silenciar voces justificándose en la prevención o prohibición del terrorismo. Al privilegiar la idea de tolerancia cero -que justifica la eliminación expedita de contenido violento- se puede generar un impacto negativo en poblaciones vulnerables o situaciones sensibles. Eso pasa durante protestas sociales con contenidos de abuso policial que terminan clasificados como violentos y desaparecen de las plataformas.
La Junta de Supervisión de Facebook -órgano creado por la empresa para hacer seguimiento independiente a sus políticas de moderación de contenidos- ya había recomendado a la empresa publicar los lineamientos para la moderación, pero la empresa se resistió y se resiste pese a las filtraciones que tuvieron lugar en 2019 y ahora, alegando que es riesgoso para las personas que hacen la moderación.
En 2020 la OECD publicó un informe en el que analizaba las políticas y procedimientos de moderación de contenidos terroristas y de violencia extremista en 50 plataformas que prestan servicios para compartir contenidos en línea. Establecieron que sólo 5 tenían informes de transparencia sobre esta actividad. Concluyó que todas usan diferentes definiciones, reportan sobre información distinta, miden de forma disímil y, en general, no se puede hacer comparaciones entre ellas, ni medir la eficacia de los mecanismos, o si afectan -o cómo lo hacen- a los derechos humanos.
En su análisis, The Intercept indica que la lista se basa en lo que en su momento el presidente de Estados Unidos -George Bush- inició después del 11 de septiembre de 2001, menciona el sesgo contra los grupos musulmanes, y también apunta a cómo los lineamientos que suponen un alto nivel de subjetividad para las personas que moderan contenidos -contratistas cuyas condiciones han sido ampliamente cuestionadas-.
Además de afectar a algunas comunidades más que otras, dentro de los efectos negativos, ese medio digital dice que se impacta la capacidad de las sociedades para discutir su contexto político, y apunta a que esto afecta especialmente a países de Oriente Medio y del Sudeste Asiático. Pone como ejemplo el caso de Afganistán en donde Facebook -realmente todas las plataformas de redes sociales- están ante el dilema de negar la voz a quien está en el poder y por tanto evita la discusión más importante para los afganos hoy -incluyendo al propio gobierno talibán-.
El tema es que con la sola mirada a la presencia en la lista podemos concluir que efectivamente el impacto es mayor en esa región del mundo. También hay otros países y regiones a resaltar: existe la presencia de músicos de Alemania, y en América Latina son 4 los países protagonistas (México, Brasil, El Salvador y Colombia). No porque sea menor la presencia de América Latina podemos concluir que los efectos son menores.
En la lista filtrada las voces que aparecen de Colombia están vinculadas con grupos relacionados con el conflicto armado -guerrilla, paramilitares y narcos-. El problema es que aunque podemos rechazar el terrorismo, como sociedad tendríamos que cuestionar el silenciamiento de estos actores, la naturaleza de la clasificación e incluso exigir la reflexión sobre posibles sesgos y problemas para la expresión.
Por ejemplo, no debería ser aceptable ese vacío cuando estamos frente a grupos que son parte de los procesos de paz. Ese fue precisamente uno de los ejemplos que dio el Ministerio de Cultura (2018) cuando reclamaba una excepción al derecho de autor para permitirle a la Biblioteca Nacional preservar las comunicaciones en redes sociales de las extintas FARC-EP, frente al continuo riesgo de desaparición, incluso si el grupo ya estaba en un proceso de paz formalmente.
Para bien o para mal, indicaba la ministra, estos son actores de nuestra realidad, y no tener esa voz genera un agujero negro en la memoria digital del país.
La filtración recuerda que está pendiente localmente la discusión -dentro y fuera de las redes sociales-. ¿Quién decide quién es o no terrorista? ¿Cuándo se bloquean sus discursos? ¿Cómo impacta esto los procesos para repensarnos como sociedad? ¿Cómo hacer efectivas y exigibles las obligaciones de transparencia que tienen a cargo las redes sociales hoy en día? ¿Cuál es el impacto que tienen las políticas de moderación basadas en la prohibición del contenido sobre terrorismo y violencia extrema sobre el ejercicio del derecho a la memoria de las sociedades que atraviesan conflictos sociales y políticos?
