6 May 2021 - 7:50 p. m.

¿Qué pasó con las publicaciones en Instagram durante el paro nacional?

Facebook, dueña de la plataforma, asegura que no se trata de un acto de censura por parte de la empresa, a la vez que añadió que hay problemas globales con el contenido de las Historias (Stories). Pero el caso reabre nuevamente el enorme debate sobre la moderación de contenidos en línea, un asunto particularmente delicado en medio de un estallido social como el que experimenta Colombia.

La de este miércoles fue otra noche de paro nacional que llegó acompañada de denuncias sobre problemas con el flujo de las comunicaciones digitales. En la mañana de este jueves una larga lista de usuarios de Instagram en Colombia empezó a ver cómo algunas publicaciones que hicieron, o hacían, dentro del módulo de historias de la plataforma comenzaron a desaparecer. No todo tipo de contenido, sino en particular el relacionado con el estallido social que vive Colombia desde la semana pasada.

Imágenes o videos de las manifestaciones, algunos con contenido explícito y violencia mostrada de forma gráfica, pero también fotos de poemas que hablan de la protesta o gráficos sobre el derecho de habeas corpus quedaron por fuera de la plataforma.

Lea también: ¿Por qué se cayó internet en algunas partes de Cali durante el 4 de mayo?

Esto, en este preciso momento, ha llevado a generar una sensación particular de censura o de manipulación del libre flujo de información. Son tiempos complejos, con una desconfianza generalizada. El retiro de contenido refuerza estas percepciones y sentimientos.

Facebook admitió este jueves que ha tenido problemas con el contenido en su plataforma relacionado con el paro nacional. En su pronunciamiento oficial, la empresa (dueña de Instagram), dijo esto: “Sabemos que las personas acuden a Facebook para debatir los temas que más les interesan y tenemos normas para mantener un ambiente seguro en nuestras plataformas, que no permiten publicar imágenes violentas. En el marco de las manifestaciones en Colombia, estamos trabajando para habilitar publicaciones que sean de interés público, advirtiendo a los usuarios que puede tratarse de imágenes sensibles”.

Desde la empresa explican que, en atención a sus reglas sobre contenido violento, sus algoritmos, en efecto, retiraron contenido relacionado con el paro nacional. Y a renglón seguido aclara que hay un equipo de personas revisando este tema y restableciendo las publicaciones que, en algunos casos, puede que lleven un mensaje que advierte sobre el contenido gráfico. La compañía lo dice de frente: no están censurando o bloqueando el flujo de información.

La empresa asegura que desde el lunes tiene un equipo de 70 personas (afincadas en lugares como México, Brasil, Colombia y Estados Unidos) dedicado exclusivamente a supervisar las operaciones en Colombia, con miras a ofrecer una supervisión e intervención humana en medio del contexto actual del país.

Sobre las 2:00 p.m. de este jueves, Instagram publicó lo siguiente a través de su cuenta en Twitter (originalmente en inglés): “Sabemos que algunas personas están experimentando problemas para subir y ver las Historias (Stories). Se trata de un inconveniente técnico global que no está relacionado con ningún tema específico y que estamos solucionando ahora mismo. Pronto compartiremos más información”. Un poco después añadió, también a través de Twitter: “Muchas gracias por reportar todos los casos. Acabamos de confirmar que se trata de un problema afectando la visibilidad de las historias a nivel global que no está relacionado a la situación en Colombia, y sobre el que nuestros equipos están trabajando fuertemente para solucionar”.

Moderación y realidad

En este punto de la historia hay que hablar de moderación de contenido, probablemente uno de los debates más grandes e interesantes en términos de política digital y que, al menos hasta esta semana, no parecía tener una escala masiva en Colombia.

Más allá de las suspicacias y las desconfianzas en el poder de una corporación global (reales y en algunos casos legítimas), el debate de fondo acá es el de la moderación de contenido. Este es una suerte de campo minado en el que hay problemas de escala global, pero sin soluciones que se puedan implementar en la misma escala: una talla acá no les sirve a todos y, en muchos casos, a nadie.

Las plataformas digitales, léase empresas como Twitter o Facebook, poseen unas reglas de juego que suelen incluir prohibiciones a publicar pornografía infantil (una de las líneas rojas más claras y globalmente aceptada) o contenido que difunda discurso de odio o incite a la violencia. Estos dos últimos puntos son asuntos más complejos y granulares, pues sus definiciones en contextos como una manifestación pueden comenzar a cruzar líneas con la información o la libertad de expresión. La palabra contexto aquí es clave, pero volveremos a ella un poco más adelante.

Lea también: ¿Y si no hay reforma tributaria? Estas son algunas de las opciones para obtener recursos

Moderar contenido a escala global es prácticamente imposible, en buena parte porque unas pocas personas se ponen de acuerdo para definir qué es discurso de odio y qué no lo es: si se limita a asuntos raciales, de género, religión u otras categorías que típicamente han estado sometidas a prácticas de odio, si incluye todas las formas de acoso y matoneo o si sólo aplica cuando se ejerce desde una posición de poder en contra de quienes no lo han tenido.

“Estos problemas de definición, que suelen enredar a autoridades judiciales en todo el mundo, también impactan el trabajo de las plataformas en línea. Como resultado de estos debates y controversias, los esfuerzos para remover el discurso de odio suelen hacerse a expensas de la libertad de expresión”, aseguran Jullian York y David Greene, de la Electronic Frontier Foundation (EFF), una de las organizaciones de derechos digitales más grandes en el mundo.

“El discurso de odio representa uno de los problemas más grandes que tiene la moderación de contenido en las plataformas en línea. Pocos de estos servicios quieren albergar discurso de odio, cuando mucho es tolerado por algunos y ninguno le da la bienvenida. Como resultado de esto, hay una serie de esfuerzos a través de varios sitios para intentar solucionar este problema”, agregan desde EFF.

Y por acá llegamos a la importancia del contexto: ¿es incitación a la violencia publicar un video con imágenes de abusos policiales en un tiempo de protestas sociales como el que atraviesa Colombia? La respuesta puede ser no.

Un algoritmo entrenado y con instrucciones claras de desmontar contenido con violencia explícita pasa por encima de uno de los videos alrededor del ataque que sufrió Lucas Villa en Pereira y puede bloquear el acceso a esta publicación. Claro, la máquina no entiende que esa pieza es información clave sobre un hecho violento contra civiles desarmados, ni reconoce su valor en medio de protestas que ya cuentan con varias decenas de muertos y cientos de denuncias de abusos por parte de las autoridades.

Para eso se necesita un humano, que sepa reconocer los contextos en los cuales se produce el contenido, en aras de privilegiar el flujo de la información y el libre ejercicio de la libertad de expresión, para comenzar.

Y si bien las plataformas tienen equipos dedicados a esta tarea en todo el mundo, lo cierto es que la primera revisión suele quedar en manos de una máquina y cuando hay problemas, como quejas y apelaciones de los usuarios, ahí puede intervenir el humano.

El proceso dista años luz de ser perfecto, pero incluso puede estar muy lejos de ser considerado como aceptable para muchos. “Tomar estas determinaciones en una plataforma con miles de millones de usuarios de prácticamente todo el planeta es mucho más complicado, más aún cuando buena parte de este trabajo es asumido por trabajadores tercerizados y mal pagos o, peor aún, a través de tecnologías de automatización”, dicen York y Greene.

Los investigadores agregan que “a pesar de que una porción de la moderación se realiza de forma manual, Facebook y otras compañías están utilizando de forma creciente tecnologías de automatización para lidiar con este contenido, lo que implica que el toque humano (que entiende sutilezas, matices y contextos) no está siempre presente en estas labores”.

Al final, puede que los usuarios no lo noten (o quizá no lo hacían hasta este miércoles), pero la protesta digital en buena medida equivale hoy en día a ejercer derechos fundamentales al interior de un centro comercial: es una discusión pública, pero en entornos privados, bajo reglas establecidas por una corporación.

Puede ver también: Paro Nacional 5M: así se vivió el octavo día de protestas en las principales ciudades de Colombia

Según Jonathan Bock, cabeza de la Fundación para la Libertad de Prensa (Flip), “la discusión sobre las plataformas es clave y relevante. Este año se va a mover mucho ese debate. Las plataformas deben establecer algún otro tipo de contrato con la gente que las usa. Esa es una conversación que debe venir de los privados, sobre cómo se van a establecer esas reglas de juego”.

Para retomar una pregunta anterior: un video en el que se ve como una persona (uniformada o no) le dispara a otra puede caminar una delicada línea entre incitación a la violencia (depende del contexto), pero ¿clasifican en esta categoría un pantallazo sobre un poema que habla de la protesta social o una imagen que explica cómo funciona el habeas corpus? Probablemente no.

Y, sin embargo, ambas fueron publicaciones que experimentaron problemas en Instagram en Colombia. La explicación detrás de esto, sin tener que entrar en la censura, puede estar más relacionada con problemas con el propio algoritmo. Ante un flujo inusitado de publicaciones del mismo tema, el retiro de contenido se puede transformar en masivo (más allá de los criterios de violencia gráfica) para evitar propagación de spam, por ejemplo. Esto pasó durante las protestas de Black Lives Matter en Estados Unidos.

“No la tenemos totalmente clara aún, pero lo que uno sí puede decir es que cuando se le imprime estrés al algoritmo, este puede actuar en formas que no estaban previstas”, aclara Carolina Botero, directora de la Fundación Karisma, organización líder en monitoreo de derechos digitales en Colombia. Y agrega: “Pero en todo caso, la carga de ofrecer explicaciones y transparencia siempre recae sobre las plataformas, sobre las empresas”.

Y esto, inevitablemente, trae problemas. Incluso cuando no se está hablando de censura dura y cruda. El ejemplo de lo que está pasando con Instagram sirve para ilustrar las complejidades de este escenario: es muy positivo que haya un equipo desde Facebook revisando el escenario colombiano desde hace unos días, pero, al mismo tiempo, es delicado que haya habido retiro de contenido o problemas para acceder a él, justo en este momento crítico para el país.

Para Botero, “no se puede despreciar la sensación de la censura. Se trata de buscar el origen y la naturaleza de las acciones que suceden en las plataformas porque sí es diferente si el origen del problema es la empresa, si es un evento natural (un desastre natural que rompe la infraestructura, por ejemplo) y es diferente si la naturaleza de la intervención es para proteger a la comunidad vulnerable o si estamos hablando de un algoritmo que actúa de forma rara”.

Comparte:
X