
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Para este punto de la historia, resulta casi indivisible hablar del futuro de Twitter, con sus problemas, debates y polémicas, sin mencionar al expresidente Donald Trump. Las acciones y reacciones desatadas por este personaje en la plataforma avivaron la discusión acerca de la moderación de contenido en línea, un tema que, por cierto, no tiene nada de novedoso.
Ahora bien, que no sea nuevo, no quiere decir que sea menos importante o que no se haya complejizado más en la medida en la que hay más usuarios en línea, nuevas técnicas para manejar el contenido por parte de las plataformas y usuarios como Trump, que constantemente bordean los términos de uso impuestos por las empresas.
Muy cerca de la pasada elección presidencial en Estados Unidos, el Senado de este país realizó una audiencia para indagar sobre la forma como Google, Twitter y Facebook moderan contenido en sus plataformas, un asunto tan espinoso como complejo y que no tiene una única solución.
Lea también: Trump no fue el único político en ser bloqueado por Twitter (ni lo seguirá siendo)
Con la cercanía a la elección, la audiencia fue más un despliegue de intereses políticos con un barniz de política digital: en otras palabras, un intento republicano de victimizar a sus candidatos de cara a los comicios de noviembre pasado para seguir reforzando las narrativas delirantes del ‘deep state’ y la conspiración de las ‘big tech’ contra la derecha estadounidense.
Pero más allá de lo frágil de aquel procedimiento legislativo, lo cierto es que la pandemia exacerbó el debate acerca de las prácticas y técnicas de moderación de contenido empleadas por las plataformas en línea.
El 18 de febrero el director del programa radial 6AM Hoy por Hoy de Caracol Radio, Gustavo Gómez, anunció que le habían suspendido su cuenta de Twitter (@gusgomez1701) por violación de derechos de autor en reproducciones musicales en un trino publicado en 2018. Sin embargo, dijo a sus oyentes que las razones no eran claras y que podía tratarse de un ataque con intereses políticos.
Desde entonces el periodista se ha referido en varias ocasiones a la censura de las redes sociales y el poder de Twitter en el periodismo. También denunció que recibió una notificación de suspensión de la cuenta por infracción de derechos de autor cargada de amenazas legales, medida que se hizo efectiva minutos después, y que intentó reactivarla siguiendo las instrucciones, pero al final no fue posible.
Le puede interesar: Rusia pide explicaciones a Twitter por el bloqueo de sus recursos
“Las personas a las que les han bloqueado las cuentas se están armando una película y se están dando una importancia que realmente no tienen en el ecosistema digital, somos un universo insignificante para Twitter a nivel mundial. Pero han lanzado acusaciones sin conocer cómo funciona realmente el sistema de reglas de uso de Twitter y cómo se suspenden las cuentas”, dijo Diego Santos, analista digital.
De acuerdo con Santos, la mayoría de veces que Twitter suspende una cuenta en Colombia es por violación a los derechos de propiedad intelectual, de acuerdo con la Ley de derechos de autor de la era digital (DMCA, según su sigla en inglés). La infracción se constituye si una persona replica un video musical, de un programa de televisión o incluso un video de un gol en alguna liga; también pasa con las imágenes y los memes. Sin embargo, Twitter tiene un límite de cinco advertencias antes de suspender una cuenta.
Pero no es la primera vez que sucede. En 2019 Twitter bloqueó temporalmente la cuenta del expresidente Álvaro Uribe Vélez (@AlvaroUribeVel) por compartir una fotografía previa al paro nacional de noviembre en la que se veía un tablero con puntos de concentración para la protesta y datos de contacto de los líderes. La red social dijo que la publicación infringía a las normas de la plataforma porque compartía información privada de otras personas como nombres y números telefónicos sin su autorización.
A principios de año Twitter suspendió las cuentas de Iván Márquez (@IvanMarquezFarc) y Jesús Santrich (@JSantrich_FARC), líderes de las disidencias de las FARC, así como la cuenta Segunda Marquetalia (@SMarquetalia) tras publicar un video apoyando la revocatoria de mandato del presidente Iván Duque que fue visto como una incitación a la violencia. La red social explicó que tomó la medida porque los mensajes violaban sus políticas sobre terrorismo y extremismo violento.
Lea también: Twitter suspende cuentas de Iván Márquez, Santrich y Segunda Marquetalia
Días atrás también se había suspendido permanentemente la cuenta del entonces presidente de Estados Unidos, Donald Trump (@realDonaldTrump) por las mismas razones, riesgo de incitación a la violencia. Por esos días un grupo de personas que apoyaban al exmandatario invadieron el Capitolio y protagonizaron una serie de disturbios.
El debate de la moderación
Organizaciones como la Electronic Frontier Foundation (EFF) advirtieron a lo largo de 2020 que un impulso hacia la moderación automatizada, aquella que hacen máquinas sin intervención humana, estaba teniendo peligrosas consecuencias para el derecho a la libertad de expresión y suprimiendo puntos de vista de comunidades vulnerables o con baja representación en línea.
Corynne Mcsherry, de la EFF, dijo en su momento que “la moderación de contenido no es una bala de plata”, al hacer referencia a las complejidades y sutilezas de esta tarea.
A lo que Mcsherry se refiere con la bala de plata es que, a pesar de todos los esfuerzos de las plataformas (bienintencionados o no), no hay una única solución para lidiar con formas de regulación de contenido en línea. E, incluso, hay una buena discusión alrededor de si estas empresas deberían hacer de jueces sobre cuestiones que tocan íntimamente derechos humanos, como la libertad de expresión.
Por ejemplo, en el comienzo de la pandemia por el COVID-19, muchas plataformas de redes sociales cambiaron sus políticas de moderación de contenido para hacerlas más dependientes de herramientas de automatización. Twitter, Facebook y YouTube aumentaron sus capacidades en áreas como aprendizaje de máquinas (machine learning) para identificar contenido problemático en un esfuerzo para proteger a sus equipos de moderación y la privacidad de sus usuarios.
La moderación hecha por algoritmos presenta la enorme ventaja de que es un proceso que se puede implementar a gran escala, algo que viene bien dado el enorme tamaño de las plataformas en cuestión.
El problema aquí es que la moderación automatizada presenta serios problemas a la hora de identificar contextos y sutilezas que, en muchas ocasiones, son la línea que define la libertad de expresión y la libre circulación de ideas con diversidad política de piezas que pueden caer en clasificaciones como terrorismo o incitación al odio.
A pesar de que la moderación humana de contenido no se puede hacer a gran escala rápidamente, y además viene con costos sociales, ésta sigue siendo indispensable. Los sistemas automatizados simplemente no son capaces de, consistentemente, identificar el contenido de forma correcta.
Otras noticias tecnológicas de hoy: La nueva prueba de Netflix dificulta a los usuarios compartir la contraseña
De fondo, el problema tiene varias tensiones que parecieran complicarlo todo. Por un lado, pareciera claro que las empresas de tecnología tienen demasiado poder sobre el discurso en línea y, en general, toda la experiencia digital moderna. También es evidente que los gobiernos deberían participar de este debate, como también lo es que esto, hecho a las patadas, puede generar una vía exprés para la intervención y la manipulación política.
La frase de Mcsherry sobre la bala de plata resuena más fuerte en este punto.
¿Cómo funcionan los procesos de moderación en Twitter?
De fondo, la compañía suspende o borra cuentas en la plataforma basándose en sus reglas de uso, que pueden ser consultadas en detalle aquí.
De acuerdo con la empresa, entre las razones más comunes para suspender cuentas se encuentran actividades relacionadas con spam (como perfiles automatizados para mandar mensajes masivos), riesgos en la seguridad de una cuenta (si se sospecha que alguien diferente al dueño del perfil está accediendo o intentando acceder a una cuenta) y “tweets o comportamientos abusivos” (amenazas y suplantación de identidad, por ejemplo).
Cuando se bloquea una cuenta, en algunos casos el mismo usuario puede desbloquearla. En unas ocasiones debe agregar un número de teléfono, verificar una dirección de correo o borrar los mensajes específicos que son considerados como violaciones a las reglas de la plataforma, entre otras acciones.
Si un usuario piensa que su perfil ha sido bloqueado injustamente, puede contactar al personal de apoyo de Twitter para discutir la decisión y, en últimas, apelar el caso.
La información oficial sobre cómo lidiar con la suspensión de una cuenta se puede consultar, en español, en este sitio.