
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En 2011, el periodista Pedro Beaumont de The Guardian hizo una descripción de las fotos que circularon en redes sociales en medio de las protestas del mundo árabe: un médico egipcio capturó la imagen de un hombre herido tras el impacto de unos misiles lanzados por los partidarios de Hosni Mubarak. Y en Túnez, una mujer en la Medina sostenía un Blackberry para grabar las protestas frente a la casa del entonces primer ministro, Mohamed Ghannouchi.
“Sin duda, hubo un gran debate sobre el papel de las redes sociales en el derrocamiento del presidente tunecino, Zine el Abidine Ben Ali, y la inminente caída de Mubarak”, se lee en un análisis del Pew Research Center.
De ahí en adelante son incontables las veces que vimos movimientos sociales y conflictos armados a través de Twitter y Facebook. Y basta con ver los trinos que circularon en agosto del año pasado tras la toma del talibán en Afganistán: “Los vuelos no pueden salir del aeropuerto de Kabul porque la gente se amontonó en los aviones. Este vuelo de Kam Air aparentemente no pudo despegar porque cientos de personas están tratando de abordar”, escribió Ragip Soylu, periodista del Middle East Eye, en Twitter. El horror que sintieron los afganos en agosto de 2021 quedó capturado en las fotos que todavía circulan en internet.
Le puede interesar: La guerra a las puertas de Kiev: una crónica desde Irpín
Pero algo se siente diferente esta vez, a tal punto que medios como The New Yorker hablan de la “primera guerra TikTok del mundo”. Y aunque la desinformación siempre ha sido un tema preocupante cuando hablamos de redes sociales, los videos sobre la invasión rusa a Ucrania que circulan en esta plataforma abren un nuevo debate sobre el papel de las redes (y los usuarios) en tiempos de conflicto.
Un breve paréntesis para los que no usamos TikTok: la aplicación permite crear y compartir clips cortos, se puede editar videos con filtros, música y sincronización de labios. Es tan popular, que tiene mil millones de usuarios en todo el mundo. Y sin duda se convirtió en una de las redes más populares para compartir imágenes de la guerra en Ucrania. Pero tiene un problema: “El feed algorítmico de esta plataforma, en particular, facilita el consumo pasivo de un video; inmediatamente, la aplicación te despliega muchos otros clips similares, sin cuestionar el origen del contenido”, escribió Kyle Chayka de The New Yorker.
Algo similar nos comentó Luisa Isaza, abogada e investigadora en temas de libertad de expresión y redes sociales: “Hay plataformas de vieja escuela que llevan muchos años afinando sus reglas de publicación de contenido. Eso lo controlan a través de inteligencia artificial o moderadores humanos, por ejemplo. Pero TikTok es nuevo en el mercado, donde las normas son más sencillas y los procesos menos desarrollados. Por supuesto, van a tener problemas a la hora de identificar las publicaciones que violan las normas”, comentó Isaza.
Le puede interesar: ¿Por qué Telegram es clave en la guerra de desinformación de Rusia?
Siguiendo esta misma línea, Mike Proulx, director de investigación de la firma de análisis Forrester Research, dijo que la confluencia de las redes sociales y los celulares permite a los usuarios publicar contenido instantáneamente y sobre el terreno. “Si agregamos el algoritmo y la popularidad de TikTok a la mezcla, obtendremos la tormenta perfecta de contenido viral”, sostuvo el experto a The Guardian.
Estos videos, a la vez, pueden tener la capacidad de desencadenar una fuerte respuesta emocional. “Esto se llama sentido colectivo”, comentó Claudia Flores-Saviaga, experta de la Universidad Northeastern a Wired. “Es algo común durante eventos de crisis como guerras o desastres naturales”, agregó. Algo que puede divulgarse con más frecuencia si se trata de desinformación: un estudio del Instituto Tecnológico de Massachusetts (MIT) arrojó que las noticias falsas pueden llegar a difundirse hasta seis veces más rápido en plataformas como Twitter, por ejemplo.
“TikTok utiliza la tecnología de recomendación estándar que vemos en otras redes sociales. Si los usuarios consumen con frecuencia información errónea (o contenido sesgado), es probable que vean más de esto”, comentó Julian McAuley, profesor de informática en la Universidad de California (San Diego), a The Guardian. ¿Algunos ejemplos?
Le puede interesar: [En vivo] “Atroz”: Zelenski y EE. UU. sobre bombardeo a hospital en Ucrania
La semana pasada vimos una publicación etiquetada como “El fantasma de Kiev”, que mostraba a un piloto derribando aviones rusos. El clip atrajo a millones de usuarios en TikTok. “En realidad se trataba de un videojuego llamado D.C.S. World, cuyos gráficos granulados son fáciles de confundir con imágenes reales”, se lee en una publicación de The New Yorker. Algo similar documentó The Guardian: “En un clip se veían grandes camiones que transportaban contenedores cilíndricos en medio de la nieve. De fondo se escuchaban gritos y un título alarmante: ‘Bomba nuclear de Rusia’. El video fue eliminado, pero no antes de que recibiera 18 millones de visitas. Bienvenido al conflicto Rusia-Ucrania en TikTok”, dice el artículo del diario británico.
Y aunque sabemos que las redes “son un cronista imperfecto en tiempos de guerra”, como lo menciona Kyle Chayka, en algunos casos también pueden ser una fuente clave de información, sobre todo en medio de la persecución rusa contra periodistas y medios independientes. “Como analista de lo que está sucediendo en Ucrania, obtengo el 95 % de mi información de Twitter”, dijo Ed Arnold, investigador en seguridad europea del Royal United Services Institute a Wired.
De hecho, el Washington Post publicó un artículo sobre cómo algunos videos de TikTok revelaron los movimientos de las fuerzas rusas en la frontera con Ucrania antes del 24 de febrero. “Esos videos han comenzado a preocupar a los analistas militares. Las escenas, explican los expertos, parecen indicar que la acumulación rusa podría estar entrando en sus etapas finales antes de una invasión”, se lee en la publicación del diario estadounidense.
Para bien o para mal, el contenido sobre Ucrania está circulando en cantidades exorbitantes. Entre el 20 y 28 de febrero las visualizaciones etiquetadas con el numeral #Ukraine aumentaron de 6.400 millones a 17.100 millones. Estamos hablando de 1.300 millones de visualizaciones diarias.
Y en este punto llega la gran pregunta que nos hacemos con frecuencia, ¿qué hacer con la desinformación en redes sociales?, ¿y qué pasa con la libertad de expresión en estos casos?
Le puede interesar: Bombardeo en hospital pediátrico de Ucrania deja al menos 17 heridos
“Durante años, las plataformas se negaron a controlar la información. Hay razones económicas evidentes: desarrollar reglas y mecanismos para detectar la desinformación es sumamente costoso. Pero, además, los altos directivos de estas plataformas siempre argumentan que no les corresponde ser jueces de la verdad”, explicó Isaza. “De hecho, como defensora de la libertad de expresión, no me siento cómoda con que una red social me diga qué es falso y qué no”, agregó.
Con todo y eso, la experta sostiene que ese discurso ha cambiado con los años por dos hitos importantes: “Primero, lo que pasó en las elecciones presidenciales de 2016 en Estados Unidos que dieron como ganador a Donald Trump. Muchas organizaciones alegaron que, en parte, esa victoria se dio por la desinformación en redes. Y de hecho vimos datos sobre la interferencia rusa en esos comicios, sin mencionar el escándalo de Cambridge Analytica”. Isaza sostiene que, aunque es muy difícil llegar a ese tipo de conclusiones, las compañías sí empezaron a recibir presiones para gestionar lo que ocurre en sus plataformas en tiempos electorales.
“Lo vimos también con la llegada del covid-19. Hubo gente que murió por seguir recomendaciones en redes”, agregó la experta. Y en este caso, Facebook, Twitter y Youtube sí anunciaron nuevas medidas para combatir la desinformación: se habló de eliminar los contenidos contrarios a autoridades de salud y de notificaciones que alertaran a los usuarios sobre información falsa.
Ahora TikTok se enfrenta al mismo dilema. “El video es el formato más difícil de moderar para todas las plataformas”, dijo Alex Stamos, director del Observatorio de Internet de Stanford y exjefe de seguridad de Facebook, a The New York Times. “Cuando se combina con el hecho de que el algoritmo de TikTok es el factor principal que determina el contenido que ve un usuario, esto convierte a esa red social en una plataforma potente para la propaganda viral”.
👀🌎📄 ¿Ya te enteraste de las últimas noticias en el mundo? Te invitamos a verlas en El Espectador.
Sara Mosavi, vocera de TikTok, sostuvo que la compañía continúa “supervisando la situación con mayores recursos para responder a las tendencias emergentes y eliminar el contenido infractor, incluida la información errónea, dañina y la promoción de la violencia”. Pero para Luisa Isaza hablar de crear normas para regular la desinformación es complejo, en cualquier caso: “En la práctica es muy difícil controlarla. La cantidad de publicaciones (estados, historias, publicaciones de fotos, videos, audios, etc.) que se hacen por minuto en estas plataformas es gigante. Además, los algoritmos no entienden contexto, y los moderadores no alcanzarían a revisar tanta información”.
Por ahora, y pese a las advertencias de videos falsos que circulan en redes sociales, muchos usuarios dicen que TikTok seguirá siendo esa herramienta para enterarse de lo que ocurre a miles de kilómetros de sus hogares. “Supongo que realmente no sé cómo es la guerra. Pero vamos a TikTok para aprender, por lo que tiene sentido que también confiemos en esto”, dijo una estudiante en Los Ángeles al Times
