Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
El jefe de producto de X (antes twitter), Nikita Bier, anunció hace unos días que las personas usuarias podrán “ver el país o la región en la que se encuentra una cuenta”. La plataforma presentó este cambio como un esfuerzo por aumentar la transparencia en un ecosistema que, según especialistas en tecnología, está profundamente afectado por la desinformación.
En 2023, una encuesta mundial reveló que el 85 % de las personas estaba preocupada por la desinformación y que el 87 % consideraba que esta ya había afectado la política en su entorno local. La inquietud por la desinformación en redes sociales es constante y se refuerza cada vez que hay resultados de investigaciones sobre campañas de manipulación como ocurrió hace unos años en elecciones a través de América Latina o en las estadounidenses de 2024.
Aunque a veces la gente lo asuma así, la desinformación no es un fenómeno nativo de las redes sociales -ejemplos de estrategias de manipulación con tintes políticos se pueden rescatar a lo largo de la historia-. Internet lo que ha aportado es escala y velocidad, y eso afecta la forma como las personas sienten su impacto.
Hasta ahora, las plataformas respondían con mecanismos esencialmente internos contra las estrategias más articuladas del llamado “comportamiento no auténtico”: cuando una cuenta adopta identidades falsas para estafar, incidir en debates políticos, aumentar tráfico hacia sitios web o influir de cualquier otra manera. Lo que hacen usualmente es monitorear, investigar y desactivar operaciones desde dentro, para luego publicar un informe.
¿Qué cambió? X decidió hacer público un elemento clave de esas investigaciones: la ubicación de las cuentas. Con el objetivo declarado de aumentar la transparencia y contener la desinformación, la plataforma mostrará el país o la región desde donde registra que se publica el contenido de cada cuenta.
Poco después de habilitar esta función se empezaron a detectar numerosas cuentas que participaban en debates políticos estadounidenses, pero que, pese a aparentar ser locales, estaban ubicadas en países como India, Nigeria, Tailandia o Bangladesh. También se habló de cuentas que desde Irán se mezclaban en la discusión independentista escocesa. Se debate en redes si esas cuentas servían de instrumento de influencia extranjera en debates políticos locales.
No obstante, otra parte de la discusión se refería al impacto de esta revelación en la privacidad de las personas y advertían que era fácil manipular esa función. Al poco tiempo de su lanzamiento, X reconoció problemas técnicos: los datos de localización resultaban poco confiables, en parte por el uso de VPN o por enrutamientos particulares, como los de Starlink. Después de varios problemas -como que dijeron que la cuenta del Departamento de Homeland Security de EE.UU. estaba en Israel-, la plataforma retiró temporalmente parte de la funcionalidad y alertó que la etiqueta de ubicación “puede no ser precisa” y puede variar por desplazamientos temporales o viajes.
Aun así, algunas cuentas ya habían sido señaladas públicamente como supuestos “trolls” o actores coordinados, y varias fueron suspendidas por ser fan-pages con actividad política orientada a EE.UU. pero con ubicación aparente en el extranjero, por ejemplo.
La acción de X reactivó el debate sobre los límites entre transparencia, privacidad, fiabilidad de los datos y manipulación digital. En pocas palabras, X experimenta con una herramienta para que las propias personas usuarias puedan identificar y frenar campañas de manipulación desde el exterior. Pero al mismo tiempo abre un frente riesgoso al exponer datos sensibles, siendo además incapaz de garantizar la precisión de la función. ¿Merece apoyo o reproche este cambio?
Por otra parte, no solo la herramienta es imprecisa, además las personas pueden modificar o desactivar la función e incluso usar VPN, por tanto el dato no es perfecto, debe abordarse simplemente como uno más. Por supuesto, hay que reconocer el riesgo para la privacidad y trabajar para mitigarlo en personas con riesgos especiales, aún así prefiero ver el ensayo como un aporte de contexto al entorno informativo.
Me explico: las plataformas tienen pocos incentivos para desmantelar campañas de manipulación -especialmente aquellas que resultan exitosas- porque se benefician del tráfico que generan. Lo que hizo X hace más costosas esas operaciones y, sobre todo, introduce un cambio en el enfoque de la respuesta a la desinformación.
Innova porque en lugar de borrar contenido, apuesta por ofrecer más información para formar el criterio personal, da autonomía. Con el tiempo, es previsible que las personas encuentren maneras de ocultarse de la plataforma, de aprender a usar la información y claro, también a hallar la forma de manipular la función, pero es una visión no paternalista refrescante.
La desinformación es un problema complejo, no hay solución perfecta hay que seguir intentado. Hay que buscar también mecanismos para combatir la desinformación interna que en países como Colombia debe ser más frecuente, necesitamos facilitar las investigaciones para identificar lo que sucede, a los responsables y las motivaciones.
