Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
![“Las fronteras de estas redes sociales no son claras: acá llegarán los coletazos”: Carolina Botero](https://www.elespectador.com/resizer/v2/6SOMQOJJJTNJYKB6PKNIDGMSWU.jpg?auth=e16029ae304b6cde4d8239a05bcffdeaa8d7344d103bb62aa6a83f962819f669&width=920&height=613&smart=true&quality=60)
A unos días de que Trump entre en la Oficina Oval, Mark Zuckerberg anunció cambios en las reglas de moderación de contenidos de Facebook, Instagram y Threads. Aunque se habla de que solo serán para Estados Unidos, las fronteras de estas redes sociales no son claras: acá llegarán los coletazos.
Voy a hablar de tres de estos cambios. El primero es que acabará con el programa de verificación de datos y hechos por terceros (no seguirá financiando a los fact-checkers), los reemplazará por una versión inspirada en el modelo de X de “notas comunitarias” (las personas usuarias pueden dar contexto a las publicaciones). El modelo de verificación de información surgió como una forma de contrarrestar problemas de desinformación en redes sociales y es un modelo con sus propios desafíos –no está exento de inconvenientes–, pero no estoy segura de que ese reemplazo sea la mejor solución, ni siquiera creo que sea equivalente.
Sabemos que las redes sociales están jugando un rol importante en las discusiones políticas, esto obliga a entender cómo deciden o no moderar los contenidos que publican las personas usuarias, pero también se requiere comprender las decisiones que toman para privilegiar los contenidos según su modelo de negocio (en lo que se ha dado en llamar la economía de la atención) y de eso por ahora no se ha hablado.
No conozco evaluaciones sobre la efectividad o no del modelo de X de notas comunitarias. De hecho, dado que cada vez es más complicado acceder a datos de las plataformas, puede que sea imposible tener investigaciones independientes que hagan ese análisis. En todo caso, desconfío de su efectividad en un espacio de discusión pública gestionado por un privado que está más interesado en mantener y crecer su negocio que en cuidar el interés público que es un elemento necesario si de lo que se trata es de facilitar el debate público. Sin hablar, además, sobre la posible influencia que pueda tener debido a la filiación política de sus dueños.
Desconfío también porque si bien existen desde hace años modelos exitosos de moderación comunitaria de contenidos –no sin sus propios desafíos, claro–, como los de Wikipedia o Reddit, estas redes son bien diferentes a Facebook o Instagram lo que no lo hace equiparable. La principal diferencia es el modelo de negocio que no se basa en la economía de la atención ni en la venta de los datos derivados de nuestra interacción en la plataforma. Los elementos como los incentivos, la responsabilidad o las reglas aplicables a la moderación por las comunidades difícilmente podrán transferirse.
El segundo cambio anunciado es que relajará las reglas sobre discurso de odio, centrando sus esfuerzos de moderación en contenidos ilegales o de alta gravedad, como terrorismo y explotación sexual infantil. La ineficiencia y los errores en los procesos de moderación de contenidos siempre han estado bajo la lupa: se ha cuestionado el número de moderadores que tienen; si conocen los idiomas y contextos que moderan; si están siendo atendidos en su salud mental; si y cómo moderan con Inteligencia Artificial. Hay preguntas sobre las directrices cuando se trata de temas grises –como lo son las evaluaciones sobre discurso de odio, en donde no siempre la respuesta es blanca o negra–, etcétera. Entonces, si bien es cierto que una moderación exagerada puede silenciar discursos permitidos, volver al punto cero ignora que lo que se ha desarrollado busca responder a afectaciones ciertas para poblaciones vulnerables.
El tercer cambio se refiere a que permitirá la personalización del contenido político: se podrán hacer ajustes para ver más de ese contenido en esas redes sociales. Tengo dudas sobre el alcance de esta decisión, considerando que esa medida va en contravía de los cambios que estas redes anunciaron en 2024 cuando la noticia era que Meta limitaría el contenido político que puedan ver las personas en sus redes sociales. Meta sostuvo que limitar la visibilidad del contenido político, sobre elecciones y lo social, era lo que la gente quería. Como consecuencia, las organizaciones de sociedad civil vieron cómo cada vez es más difícil, a veces imposible, pagar para que sus contenidos tengan más impacto en esas redes. ¿Acaso cambian su posición? ¿Cómo funcionará esto ahora?
La presión regulatoria sobre las redes sociales sigue aumentando y esta movida de Zuckerberg le da una victoria temprana a la visión de Trump: desregular la moderación de contenidos en el debate político es una forma de tomar partido sobre su regulación. No hay vuelta atrás, las redes sociales van a ser reguladas en los próximos años en el mundo, la pregunta es: ¿Cómo? Dada la presión que hay y las reacciones desde otros Estados con visiones regulatorias diferentes, lo que es simplista es creer que la movida de Meta cierra el capítulo. Esto apenas comienza.