Facebook actúa como una burbuja ideológica para sus usuarios

Según el País de España, solo el 22% de las noticias que las personas progresistas ven en sus muros de Facebook contradicen su forma de pensar.

AFP

 Facebook selecciona lo que los usuarios ven en sus muros. Por eso gran parte de la información que se presenta allí corresponde con cosas que le gustan al usuario y no con otras que no le interesan tanto. El diario El País cuestiona en su nota si esta no es una forma de cebar a los usuarios solo con lo que les gusta como en una especie de burbuja ideológica que no permite que nada desafíe su forma de pensar. Para despejar dudas, los científicos sociales de Facebook publicaron esta semana en la revista Science el primer estudio que analiza la influencia de esa fórmula que manipula los muros: “la burbuja ideológica existe, pero es más culpa de los propios usuarios que de la programación de Mark Zuckerberg”, explicaron.

En el estudio que evaluó la interacción de 10 millones de usuarios con enlaces de noticias políticas, los científicos de Facebook descubrieron que la red social es una caja de resonancia de ideas propias con pocas ventanas al exterior. Así, de todos los enlaces que ven las personas que se consideran progresistas, apenas un 22% desafían su forma de pensar. Los conservadores ven en sus muros un 33% de noticias que no corresponden con su ideología.
Según los investigadores, el algoritmo fue creado para reducir la diversidad ideológica de los usuarios, pero no es el único culpable de que ello ocurra, pues según el estudio “si los usuarios no escogieran a sus amistades como lo hacen, sino de forma aleatoria, verían entre un 45% (los progresistas) y un 40% (los conservadores) de contenido contrario a sus ideas”.

El asunto es que en la vida real las personas tampoco tienen relaciones sociales aleatorias, sino con personas con las que de alguna manera tienen una afinidad. Pero es mucho más difícil de medir esa burbuja ideológica en la calle que en las redes sociales. Las cantidades de información que Facebook puede recopilar sobre sus usuarios le permiten medir su inclinación a encerrarse en grupos de pensamiento más o menos aislados pero no saber lo que hay más allá en el plano de las relaciones reales.

Sin embargo una de las debilidades del estudio es que solo evaluó población de Estados Unidos y únicamente permitió que los usuarios señalaran una posición ideológica entre dos opciones opuestas, lo que deja en duda a las personas que no se consideran partidarias de ninguna ideología en particular. Según sugiere Pablo Barberá, que estudia la polarización de las redes en la Universidad de Nueva York, los usuarios estudiados probablemente tienen una red de contactos en Facebook más homogénea: "Si el estudio hubiera incluido a todos los usuarios, seguramente observaríamos unos niveles aún más altos de exposición a diversidad de opiniones, y un efecto mayor de los algoritmos".

"Es un estudio a la defensiva", explica Esteban Moro, experto en redes sociales de la Universidad Carlos III. "Facebook tiene un problema de imagen por culpa de los algoritmos que filtran la información que vemos y querían demostrar que el filtro algorítmico no tiene tanta influencia como el filtro social”.
Esta es la era de los algoritmos. Están en todo, en los resultados de Google, en el muero de Facebook y en todas las otras plataformas. Sin embargo, son todavía muchos los que piensan que ven lo que hay y no lo que el algoritmo cree que deben ver. Pero no es así: en función de su interacción con sus amigos y su actividad, Facebook define sus intereses y muestra lo que provocará más interacción, para que permanezca más tiempo en la red y de este modo le genere más ingresos a la empresa.

El activista Eli Pariser, publicó en 2012 un libro llamado Filter Bubble (la burbuja de los filtros), en el que se refirió al efecto de los algoritmos en nuestras vidas. En el texto ejemplificó el tema diciendo que al buscar en Google la palabra Egipto, a unos usuarios les aparece información sobre los problema sociales que enfrenta el país africano y la ola de protestas que experimentó con la primavera árabe mientras que a otros usuarios les aparece información sobre vacaciones en las pirámides. Todo eso en función de su comportamiento previo en la web. Al final, Esteban Moro dice que la principal debilidad del estudio es que no compara con nada. “No podemos saber si lo que ocurre es peor o mejor fuera de Facebook".

Vea el artículo en El País de España

Temas relacionados