Opinión

La falta de control de Mark Zuckerberg sobre Facebook

Esta semana, Mark Zuckerberg compareció ante el Congreso de Estados Unidos para rendir testimonio por el escándalo de Cambridge Analytica. Una de las conclusiones es que la empresa pareciera tener poco control sobre el modelo de negocio y los datos personales que recolecta. Tanto así que el derecho mismo a la privacidad se ha puesto en entredicho.

AFP

En 1999, Scott McNeally, CEO de Sun Microsystems, le dijo a un grupo de periodistas: “Las preocupaciones alrededor de la privacidad de los consumidores son un señuelo. De todas formas tienen cero privacidad, supérenlo”.

Esta cita, dicha casi 20 años antes, podría funcionar como resumen de la comparencencia de Mark Zuckerberg ante el Congreso de los Estados Unidos esta semana. Ante la preocupación luego de conocerse el escándalo de Cambridge Analytica, la respuesta del CEO de Facebook fue: “No hicimos lo suficiente. Fue mi error, lo siento”. 

Lea también: La pregunta para Mark Zuckerberg: ¿las compañías son capaces de cuidar los datos de los usuarios?

Pero, más que sentirlo, también es falta de control. Falta de control que Mark Zuckerberg demostró a lo largo de su la comparecencia, y con toda la razón. 

Recolectar datos personales de los usuarios de redes sociales y utilizarlos para influenciar en campañas políticas no es nada nuevo. Ya se vivió en 2016, cuando hackers rusos influenciaron en las campañas presidenciales de Estados Unidos, minando el principio democrático que debe existir en toda campaña presidencial. Pero esto es sólo la punta del iceberg, también se usan para crear nuevas tendencias en el sector comercial, para establecer las características de una población en específico, saber si en un futuro puedes sufrir de tal o cual enfermedad y así ofrecerte productos acordes; saber tus gustos en comida, deportes, ropa, entretenimiento y orientación sexual. Las posibilidades son infinitas, y por ende, las empresas que desean favorecerse de este escenario también lo son.

Es decir, intentar repeler a los terceros que deseen recolectar datos personales para fines subrepticios es lo mismo que recolectar los granos de arena de una playa. Es imposible y el mismo Zuckerberg lo admitió: “No importa cuantas personas contratemos. Nunca serán suficientes para revisar todo el contenido que se publica en Facebook”. Por consiguiente, siempre habrá la posibilidad de que alguna compañía logre recolectar datos personales para fines políticos. Siempre habrá el quiz tipo “¿Qué personaje de Disney serías?, “cómo te verías si fueras una persona del otro sexo?”, “¿qué princesa fuiste en la Edad Media?” que sonsacará nuestros secretos más inconscientes para sacarlos a la luz del mercado.

Uno a uno, los legisladores de Estados Unidos le preguntaron a Zuckerberg qué haría de ahora en adelante para evitar el mal uso de los datos personales de las personas, y una y otra…y otra vez, respondió con dos elementos clave: 1) los usuarios tienen control sobre sus datos. Ellos son los que deciden qué compartir y con quiénes; y 2), Facebook está desarrollando herramientas de inteligencia artificial para combatir las noticias y cuentas falsas, el terrorismo y el discurso del odio en general.

Que la persona tenga poder sobre sus propios datos ha sido el corolario de toda regulación en tratamiento de datos personales. No obstante, son pocos los que pueden llegar a manejar ese control. Estudios en ciencias sociales demuestran que en muchas ocasiones los humanos toman muy malas decisiones, que no habrían tomado si hubieran prestado atención y tenido toda la información posible, habilidades cognitivas ilimitadas y un autocontrol total. 

Lea también: Las cartas de Zuckerberg ante el congreso de EE.UU.

Extrapolando esto al tema que nos ocupa, son raras las ocasiones, si no inexistentes, en las que sabemos por completo a qué estamos consintiendo cuando entregamos nuestros datos para usar una app o una red social. Las razones de lo anterior son que la información contenida en las políticas de privacidad es complicada de digerir y el beneficio se adquiere al instante mientras que los costos vienen luego. Por consiguiente, Zuckerberg erra como el idelista que es al pensar que los usuarios son quienes deciden con quién comparten sus datos personales y para qué. Todo lo contrario, estamos dispuestos a entregar datos que ni sabemos que tenemos con tal de saber a qué personaje de Disney nos parecemos, cómo nos veríamos si fuéramos del otro sexo y qué princesa fuimos en la Edad Media.

En cuanto al desarrollo de herramientas de inteligencia artificial para combatir la desinformación que inunda internet, así como identificar bots, trolls rusos y demás intrusos en la red social, Zuckerberg no ha tenido en cuenta que el más temible enemigo son los usuarios mismos. Varios estudios han establecido que son los usuarios los principales culpables del fluir de noticias falsas y que, de hecho, prefieren compartir estas noticias que información verdadera, no sólo en el ámbito político, sino también en el comercial, científico y tecnológico. Para dar un ejemplo, afirmaciones falsas tienen un 70 % más de probabilidades de aparecer en Twitter que historias verdaderas. Con o sin bots, el resultado es el mismo. 

Mark Zuckerberg denominó la lucha contra hackers rusos, bots, trolls y demás máquinas autómatas como una nueva “carrera armamentística”. No, realmente es una guerra contra la ignorancia. La misma ignorancia de la que habla George Orwell en “1984” cuando dice que una sociedad jerárquica sólo es posible si está basada en la ignorancia. Cuando dice que, gracias a esa ignorancia, quien controla el presente controla el pasado, y quien controla el pasado controla el futuro. Es una lucha contra aquellos que quieren difundir ignorancia y contra quienes la difunden sin saber, creando presentes alternos en los que cada quien cree la historia que le publican en el celular.

Algo aún más peligroso es tratar de controlar la difuminación del terrorismo y el discurso del odio. Cuando se le preguntó a Zuckerberg qué entendía por esto, sus respuestas no fueron contundentes pues estos conceptos están sujetos a intepretación y su significado puede cambiar de país en país y de cultura en cultura. “Cualquier cosa que haga sentir insegura a nuestra comunidad”, es lo que ha decidido definir Facebook de terrorismo y odio. Sin embargo, existe un rango muy amplio de discursos políticos que se pueden calificar de “inseguros” en ciertos grupos sociales; por tanto, ¿prohibir estos discursos no se acerca peligrosamente a afectar la libertad de expresión? ¿No se crea el riesgo de imponer una visión parcial de lo que es terrorismo y odio?

Lea también: ¿Qué viene para Facebook tras el escándalo de Cambridge Analytica?

Finalmente, los congresistas no pudieron dejar de preguntar cuánta información recolectaba Facebook de sus usuarios. “¿Facebook me escucha cuando no estoy grabando un video?, ¿Messenger escucha mis llamadas?, ¿sigue escuchando cuando cuelgo?, ¿Instagram escucha cuando no estoy en un video? ¿Whatsapp me escucha estando o no en alguna llamada? Aún peor, ¿cómo es que Facebook monetiza sus aplicaciones si argumenta que los mensajes enviados entre sus usuarios son cifrados? Facebook recoge datos de personas que ni siquiera tienen una cuenta, ¿cierto? Recogen tantos datos que ya se puede declarar que Facebook es una empresa de medios y hasta financiera, ¿no es así?”. 

El círculo vicioso que ha creado Facebook se cierra en este punto. El modelo de negocio de esta plataforma tiene como punto de partida los datos personales. Entre más datos personales recolecte, mayores serán los servicios que podrá ofrecer, y con estos servicios, más serán las empresas y apps que llegarán a la plataforma. Facebook se encuentra en la incómoda situación de exhortar a que más y más anunciantes entren a la plataforma cuando miles de ellos pueden luego compartir los datos que recolecten con un Cambridge Analytica 2.0. Sumado a esto está la necesidad de los usarios de entregar sus datos con tal de poder usar una app, por mucho que diga Zuckerberg que tienen “control” sobre sus datos.

Así que el negocio que Mark Zuckerberg creó en su dormitorio de Harvard en 2004 se le conviritó en una hidra. Si le corta una cabeza se regeneran dos, y poco control tiene sobre ella, como se vio en su comparecencia. Con el escándalo de Cambridge Analytica se demostró que “tenemos cero privacidad, supérenlo”, parafraseando a Scott McNeally, y que, tal vez, si queremos guardar un secreto, lo mejor sea ocultárnoslo a nosotros mismos, como piensa George Orwell.