Empresas de tecnología: ¿por qué el Congreso de EE.UU. las cuestiona de nuevo?

Noticias destacadas de Tecnología

Facebook, Google y Twitter deben comparecer ante el Comité de Comercio del Senado de ese país para responder por la forma como moderan el contenido en línea, un asunto espinoso y complicado y que no ofrece una única solución.

Este miércoles, los directores ejecutivos de Google, Twitter y Facebook prestarán testimonio ante el Senado de Estados Unidos, de forma virtual.

Es normal si esto le genera un leve deja vu, pues este quizá ha sido el año más intenso (y tenso) en las relaciones que las grandes firmas de tecnología tienen con el Congreso de ese país. En julio, los representantes de algunas de estas empresas ya habían comparecido ante el Senado para hablar de competencia y monopolios y apenas hace unas semanas, la Cámara de Representantes de EE.UU. presentó un duro reporte sobre las prácticas de negocios de estos emporios.

Y hace apenas una semana, el Departamento de Justicia presentó una demanda contra Google por supuestas maniobras que lesionan la competencia en el mercado de buscadores y publicidad en línea.

Entonces, sí, de nuevo los jefes de las grandes empresas comparecen ante el Congreso. Y aunque esta vez la cuestión no resulta ser menor, sí está bastante más plagada de política, con menos de una semana antes de una elección decisiva para ese país, el mundo y, de paso, para la internet en una era en la que hay un gobernante que opera más como una estrella de Twitter que como un hombre de Estado.

El Comité de Comercio del Senado escuchará a Jack Dorsey (CEO de Twitter), así como a los directores ejecutivos de Facebook, Mark Zuckerberg, y de Google, Sundar Pichai, sobre la ley conocida como Sección 230, que protege a los servicios en línea de la responsabilidad por el contenido publicado por otros.

Si no sabe qué es la sección 230 (de una ley de 1996), tranquilo, la vasta mayoría del electorado estadounidense tampoco, por más que el candidato republicano a la presidencia lleva un par de semanas tocando el tema una y otra vez.

En pocas palabras, la sección 230 les confieren una cierta inmunidad a las plataformas en línea acerca del contenido que circula a través de sus herramientas: el usuario es responsable por el contenido, no la empresa que facilita su transmisión. Eso por una parte. Por la otra, también les da la libertad de que puedan moderar de cierta forma esta información, sin necesidad de que pierdan la inmunidad de la primera porción de esta explicación.

Y aquí es por donde entran las tensiones políticas, vinculadas a esta elección, pero anudadas profundamente con los últimos cuatro años de vida política en EE.UU., pues los Republicanos (y la ultraderecha) quisieran que las plataformas no metieran la mano en la moderación del contenido y los Demócratas (y el ala más de izquierda del espectro político) piden más participación en la regulación de esta información.

Lea también: El dilema de los anuncios digitales durante las elecciones en EE.UU.

Los defensores de la ley argumentan que es una piedra angular de internet al permitir que los servicios en línea prosperen sin temor a una avalancha de litigios, pero los ataques a la ley van en aumento en todo el espectro político.

Dorsey, quien comparecerá virtualmente ante el Comité de Comercio del Senado, llamará a la Sección 230 de la Ley de Decencia en las Comunicaciones “la ley más importante de Internet para la libertad de expresión y la seguridad”, y argumentará que la derogación de la ley conducirá a una mayor vigilancia del contenido, no menos. “Erosionar los cimientos de la Sección 230 podría hacer colapsar la forma en que nos comunicamos en internet, dejando solo un pequeño número de compañías de tecnología gigantes y bien financiadas”, dirá ante el Senado este miércoles.

Zuckerberg presentará un argumento similar. “Es probable que las plataformas censuren más contenido para evitar riesgos legales y es menos probable que inviertan en tecnologías que permitan a las personas expresarse de nuevas formas”, se lee en una copia de su testimonio. Sin embargo, el director ejecutivo de Facebook parece estar dispuesto a cambiar la ley. “Creo que el Congreso debería actualizar la ley para asegurarse de que funcione según lo previsto”, planea decir.

De fondo, el debate es acerca de la moderación del contenido en línea. Este es un tema que, para ponerlo ligeramente, es algo así como un enorme pantano poblado con enormes cocodrilos.

O, como lo dice Corynne Mcsherry, de la Electronic Frontier Foundation (EFF), “la moderación de contenido no es una bala de plata”: “No deberíamos esperar que los moderadores arreglen un problema que, en justicia, reside en fallas del sistema electoral. No puedes pedirle a la tecnología que arregle algo que no ha creado”.

A lo que Mcsherry se refiere con la bala de plata es que, a pesar de todos los esfuerzos de las plataformas (bienintencionados o no), no hay una única solución para lidiar con formas de regulación de contenido en línea. E, incluso, hay una buena discusión alrededor de si estas empresas deberían hacer de jueces sobre cuestiones que tocan íntimamente derechos humanos, como la libertad de expresión.

Por ejemplo, en el comienzo de la pandemia por el COVID-19, muchas plataformas de redes sociales cambiaron sus políticas de moderación de contenido para hacerlas más dependientes de herramientas de automatización. Twitter, Facebook y YouTube aumentaron sus capacidades en áreas como aprendizaje de máquinas (machine learning) para identificar contenido problemático en un esfuerzo para proteger a sus equipos de moderación y la privacidad de sus usuarios.

La moderación hecha por algoritmos presenta la enorme ventaja de que es un proceso que se puede implementar a gran escala, algo que viene bien dado el enorme tamaño de las plataformas en cuestión.

El problema aquí es que la moderación automatizada presenta serios problemas a la hora de identificar contextos y sutilezas que, en muchas ocasiones, son la línea que define la libertad de expresión y la libre circulación de ideas con diversidad política de piezas que pueden caer en clasificaciones como terrorismo o incitación al odio.

La EFF pone el siguiente ejemplo para argumentar este punto: “Con frecuencia, la evidencia de violaciones a derechos humanos o de crímenes de guerra queda atrapada en la red de la moderación automatizada de contenido, pues los algoritmos tienen problemas serios para leer el contexto y así diferenciar el contenido directamente asociado al terrorismo con los esfuerzos para dejar un registro de estos hechos, por ejemplo. Este impacto negativo en la detección de contenido afecta más, y por mucho, a las comunidades árabes y musulmanas”.

Lea también: ¿Qué pasa cuando una máquina decide que está bien y qué está mal?

A pesar de que la moderación humana de contenido no se puede hacer a gran escala rápidamente, y además viene con costos sociales, ésta sigue siendo indispensable. Los sistemas automatizados simplemente no son capaces de, consistentemente, identificar el contenido de forma correcta.

El problema tiene varias tensiones que parecieran complicarlo todo. Por un lado, es claro que las empresas de tecnologías tienen demasiado poder sobre el discurso en línea y, en general, toda la experiencia digital moderna. También es claro que los gobiernos deberían participar de este debate, como también lo es que esto, hecho a las patadas, puede generar una vía exprés para la intervención y la manipulación política.

La frase de Mcsherry sobre la bala de plata resuena más fuerte en este punto.

Ahora bien, estas tensiones no significan que no haya caminos para explorar y encaminar el debate. La EFF propone al menos cuatro preguntas que pueden guiar la discusión y que bien podrían servirles a usuarios y plataformas para pensar sobre la moderación del contenido en línea.

Primera: ¿el enfoque elegido tiene una aplicación muy específica o es una prohibición general? Aquí el tema clave es si la intervención es necesaria y proporcional; una acción contra toda una categoría de contenido puede que no lo sea, justamente por lo que ya se dijo sobre el peso de las sutilezas y el contexto en los procesos de formación de opiniones políticas, por ejemplo.

Segunda: ¿las acciones tomadas empoderan a los usuarios? Las plataformas, alega esta organización, deberían ofrecer más herramientas para que los usuarios entiendan y controlen la información que ven; no se trata de crear algoritmos para intentar abarcar a todas las poblaciones, con sus millones de necesidades específicas, como tampoco se trata de comenzar a crear cientos de excepciones a marcos de acción tan generales.

Tercera: ¿hay transparencia en los procesos? Esta cuestión se explica un poco por sí misma: los mecanismos que generan decisiones sobre moderación de contenidos tienen que estar claramente explicados para los usuarios porque sólo esta transparencia genera, a su vez, una comprensión de por qué se toma un camino u otro.

Cuarta: ¿las políticas sobre moderación de contenido están en línea con los principios de los derechos humanos? Suena un poco básico, pero quizá no lo es para muchos: la supresión de contenido en línea bordea, en muchos escenarios, derechos como la libertad de expresión.

Comparte en redes: