Publicidad
6 Aug 2022 - 5:00 a. m.

Detección automática de derechos de autor: una herramienta de desigualdad

Herramientas como las redes sociales hacen de internet un medio de comunicación de doble vía, cualquier persona que esté en esa red no solo consume contenidos, puede también crearlos y potencialmente llegar a cualquier audiencia. Como creadoras, se les dice que necesitan instrumentos para el cumplimiento efectivo y rápido de la Ley de Derechos de Autor. Para eso son los filtros de detección automática de infracciones, sin embargo, una investigación muestra que son exagerados y generan un entorno digital desigual.

Esta semana la Fundación Karisma, donde trabajo, lanzó el informe “Detección automática de derechos de autor: una herramienta de desigualdad” escrito por José Luis Peñarredonda. En el informe se explica que estos filtros de detección de contenido posiblemente infractor de las plataformas (como YouTube o Facebook) funcionan a partir de una base de datos con muestras de audio, imagen o video que entregan quienes se registran como propietarios de los contenidos. La herramienta contrasta los contenidos que suben las personas usuarias de la plataforma con la muestra de entregada por los titulares, cuando hay coincidencia bloquea el contenido o lo monetiza a favor de quien dice ser su propietario.

Las plataformas gringas —que dominan el mercado— han implementado estos filtros para enfrentar la obligación legal derivada de la Ley Digital Millenium Copyright Act que les impone tener un procedimiento expedito y extrajudicial para bloquear el contenido y si bien contemplan mecanismos de reclamo, como muestra el informe de Karisma, éstos son complejos y poco efectivos.

El informe cuenta cómo, aunque el cineclub de la Universidad Central en Bogotá se aseguró de pasarse a Internet solo con contenidos en dominio público o autorizados por sus titulares, sufrió de constantes bloqueos que no pudo resolver a tiempo. La frustración llevó a decidir migrar a plataformas más pequeñas —donde los mecanismos de cumplimiento de la ley de derecho de autor no son tan exagerados—, pero esto hizo que sacrificaran su alcance y salieran del espectro de muchas personas que los seguían.

Un medio independiente decidió emitir la posesión del entonces electo presidente Iván Duque en 2018. A sabiendas de que los discursos de un funcionario público son de libre circulación, y en todo caso después de haber pedido autorización al canal institucional del Estado que le confirmó la autorización, su retransmisión fue bloqueada porque ya lo había registrado como emisión propia un canal más grande del país.

Bellini, joven sordo que quiere ser youtuber, quiere traducir a su comunidad canciones usando lenguaje de señas colombiano y actuarlas. Sus contenidos son constantemente bloqueados o monetizados a favor de terceros. Él no quiere que éste sea un contenido sin sonido ―que evitaría el filtro― pues busca también servir de puente con quienes escuchamos para que tengamos una ventana a su cultura. Se trata de un uso legítimo que en medio de la protección del derecho de autor debe garantizar la libertad de expresión de Bellini, de su colectividad vulnerable y nuestra —como audiencia que tenemos derecho a verlo—.

Empieza el aislamiento en 2020 por motivo de la declaratoria de emergencia ocasionada por el Covid-19, Cuestión Pública hace una transmisión en vivo para hablar del tema. Unos minutos después de haber iniciado la transmisión es suspendida. Al inicio se hicieron conjeturas sobre censura, luego se estableció que fue un bloqueo por presunta infracción al derecho de autor: una de las invitadas usaba la misma ropa que había usado unos días antes en otro programa de un canal que seguramente registró su transmisión como propia.

Al analizar estos casos, el informe demuestra que, por la forma como funciona, el filtro no resuelve bien la tensión entre derecho de autor y otros derechos, como la libertad de expresión, y eso tiene efectos desiguales. El informe concluye que el impacto de los errores de estos filtros es mayor para los y las creadoras más pequeñas y para los medios de comunicación independientes. Muestra también que los errores nos afectan como audiencias ya que evitan que circulen contenidos de interés público y establece además que los mecanismos de apelación no solo son engorrosos, sino que son además inefectivos.

Pero, quizá la conclusión que más me llama la atención es que el mecanismo ha generado un incentivo para que grandes jugadores de contenidos en internet registren como propios la mayor cantidad de contenidos posible con las plataformas, lo hacen sin pensar siquiera que dentro de lo que registran puede haber contenidos de otros o en el dominio público. De hecho, cuando leí el informe recordé que alguien me contó algo que en su momento me hizo reír: me dijo que la transmisión del himno nacional que se hace a las 6 a.m. y 6 p.m. en todos los medios nacionales (por orden de la ley) es monetizada en internet a favor de un medio. Sigo sin saber si esto es cierto, pero con estos antecedentes ya no me parece chistoso pues puede ser cierto.

No hay mecanismo manual que pueda revisar los millones de contenidos que se suben a estas plataformas cada segundo. El último informe de transparencia de YouTube señala que en 2021 procesó más de 1,500 millones de reclamos por derecho de autor dentro de su sistema (Content ID), dice que casi el 99% de las reclamaciones se envían automáticamente —no hay nadie detrás que decida si realmente puede haber infracción—, y en general el contenido no se elimina sino que se desvía la monetización hacia quien dice ser el titular. El informe también muestra que los reclamantes son solo unos miles.

Como no es realista pensar que los filtros desaparecerán, discutamos también cómo impactan el mercado. Y es que toda creación de contenidos en internet es una actividad que también hace uso de las flexibilidades del sistema, por tanto, los errores de los filtros no sólo afectan una cultura compartida y libre, también impactan en los negocios. Según La República el mercado que movieron “los y las influencers” colombianos en 2021 fue de 17 millones de dólares y está en crecimiento. ¿A cuántos de estos influencers les bloquean y desmonetizan contenido por errores del filtro automatizado? ¿Cuánto dinero pierden tanto ellos y ellas como las empresas que promocionan cuando esto sucede si además el mecanismo de reclamo no es oportuno y efectivo?

Estoy convencida de que si el algoritmo de estos filtros no consigue distinguir los matices del derecho de autor —que en su esencia no es blanco o negro— para reconocer las flexibilidades que garantizan que la sociedad tenga acceso a información, conocimiento y cultura, hay que reconocer que funciona mal.

Por tanto, el bloqueo no puede ser inmediato, la apelación debe funcionar bien y ajustarse en lo local —idioma, por ejemplo—, debe haber consecuencias a reclamos injustificados y tendrían que existir mecanismos de seguimiento para asegurar la respuesta. Además, estos filtros nunca deben funcionar antes de que se hagan las publicaciones y se debe discutir cómo involucrar personas y mantener su presencia en estos canales.

Síguenos en Google Noticias