Internet se está contaminando con una especie de virus que no es para nada nuevo, pero que es notablemente cada vez más contagioso y dañino: la desinformación. Pero para entender mejor la enfermedad, primero hay que conocer a nuestro huésped.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
De Google a TikTok a ChatGPT
Desde la llegada de la pandemia en 2020, hemos observado una migración increíble en los motores de búsqueda. Para la Generación Z, TikTok es el espacio donde se hacen muchas de las búsquedas en el ciberespacio. No es Google, como para nosotros los de la “vieja escuela” del dial-up que desconectaba el cable de teléfono para usar Internet.
Eso quiere decir que si alguien más joven necesita consejos para hacer una buena hoja de vida, tiende menos a buscarlos como lo haría alguien en sus 30 a 40 años. Optará por buscar un video en TikTok, así como lo hace para las recomendaciones de dónde comer, a dónde viajar, qué vestir, y un largo etc.
“Cada vez más jóvenes utilizan el potente algoritmo de TikTok —que personaliza los videos que se les muestran en función de sus interacciones con el contenido— para encontrar información sorprendentemente adaptada a sus gustos. Esta personalización se combina con la sensación de que son personas reales en la aplicación quienes sintetizan y comparten la información, en lugar de sitios web sin rostro”, señaló The New York Times en 2023.
El cambio estaba puesto en la mesa. Sin embargo, el surgimiento de TikTok como el nuevo gran motor de búsqueda se chocó extremadamente pronto, en menos de dos años, con otro nuevo retador de los motores tradicionales: los chatbots.
Si la plataforma china presentaba ya una sensación de más “cercanía” con el usuario, los chatbots de inteligencia artificial fueron la revolución final. Y no solo se estaban cambiando los motores de búsqueda (como Google), sino también hubo una alteración en la confianza.
“La naturaleza intensamente personal de una conversación (generada por la IA), en comparación con una búsqueda clásica en internet, podría influir en la percepción de los resultados de búsqueda. Las personas podrían confiar más en las respuestas de un chatbot que participa en una conversación que en las de un motor de búsqueda independiente, afirma Aleksandra Urman, científica social computacional de la Universidad de Zúrich (Suiza)”, según recogió la revista Scientific American en un estudio sobre la percepción de confianza de las IA.
Así, muchas personas empiezan a preferir IA para búsquedas cotidianas o consultas rápidas, especialmente cuando no necesitan una verificación exhaustiva. Y no solo eso: confiarían más en estos resultados. Estos, los chatbots, serán nuestros huéspedes.
¿Cómo funciona la IA?
El problema con este huésped es que, a diferencia de los motores anteriores que tenían un poco más de “anticuerpos” (controles de seguridad en la información), es mucho más vulnerable.
Para funcionar, los “cerebros” de las inteligencias artificiales como la de OpenAI aprenden de la información que se encuentra en Internet: portales de noticias, librerías en línea, blogs, foros de comunidades como Reddit… millones de páginas son consultadas para responder a una pregunta.
Pero luego de absorber cantidades enormes de texto, no verifican que estos tengan alguna “verdad”. Lo que aprenden son patrones estadísticos y relaciones entre palabras y contextos.
Eso quiere decir que si el material del que aprenden está cargado de desinformación, el modelo puede tomar esas mentiras como algo normal y replicarlas como si fueran ciertas.
Esto genera una gran vulnerabilidad porque no todo lo que circula en Internet es bueno o confiable. Ahora, para defenderse de la desinformación, estas plataformas cuentan con una suerte de “anticuerpos”.
Hay páginas de fact-checkers, hay periodistas y medios de investigación, que serían como “glóbulos blancos”, y más importante, están las mismas empresas de IA que actúan como la primera barrera (bien podría ser la piel) que toman medidas para priorizar los contenidos confiables sobre los de menor valor.
Sin embargo, al igual que en los humanos, el sistema inmunológico puede saturarse. Un virus lo suficientemente grande, rápido y masivo puede abrumarlo. Y eso es precisamente lo que intenta hacer la Pravda Network, nuestro virus.
El envenenamiento de datos
La Pravda Network es una red masiva de contenido cargado de propaganda rusa sobre temas variados como la guerra en Ucrania o la política interna en Estados Unidos. Es altamente contagioso, pues el Instituto para el Diálogo Estratégico (ISD) informó que publica hasta 23.000 artículos al día en la red. Muta constantemente, cambiando de temas para adaptarse a distintos “hospedadores”, y es multilingüe: se propaga en diferentes ecosistemas culturales de Asia, África o Europa.
Todos estos componentes la hacen extremadamente peligrosa. La semana pasada, el ISD también dijo que en más del 80 % de los casos, los artículos desinformativos de la red eran tratados como una fuente legítima de información por medios. Eso permite que se sigan amplificando sin quererlo. Si los modelos de aprendizaje de las IA toman medidas para aprender información de medios “legítimos” (equivalente a ponerse un tapabocas), pero estos igualmente publican desinformación, la protección inicial no servirá de nada. Sería como ponerse el tapabocas al revés.
El volumen de contenido falso en línea es lo más preocupante. La idea es simple: si se inunda internet con 100.000 versiones de la misma mentira, un modelo de IA que se alimenta de lo que encuentra en internet puede concluir que esa mentira no solo es real, sino estadísticamente predominante. O como diría el propagandista nazi Joseph Goebbels, “una mentira mil veces dicha, se convierte en una gran verdad”.
Lo que hace la red rusa con IA es el equivalente a la producción de cinco meses de un periódico como El Espectador, con una plantilla de decenas de periodistas. Los expertos creen que Rusia intenta “alisar” las bases de entrenamiento de los modelos inundándolas con contenido pro-Kremlin. Otros países también lo están intentando. ¿Funciona?
A principios de este año, estudios mostraron que los chatbots como el de ChatGPT estaban difundiendo información falsa acerca de que Estados Unidos estaba construyendo un arma biológica en Ucrania o que Francia estaba suministrando mercenarios a Kiev. Y eran “noticias” inventadas por blogs rusos.
¿Hay una vacuna?
El problema central que enfrentan los modelos de lenguaje es que, al igual que un cuerpo expuesto, carecen de memoria inmunológica para diferenciar un virus (el contenido falso de Pravda) de un nutriente (información verificada).
La respuesta podría ser la certificación criptográfica del contenido, o nuestra “vacuna digital”. Esta solución que utiliza tecnologías para establecer la trazabilidad de la fuente, basada en estándares de Procedencia del Contenido como C2PA, funciona al aplicar una “firma de ADN digital” inalterable a los artículos legítimos escritos y corregidos por periodistas de verdad.
La clave es que cada pieza periodística lleve una huella matemática única (hash) que es sellada con la clave privada del medio, probando algo que se conoce como Autoría Humana Verificada (Human-Authored Provenance). De esta forma, la IA desarrolla “memoria inmunológica”: al encontrar un artículo, verifica la firma y si esta no existe (como en el contenido de Pravda) o ha sido alterada, la IA lo desprioriza automáticamente.
Sin embargo, el desafío de esto no es tecnológico, sino económico, político y logístico. La infraestructura necesaria, como el software de integración, hardware de seguridad, representa un precio que, aunque insignificante para The New York Times, puede ser enorme para un periódico regional con bajos ingresos por publicidad.
La supervisión humana constante también es costosa. En un medio pequeño, donde un solo reportero es responsable de escribir, editar y publicar, agregar un paso de seguridad estricto ralentiza la producción y aumenta la carga de trabajo sin aumentar los ingresos.
Esto crea una barrera para los medios pequeños y locales, quienes, aunque honestos, se arriesgan a que su contenido sea descartado por no poder costear la “vacuna”. Y para que la “vacuna” sea efectiva, los estándares (como los de C2PA) deben ser adoptados universalmente por todos los creadores de contenido legítimo.
Esto podría conducir a una peligrosa brecha de credibilidad, donde solo la información de los medios grandes y ricos sea considerada “verdadera” por los algoritmos, mientras se margina a las voces periodísticas con menos recursos.
Además, las grandes empresas de IA tendrían el poder de dictar unilateralmente qué contenido es “confiable” al decidir qué certificaciones priorizar. Esto podría llevar a que la IA se convierta en un guardián de la verdad impuesto por la tecnología, con el riesgo de sesgos corporativos.
¿Cómo construir defensas?
Otra opción viable es construir nosotros mismos defensas. Si los usuarios reemplazan los motores de búsqueda tradicionales por estos chatbots que corren el riesgo de alimentarse de mentiras para dar respuestas, el diagnóstico es preocupante: pueden recibir información manipulada sin saberlo.
Entendiendo que no es posible detener la migración de motores de búsqueda a los chatbots de la IA, por lo que estos ofrecen al usuario, ¿qué podemos hacer para protegernos?
La respuesta no es sencilla. Lo más básico sería mejorar la alfabetización digital. Enseñar a usuarios que los modelos generativos no verifican la verdad, sino que predicen patrones de texto. Esto va de la mano con entrenar a la gente para identificar señales de información inventada: falta de referencias, detalles muy genéricos, contradicciones internas. La IA “alucina” después de ciertas respuestas (como si le diera fiebre), pero hay mecanismos para entender cuándo lo hace.
No entender estos principios causa otro problema: la “autocontaminación”. En mayo de 2024, el periódico dominical del Chicago Sun-Times publicó una lista de libros recomendados generada por un sistema automatizado que en algún punto de la cadena de sindicación redactó títulos de libros, autores y sinopsis que eran completamente inventados o inexactos. La IA había “alucinado” o inventado los detalles observando patrones que encontró en línea. Asumiendo que la IA es infalible, los “globulos blancos” fallaron.
Así, la desinformación no solo entra por la puerta trasera, a través de la inundación masiva y no verificada como Pravda, sino que también puede infiltrarse por la puerta principal, a través de procesos editoriales. Incluso los más expertos están sufriendo.
En agosto, la revista Wired, considerada la “biblia” del periodismo tecnológico, y otros medios de categoría como Business Insider publicaron una serie de artículos a nombre de Margaux Blanchard, quien aseguraba que era una periodista “freelancer”. En realidad, Blanchard no existía. Tampoco las fuentes de su historia sobre las bodas en el videojuego Minecraft. Aun así, logró publicar artículos hechos con IA que tuvieron que ser despublicados.
Y cuando un gran modelo de aprendizaje de lenguaje de las IA se entrena o busca información, otorga un peso mucho mayor a las fuentes que tienen alta reputación y credibilidad, como Wired. Al conseguir que un artículo falso sea publicado allí, el contenido falso logra un “lavado de credibilidad”. Lo mismo ocurre con Wikipedia, una base de datos clave para el entrenamiento de IA, donde la red Pravda se infiltra para promover narrativas prorrusas que están reescribiendo la historia de la guerra.
Por esta razón, la labor de los “glóbulos blancos” es tan importante, pero, una vez más, puede verse superada por la infinidad de información que hay que corregir. Además de la poca alfabetización frente al tema, si los medios empiezan a depender de IA para generar artículos sin minuciosa supervisión humana, se corre el riesgo de amplificar información falsa de manera masiva.
Y al producir contenido de manera automatizada y masiva, se corre el riesgo de homogeneizar las noticias: todos los artículos terminan pareciendo iguales, con el mismo estilo y posibles errores repetidos, lo que reduce la diversidad de perspectivas y la capacidad crítica de los lectores.
El resultado es un ecosistema donde la información puede lucir profesional, pero estar contaminada, erosionando la confianza en los medios tradicionales y reforzando la difusión de desinformación a gran escala.
También se puede fomentar que los lectores contrasten la información obtenida con fuentes confiables, incluso cuando la respuesta provenga de un chatbot. Sin embargo, sin una regulación internacional que establezca la transparencia en el entrenamiento de los modelos y fomente la cooperación contra redes maliciosas, el futuro no es muy alentador. Iniciativas como la Ley de IA de la Unión Europea buscan crear estos marcos, pero su alcance debe ser global para contrarrestar amenazas transnacionales como Pravda.
Un problema final es que las empresas de IA están alcanzando el límite de la información de alta calidad disponible en internet. La próxima generación de modelos se verá obligada a alimentarse de datos de menor calidad o incluso sintéticos (creados por otras IA), lo que significa que el virus de la desinformación puede volverse endémico en sus bases de entrenamiento futuras.
👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.
El Espectador, comprometido con ofrecer la mejor experiencia a sus lectores, ha forjado una alianza estratégica con The New York Times con el 30 % de descuento.
Este plan ofrece una experiencia informativa completa, combinando el mejor periodismo colombiano con la cobertura internacional de The New York Times. No pierda la oportunidad de acceder a todos estos beneficios y más. ¡Suscríbase aquí al plan superprémium de El Espectador hoy y viva el periodismo desde una perspectiva global!
📧 📬 🌍 Si le interesa recibir un resumen semanal de las noticias y análisis de la sección Internacional de El Espectador, puede ingresar a nuestro portafolio de newsletters, buscar “No es el fin del mundo” e inscribirse a nuestro boletín. Si desea contactar al equipo, puede hacerlo escribiendo a mmedina@elespectador.com