Publicidad

“Ver y no creer”, una máxima para el siglo veintiuno

Carolina Botero Cabrera
06 de mayo de 2023 - 02:00 a. m.

“Ver para creer” es una máxima que refleja cómo históricamente las personas confiamos en nuestros sentidos para que el cerebro analice y decida en qué creemos y en qué no. Es una máxima que también da cuenta del lugar privilegiado que en ese proceso tiene la vista. Sin embargo, a medida que la tecnología se desarrolla será más difícil confiar en los sentidos, más fácil manipular, falsificar o crear imágenes y videos que muestran realidades que no existieron, cada vez más nuestros sentidos solitos no podrán diferenciar entre qué es cierto y qué no.

A finales de abril la senadora Paloma Valencia publicó una foto que le servía para denunciar la presencia del ELN en carreteras del Cauca. El periodista Camilo García desconfió de lo que veía y después de analizarla –tanto con una herramienta tecnológica como con el contexto– indicó que la foto no servía para sustentar la afirmación de la senadora. El presidente Gustavo Petro, interesado en tener un ambiente para su plan de la paz total, eligió creerle a García y retuiteó su análisis. El debate estaba servido.

Esta semana Colombia Check, con el apoyo de Bellingcat, publicó su ejercicio de chequeo de la imagen. Concluyeron que no es posible tener certeza sobre si la imagen es real o no –aunque parecen inclinarse porque es más real que falsa–. Indican que después de un profundo análisis, pueden decir que la foto sí es del Cauca, fue tomada en el lugar indicado y que por las fechas en que se dice fue tomada sí hubo actividad del ELN.

Este caso pone sobre la mesa que la incertidumbre deberá ser nuestra regla de oro y muestra la dificultad para analizar estos temas. Tendremos que desarrollar habilidades para realizar sofisticados análisis que nos provean de capacidades más allá de nuestros sentidos.

Tanto García como el equipo de personas chequeadoras no creyeron solo en lo que vieron. Los chequeadores empezaron haciendo un ejercicio –en la distancia– para ubicar el sitio y su existencia, lo confirmaron. Tanto García como Bellingcat aplicaron herramientas tecnológicas a la foto para ver en ella lo que no es fácil ver, si fue manipulada, por ejemplo. En esta fase del proceso Bellingcat con su ejercicio demostró que no bastaba revisar en una herramienta -confiar solo en una aumenta la posibilidad de tener falsos negativos o falsos positivos, es como poner todos los huevos en una sola canasta- ellos usaron diferentes técnicas para tener varios ángulos de análisis y mientras uno concluye que fue manipulada, los otros indican que no y por tanto no se puede concluir si la imagen fue manipulada o no.

Ambos analizaron el contexto para ver si el hecho era creíble en el momento en que se afirma que sucedió. El ejercicio en caliente de García consistió en revisar en internet para concluir que no parecía que hubiera actividad del ELN en ese lugar. Colombia Check hizo una evaluación más profunda, y con el beneficio del paso del tiempo y el acceso a información de medios locales, estableció que sí era posible.

Con la ventaja que me da también el paso del tiempo, extraigo unas lecciones para un futuro tecnológico complicado. No solo no podemos confiar en nuestros ojos, sino que confirmar información noticiosa será cada vez más un proceso que requiera más tiempo, será más especializado y costoso. Nuestros procesos de análisis deberán apoyarse en fuentes variadas, tendremos que reconocer el riesgo que supone hacer afirmaciones tajantes en caliente y cada vez veremos más conclusiones no concluyentes. La idea de una perfecta verificación, que permita saber si algo es blanco o negro, es cada vez más lejana se parecerá más a matices de “la verdad”, a una escala de grises.

El esfuerzo por comprobar si esta imagen estaba manipulada no consiguió resultados concluyentes y sí muestra un nivel de sofisticación en el proceso de chequeo –usando herramientas y técnicas– que necesariamente se van a escapar a la mayoría de las imágenes y videos que circulan en las redes y que quedan por fuera del alcance de cualquiera. Y eso que no es sobre verificar imágenes o videos generados con IA, de esos que pronto se habrán popularizado.

Hace poco vimos en redes sociales imágenes creadas por una inteligencia artificial del arresto de Trump, algo que nunca sucedió. Quienes chequean imágenes mostraron cómo se podía reconocer que era una creación de una inteligencia artificial –explicaban cómo todavía esta tecnología tiene problemas imitando manos, por ejemplo–, pero realmente eran buenas, “sirven para engañar incautos” –diría mi abuela–.

Si instintivamente confiamos en las imágenes, el nivel de confianza que da un video es todavía más fuerte, usualmente incorpora no solo la vista sino también el oído. Ya les he hablado de la forma como los videos “deep fake” toman la imagen de mujeres políticas o actrices y las incorporan en videos porno. Este tipo de contenidos se usan para atacarlas y no solo afectan su reputación y amor propio, sino su vida. Además, la calidad de estos vídeos, que va mejorando día a día, hace más difícil desmentirlos.

Las reglas del juego sobre cómo decidimos qué es cierto y qué no están cambiando rápido y nos obligará a cambiar la máxima de ver para creer. Procesos de manipulación, falsificación o mentiras siempre han existido, la diferencia es que la tecnología que tenemos ahora las potencia y por tanto seguramente tendremos que incrementar nuestros niveles de incertidumbre, hacerla nuestra nueva realidad, desconfiar de lo que vemos. Tendremos que aprender habilidades informacionales –habilidades para saber cuándo y por qué necesitamos información, saber dónde buscarla y cómo analizarla y comunicarla– y sobre todo, tendremos que aprender a tomar decisiones lejos de las certidumbres. Cada vez estaremos más enfrentados a decidir frente a situaciones donde se habla de probabilidades y no de certezas.

Ante esta realidad tendremos que profundizar en nuestra capacidad para analizar riesgos en este nuevo mundo imperfecto y borroso, cómo el de la foto con la que inicio esta columna. La tarea será mayúscula para quienes se dedican a la comunicación. Estas personas deberán usar más fuentes, más conocimiento tecnológico, más contexto, más atención y hacer entender a las audiencias que se necesita algo de calma para mirar el contexto. ¡Vaya reto! pues todo esto riñe profundamente con las noticias rápidas, el clickbait y la economía de la atención.

La velocidad a la que estas cosas van hace difícil entender cómo abordarlas. Ya en algunos países, como Filipinas o la Unión Europea, pretendieron con muy poco éxito enfrentar esto tramitando iniciativas legislativas para prohibir el uso de la tecnología y obligar a las redes sociales a evitarlas. Dado que son herramientas son tan buenas como el uso que se les de y hay que reconocer que pueden servir para buscar personas desaparecidas o para hacer parodia y crítica política, por ejemplo.

Entonces, aunque es posible que encontremos espacios de control legislativo, valdría la pena trabajar más en entender las capacidades de las tecnologías, identificar las herramientas que se usan para la verificación –ojalá también se popularicen–, y es muy urgente reflexionar y analizar el contenido que circula y consumimos en internet para… ¡desconfiar!

 

Mauricio(17949)14 de mayo de 2023 - 02:16 a. m.
Dudar de todo lo que nos "comunican", primero que todo dudar de todo. Contrastar la supuesta información, sus fuentes, etc Revisar siempre los metadatos de los " datos". Triangular o mejor poligonizar datos, fuentes, técnicas, etc Así como se está usando la IA para hacer las falsificaciones, los "fakes", también se está usando para detectarlas; eso dicen por ejemplo los "moderadores" de las redes sociales. ¿Tocará convertirse en científico social y también computacional para buscar la verdad?
  • Mauricio(17949)14 de mayo de 2023 - 02:19 a. m.
    ¿Alfabetización funcional digital como ciudadanos?, ¿que responsablemente gestionamos nuestros datos privados, seleccionamos las fuentes de información que consultamos, y las revisamos críticamente?
Atenas(06773)06 de mayo de 2023 - 03:24 p. m.
Esta, otra advertencia más pa no dejarse uno meter gato x liebre en la medida q’ crece y sorprenden los adelantos tecnológicos con herramientas q’ dejan a cualquiera atónito. Y ese cuidado hay q’ tenerlo, no solo en lo objetivo, y quizá de más fácil comprobación, sino también en lo subjetivo, y asunto este más complejo xq’ se está incurso o en riesgo de ser presa del maniqueísmo, tal como le pasó al García aquel q’ en el caso q’ refiere hizo de servil alfil pa sacar en limpio al sofista Petro.
David(73769)06 de mayo de 2023 - 11:11 a. m.
Muy valiosa columna en sus apreciaciones sobre la tecnologia usada con fines poco eticos y con mas enfasis en hacer daño en personas o grupos. Hemos entrado en un campo muy grande de incertidumbre y si debemos creer en todo lo que vemos y oimos. Tarde que temprano esto se devolvera en contra de quienes manipulan la verdad, la realidad o los hechos. Entraremos definitivamente en otra "realidad" ? La incertidumbre sera nuestrsa compañera ahora mas que nunca
UJUD(9371)06 de mayo de 2023 - 03:16 p. m.
IA y confidencialidad y comercio con nuestros datos personales son las plagas que llegaron para quedarse. Como los virus estilo Covid 19.
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar