Publicidad

Google y OpenIA se suman a la pelea contra el contenido deepfake

Las grandes empresas de tecnología anunciaron medidas para identificar la creación de imágenes y videos de inteligencia artificial. Meta fue el primero en dar el paso.

09 de febrero de 2024 - 08:36 p. m.
Según los expertos, la ley ha tardado en ponerse al día con la tecnología.
Según los expertos, la ley ha tardado en ponerse al día con la tecnología.
Foto: AFP - AFP

Meta, Google y OpenIA han anunciado en los últimos días que ejecutarán medidas para mitigar el engaño en el contenido audiovisual en internet y propondrán herramientas para la identificación de archivos que hayan sido alterados o creados por la inteligencia artificial.

Los planes de prevención surgen a raíz de la desmedida cantidad de información falsa que recorre internet y lo que puede llegar a generar, especialmente en procesos electorales y el peligro que puede representar a las campañas políticas y los votantes.

Desde que comenzó la carrera de la innovación en inteligencia artificial, las inversiones de los gigantes de la tecnología han sido millonarias para mejorar la eficiencia de la IA generativa. Un asistente que facilita los servicios de los buscadores y propone herramientas al servicio de los usuarios. Sin embargo, ha sido momento para las tres compañías de unirse a la Coalición para la Procedencia de Contenido (C2PA siglas en inglés), la cual certifica a un gran sector de la industria digital, entre ellos a medios de comunicación como la BBC o el The New York Times y bancos de Estados Unidos.

Meta, Google y OpenIA han aclarado que no es una tarea fácil y que, por el momento, no existe una solución única, No obstante, las empresas ya comenzaron a desarrollar y presentar los primeros mecanismos de defensa para la identificación de inteligencia artificial.

Google

En los últimos días, anunció el lanzamiento de su herramienta de identificación aún en fase de prueba, SynthID. La aplicación tendrá la oportunidad de generar una marca de agua en los contenidos de la IA para identificarlos. La marca no está a la visión de los humanos, pero será detectable para la identificación del contenido.

Le recomendamos leer: Google presenta Gemini, el nuevo modelo de IA que le competirá a ChatGPT

En un comunicado donde explican el funcionamiento de SynthID, Google expresa que: “Poder identificar los contenidos generados por la inteligencia artificial es fundamental para fomentar la confianza en la información. Aunque no es una solución milagrosa para resolver el problema de la desinformación, SynthID es una solución técnica temprana y prometedora para este problema de seguridad de la IA”.

Esta tecnología está en desarrollo y podrá expandirse a otros modelos de IA y se planea integrar a otros productos en un futuro cercano, con la intención de empoderar a las personas y organizaciones para realizar un trabajo responsable con la creación del contenido de inteligencia artificial.

OpenIA

La compañía matriz de ChatGPT también se hizo presente para las nuevas medidas para contrarrestar este nuevo fenómeno. OpenIA anunció que utilizará las estrategias de la C2PA en sus generadores de imágenes, pero advierte que no son muy fiables. En un comunicado respecto al tema expresó que: “Metadatos como C2PA no son una solución milagrosa para abordar cuestiones de procedencia. Puede eliminarse fácilmente de forma accidental o intencionada. Una imagen que carece de estos metadatos puede haber sido generada o no con ChatGPT o con nuestra API”.

Le recomendamos leer: El fenómeno deepfakes: una revolución tecnológica que amenaza la verdad

Sin embargo, OpenIA asegura que estos pasos son necesarios en el camino de la claridad digital, y con la ayuda de la certificación de C2PA creen que están optimizando las estrategias en contra de los contenidos fraudulentos: “Creemos que adoptar estos métodos para establecer la procedencia y animar a los usuarios a reconocer estas señales es clave para aumentar la fiabilidad de la información digital”.

Año de elecciones en varios países del mundo

Las compañías no han informado de los plazos para la introducción completa de sus medidas para este año que, además, tiene importantes citas electorales alrededor del mundo, un ingrediente que tiene aún más prendidas las alarmas. La secretaria de comercio de Estados Unidos, Gina Raimondo, comentó en un comunicado: “El gobierno tiene un papel importante que desempeñar en el establecimiento de las normas y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial”.

Más de un tercio de la población visitará las urnas este año, es por ello que la preocupación ha comenzado a ejercer presión sobre los gigantes tecnológicos para que desarrollen y fomenten la identificación de los contenidos en internet. La Comisión Europea afirmó: “Sabemos que el periodo electoral en la UE va a ser blanco de ataques híbridos e injerencias extranjeras de todo tipo”.

Ya se ha registrado varios episodios en los que, por medio de contenido truncado o alterado, se ha desinformado con la imagen o la voz de políticos para generar mensajes sin consentimiento de las personas. En enero, por ejemplo, se conoció la noticia de una grabación en la que utilizaron la voz del presidente Joe Biden para no votar en las elecciones primarias en el estado de New Hampshire. “Tu voto marca la diferencia en noviembre, no este martes” decía el mensaje creado artificialmente. Por lo sucedido, se comenzó una investigación por parte de la oficina encargada en asuntos electorales.

En México, Claudia Sheinbaum precandidata a la presidencia, fue víctima de varios intentos de deepfake en los que ciberdelincuentes utilizaron su voz e intentaron estafar asegurando que se podían hacer inversiones seguras en una empresa de petróleo. La precandidata desmintió la información a través de su cuenta de Facebook.

👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar