Noticias

Últimas Noticias

    Política

    Judicial

      Economía

      Mundo

      Bogotá

        Entretenimiento

        Deportes

        Colombia

        El Magazín Cultural

        Salud

          Ambiente

          Investigación

            Educación

              Ciencia

                Género y Diversidad

                Tecnología

                Actualidad

                  Reportajes

                    Historias visuales

                      Colecciones

                        Podcast

                          Opinión

                          Opinión

                            Editorial

                              Columnistas

                                Caricaturistas

                                  Lectores

                                  Blogs

                                    Suscriptores

                                    Recomendado

                                      Contenido exclusivo

                                        Tus artículos guardados

                                          Somos El Espectador

                                            Estilo de vida

                                            La Red Zoocial

                                            Gastronomía y Recetas

                                              La Huerta

                                                Moda e Industria

                                                  Tarot de Mavé

                                                    Autos

                                                      Juegos

                                                        Pasatiempos

                                                          Horóscopo

                                                            Música

                                                              Turismo

                                                                Marcas EE

                                                                Colombia + 20

                                                                BIBO

                                                                  Responsabilidad Social

                                                                  Justicia Inclusiva

                                                                    Desaparecidos

                                                                      EE Play

                                                                      EE play

                                                                        En Vivo

                                                                          La Pulla

                                                                            Documentales

                                                                              Opinión

                                                                                Las igualadas

                                                                                  Redacción al Desnudo

                                                                                    Colombia +20

                                                                                      Destacados

                                                                                        BIBO

                                                                                          La Red Zoocial

                                                                                            ZonaZ

                                                                                              Centro de Ayuda

                                                                                                Newsletters
                                                                                                Servicios

                                                                                                Servicios

                                                                                                  Empleos

                                                                                                    Descuentos

                                                                                                      Idiomas

                                                                                                      Cursos y programas

                                                                                                        Más

                                                                                                        Cromos

                                                                                                          Vea

                                                                                                            Blogs

                                                                                                              Especiales

                                                                                                                Descarga la App

                                                                                                                  Edición Impresa

                                                                                                                    Suscripción

                                                                                                                      Eventos

                                                                                                                        Pauta con nosotros

                                                                                                                          Avisos judiciales

                                                                                                                            Preguntas Frecuentes

                                                                                                                              Contenido Patrocinado
                                                                                                                              20 de diciembre de 2023 - 02:12 p. m.

                                                                                                                              Deepfakes de voz: ¿la identidad del ser humano ya no es única?

                                                                                                                              Los deepfakes son peligrosos y el engaño contempla fake news, la comisión de delitos, desacreditación personal, manipulación de mercados e incluso afectar la intención de voto. Pero así como los delincuentes avanzan en mecanismos de engaño, los software de biometría de voz también se optimizan.

                                                                                                                              Gracias por ser nuestro usuario. Apreciado lector, te invitamos a suscribirte a uno de nuestros planes para continuar disfrutando de este contenido exclusivo.El Espectador, el valor de la información.

                                                                                                                              Los deepfakes son peligrosos y el engaño contempla fake news, la comisión de delitos, desacreditación personal, manipulación de mercados e incluso afectar la intención de voto. Pero así como los delincuentes avanzan en mecanismos de engaño, los software de biometría de voz también se optimizan.

                                                                                                                              Conforme avanza la tecnología, las personas se ven obligadas a interactuar en entornos electrónicos y, con ello, a crear y gestionar sus identidades digitales. El relacionamiento contemporáneo se marca por redes sociales, correos electrónicos, videoconferencias, aplicaciones móviles y mensajería instantánea, remplazando las llamadas por teléfono fijo, las reuniones presenciales y las cartas físicas.

                                                                                                                              Los entornos electrónicos plantean una duda generalizada que sigue estableciendo importantes retos hasta el día de hoy: ¿Cómo sé con quién estoy interactuando en línea? Cuando los trámites y el relacionamiento social eran presenciales, la validación de identidad era más sencilla, pues claramente se podía ver la persona con la que se estaba interactuando (aunque también se podían presentar fraudes o suplantaciones), pero en entornos electrónicos en muchas ocasiones no hay certeza de la persona con la cual se interactúa –e incluso, no se sabe si se trata de una persona real o de un bot-.

                                                                                                                              Estos entornos electrónicos trajeron consigo la noción de identidad digital, mediante la cual se busca la identificación de las personas en un mundo virtual. A partir de ese momento se incorporaron en la vida de los seres humanos las contraseñas, los tokens, los OTP, las firmas digitales y la biometría, como instrumentos para vincular una identidad digital con una persona física o real y brindar seguridad en las transacciones electrónicas.

                                                                                                                              Read more!

                                                                                                                              Dentro de los mecanismos para validar la identidad digital, la biometría ha sido uno de los más utilizados en el último tiempo, pues se basa en características físicas únicas del ser humano, como el rostro, las huellas dactilares, la voz o el comportamiento. El pilar básico de la biometría es que es única e irrepetible y, por ende, es mucho más segura que otros mecanismos, como las contraseñas.

                                                                                                                              A partir de este razonamiento, la ciudadanía en general empezó a relacionar la biometría con la seguridad: por ejemplo, según Kaspersky, cerca del 75 % de los latinoamericanos considera segura la biometría facial y, además, dicha tecnología ha sido implementada por múltiples países como mecanismo de validación de identidad, incluyendo a Colombia con la cédula de ciudadanía digital. Esta confianza ha generado que la biometría se incorpore en aspectos tan cotidianos de la vida como el desbloqueo del teléfono celular o el ingreso aplicaciones bancarias.

                                                                                                                              No obstante, es importante tener en cuenta que toda tecnología es susceptible de fallas y de riesgos tecnológicos, incluyendo la biometría. Prueba de ello son las denuncias recientes de candidatos a gobernaciones y alcaldías, donde señalaron que se han difundido audios fraudulentos donde se imita su voz, a través de los denominados “deepfakes”. A continuación se explicará un poco más este concepto y se revisará el caso puntual de los deepfakes de voz (o deepvoices), para indagar qué tan peligrosos son estos deepfakes y si estos peligros implican dejar de usar mecanismos de biometría de voz.

                                                                                                                              ¿Qué es un deepfake de voz?

                                                                                                                              Los deepfakes en general son videos, imágenes o audios que aparentan ser reales, pero que en realidad no lo son. Son generados por programas de inteligencia artificial u otros software informáticos que permiten alterar elementos multimedia. A partir de ello se puede, por ejemplo, hacer que una persona grabe un video y, posteriormente, cambiar el rostro de la persona por otro distinto para inducir a engaño a las personas que ven dicho video.

                                                                                                                              Read more!

                                                                                                                              Lo que hace especial a los deepfakes es que a simple vista el video, imagen o audio parece legítimo, permitiendo que rápidamente se puedan difundir noticias falsas porque para las personas es difícil detectar que se trata de un engaño.

                                                                                                                              En el caso específico de las deepfakes de voz, lo que hace el software es escuchar a una persona y posteriormente copiar su voz. Ello permite que una persona pueda escribir cualquier texto y el software lo replicará imitando la voz de otro ser humano, con tal grado de precisión que brinda la ilusión de estar oyendo un audio auténtico, pues no es fácil identificar que en verdad se trata de una máquina.

                                                                                                                              ¿Por qué los deepfakes son peligrosos?

                                                                                                                              No ad for you

                                                                                                                              Una de las estafas telefónicas más comunes es que se reciba la llamada de un supuesto policía, militar u otra autoridad indicando que uno de nuestros familiares más cercanos se encuentra en problemas y va a ir a la cárcel, salvo que paguemos una fianza. Las personas que caen en la estafa consignan a una cuenta, a pesar de que realmente su familiar nunca estuvo en riesgo.

                                                                                                                              No ad for you

                                                                                                                              Ahora bien, ¿Qué pasaría si en esa llamada oyéramos la voz de nuestro familiar, quien nos pide desesperadamente que entreguemos dinero, joyas, vehículos o incluso inmuebles para ayudarlo? Seguramente en este caso sería mucho más probable que las personas caigan en la estafa, dado que sería más sencillo generar empatía y que producto de la situación las personas no se percaten de que en verdad no están hablando con su familiar, sino con una inteligencia artificial sofisticada, situación que demuestra cuán peligrosos pueden ser los deepfakes de voz.

                                                                                                                              No ad for you

                                                                                                                              Este planteamiento no es solo hipotético, ya ha ocurrido en la realidad: de acuerdo con un reportaje de un medio nacional, a través de los deepfakes de voz se engañó al director de una empresa británica para transferir 220.000 euros a un proveedor y, a través de la misma artimaña, un gerente de banco en Hong Kong giró 400.000 dólares. Xataka también expuso un caso similar, donde el director de un banco de Emiratos Árabes fue engañado a través de una llamada para hacer una transferencia de 35 millones de dólares.

                                                                                                                              No ad for you

                                                                                                                              Otro caso publicado por Kaspersky mostró cómo trataron de extorsionar a una mujer en Arizona cuando la llamaron por teléfono diciendo que habían secuestrado a su hija: el engaño probablemente se dio gracias a una deepfake de la voz angustiada de la hija. Lastimosamente, este tipo de acciones no son aisladas, pues según cifras de la Comisión Federal de Comercio de Estados Unidos, durante el año 2022 la estafa telefónica (incluyendo aquella ocasionada por el deepfake de voz) ocasionó 5.000 víctimas que fueron estafadas por un monto superior a 8,8 millones de dólares.

                                                                                                                              Estos deepfakes se generan a través de distintos software, muchos de los cuales, además, son legítimos. Uno de los primeros software por medio de los cuales se manipuló la voz es el software de Adobe Voco, que se publicó hace unos años; actualmente existen otros software, como Vall-E de Microsoft, el cual permite efectuar réplicas escuchando fragmentos muy cortos de la voz de una persona.

                                                                                                                              No ad for you

                                                                                                                              Naturalmente, estos programas no se crearon con la finalidad de efectuar fraudes; de hecho, se ha visto su uso en distintos ámbitos, como en la industria musical, donde el software permite arreglar voces e incluso escuchar a cantantes ya fallecidos interpretar canciones actuales (sin perjuicio de las discusiones sobre derechos de autor). David Guetta recreó la voz de Eminem en un concierto a partir de inteligencia artificial y a partir de este tipo de tecnología en Rusia se realizó un programa de televisión deepfake, utilizando imágenes de actores famosos como Keanu Reeves y Margot Robbie.

                                                                                                                              No ad for you

                                                                                                                              Así, aunque estas herramientas tecnológicas no fueron diseñadas para realizar fraudes, los delincuentes les están dando este tipo de usos ilegítimos, panorama que se vuelve menos alentador al tener en cuenta que todos los años ocurren filtraciones de datos que les permiten a estos delincuentes contar no solo con la voz de las personas, sino también con otra información personal que puede brindar aún más legitimidad al engaño realizado a través del deepfake, con el agravante que casi todas las personas que tienen redes sociales publican o han publicado grabaciones con su voz.

                                                                                                                              Esta realidad permite concluir que los deepfakes son peligrosos y el engaño tiene múltiples consecuencias, desde fake news, pasando por la comisión de delitos, desacreditación personal, manipulación de mercados e incluso afectar la intención de voto del elector en escenarios democráticos.

                                                                                                                              No ad for you

                                                                                                                              Recientemente se publicaron en redes sociales audios de Dilian Francisca Toro, Carlos Fernando Galán y Alejandro Éder, siendo candidatos a la Gobernación del Valle y las alcaldías de Bogotá y Cali respectivamente. Independientemente que los candidatos mencionados ganaron la contienda electroral, éstos tuvieron que salir a los medios a desvirtuar dichas suplantaciones. En todos los casos se oye al bot realizando una deepfake (nota fsalsa). Por ejemplo, en el segundo caso, el bot suplanta la voz de Galán afirmando que éste se había reunido con Gustavo Petro y estaban realizando planes para las elecciones; en el segundo caso circuló un audio donde el candidato Alejandro Éder decía que quería instalar zonas pilotos de diálogos con el ELN en Cali. Posteriormente, un informe de Colombiacheck ratificó que estos audios no eran reales.

                                                                                                                              Las voces de los políticos ya han sido alteradas en otros países, como en España, donde se utilizaron las voces de personas como Pablo Iglesias o Santiago Abascal para comentar partidas de Minecraft; así mismo, durante una campaña electoral se generó un video con la voz duplicada de Pedro Sánchez repitiendo un diálogo de un youtuber conocido.

                                                                                                                              No ad for you

                                                                                                                              Lo cierto es que el mayor peligro del deepfake es que es un engaño con tanta “credibilidad”, que genera problemas para distinguir lo que es real de lo que no en cualquier escenario. Un estudio de Plos One indicó que solo en el 27 % de los casos las personas detectan el fraude a través de deepfakes de voz, incluso en ambientes donde los participantes recibieron entrenamiento previo.

                                                                                                                              Ante estos peligros, ¿qué sucede con la biometría de voz?

                                                                                                                              Dentro de los mecanismos para garantizar la seguridad en línea se encuentra la biometría de voz. La también denominada biometría vocal captura los atributos de los datos sonoros de la voz emitidos gracias a las cuerdas vocales; la seguridad de esta biometría radica en que la voz de cada ser humano es única.

                                                                                                                              No ad for you

                                                                                                                              Respecto de los deepfakes, se subraya que el hecho de que la tecnología se utilice de manera fraudulenta no implica que la biometría de voz deba desaparecer. Así como los delincuentes avanzan en mecanismos de engaño, los software de biometría de voz también se optimizan para evitar que existan suplantaciones.

                                                                                                                              De hecho, muchos de estos software se encuentran certificados, en virtud del cumplimiento de normas técnicas internacionales, como las emitidas por el National Institute of Standards and Technology (NIST). Estos estándares son un primer paso para garantizar la seguridad de mecanismos biométricos.

                                                                                                                              No ad for you

                                                                                                                              Además, una de las medidas que se han utilizado es el análisis de la voz a través de un espectrograma, el cual permite ver la representación virtual del audio que se está escuchando. El software de biometría de voz comparará el espectrograma original de la persona con el audio que esté oyendo y a partir de ello podrá identificar si se trata de un engaño o no.

                                                                                                                              No ad for you

                                                                                                                              Estas medidas generalmente se acompañan de sistemas de inteligencia artificial especializados en buscar las imprecisiones de las deepfakes, que muchas veces son imperceptibles para el ser humano, pero no para un sistema tecnológico. Así mismo, la Universidad de Granada ha propuesto la técnica de Gated Recurrent Convolutional Neural Network (GRCNN) para que a través de redes neuronales profundas se puedan detectar suplantaciones a través de la voz y en el mismo sentido compañías como mobbeel, a través del deep learning, entrenan algoritmos para detectar deepfakes.

                                                                                                                              Además de ello se destaca que existen escenarios específicos para generar nuevas soluciones que permitan combatir los deepfakes. Uno de ellos es el “Challenge AVSpoof”, donde las empresas convocadas debían presentar soluciones a distintos retos, incluyendo la suplantación de identidad a través de inteligencia artificial.

                                                                                                                              No ad for you

                                                                                                                              En España, Gradiant y Councilbox crearon una solución para garantizar la identidad de las personas en videoconferencias y trámites online, la cual tiene la posibilidad de detectar deepfakes de video, imagen y voz, lo cual además es útil para evitar fraudes en escenarios como votaciones de juntas y asambleas corporativas.

                                                                                                                              No ad for you

                                                                                                                              Los bancos también han implementado medidas al respecto. El New York Times ha reseñado que empresas como Pindrop monitorean los audios para detectar fraudes de voz, aunque también se subraya que cada vez se utilizan de manera más recurrente y sofisticada los deepfakes de voz, llegándose a presentar hasta veinte intentos de fraude por este medio a la semana. También llama la atención que Nuance, un proveedor de autenticación de voz, indicó que sus sistemas ya fueron engañados una vez gracias al deepfake.

                                                                                                                              No ad for you

                                                                                                                              ¿Qué hacer al respecto? Son varias las medidas que pueden tomarse para evitar ser víctimas de un deepfake de voz: primero, se recomienda que en el momento de recibir llamadas o de ver alguna noticia, las personas sean muy analíticas para verificar si se trata de una situación real o si, por el contrario, es ficticia, analizando el contexto de la llamada, así como el tono de voz, la respiración y el ruido de fondo; segundo, se aconseja acudir a otras fuentes de información en aras de verificar el contenido de lo que podría ser un deepfake de voz; tercero, es necesario que en caso de dudas sobre la llamada se empiece a interactuar mucho más, preguntando detalles e información más completa al interlocutor, pues en estos casos el software puede empezar a fallar; por último, los proveedores de biometría de voz y las empresas que adquieren estas tecnologías, deben ser conscientes de sus riesgos y verificar la calidad del software implementado, las bases de datos contra las que se cotejen, y optimizar y mejorar las pruebas de vida o liveness detection, para intentar ir un paso adelante en prevención de fraudes.

                                                                                                                              ¿Entonces la biometría no es segura?

                                                                                                                              Al observar las capacidades tecnológicas para hacer deepfakes muchas personas tendrán miedo de utilizar mecanismos como la biometría de voz, al considerar que no son seguros, máxime cuando han existido muchas filtraciones de datos personales y, aunado a ello, contar con el registro vocal de una persona es relativamente fácil ya que casi la voz de todas las personas se encuentra actualmente en redes sociales.

                                                                                                                              No ad for you

                                                                                                                              A lo anterior se suma que, a diferencia de otras medidas de seguridad, la biometría no puede cambiarse: en caso de que alguien sepa nuestra contraseña, podemos modificarla, pero si alguien tiene nuestro registro vocal, dactilar o facial, no es factible transformar nuestras características biométricas.

                                                                                                                              Aunque este panorama parece oscuro, también se han expuesto avances tecnológicos tendientes a identificar con mayor precisión los deepfakes, teniendo en cuenta que los expertos coinciden en que toda deepfake deja un registro que, a su vez, puede ser detectado por herramientas de inteligencia artificial, lo cual es un aliciente a favor de los mecanismos antifraude.

                                                                                                                              No ad for you

                                                                                                                              Así mismo, debe tenerse en cuenta que todos los mecanismos tecnológicos, una vez implementados, conllevan riesgos. Por esto lo importante es ser consciente de dichos riesgos, identificarlos, saber cómo mitigarlos y conocer cómo actuar en caso de que se presenten, dado que ninguna tecnología es infalible.

                                                                                                                              La tecnología avanza a pasos agigantados para imitar al ser humano con tal grado de perfección que pareciera ponerse en riesgo su identidad y singularidad. Estaremos ante un mundo donde la distinción entre la realidad y la simulación será cada vez más imperceptible y ello nos obliga a conocer en detalle los avances tecnológicos y evaluar si los mecanismos biométricos utilizados son fiables o no.

                                                                                                                              Por Héctor García

                                                                                                                              Director del observatorio de Gobierno y TIC de la Universidad Javeriana.
                                                                                                                              Ver todas las noticias
                                                                                                                              Read more!
                                                                                                                              Read more!
                                                                                                                              Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
                                                                                                                              Aceptar