Noticias

Últimas Noticias

    Política

    Judicial

      Economía

      Mundo

      Bogotá

        Entretenimiento

        Deportes

        Colombia

        El Magazín Cultural

        Salud

          Ambiente

          Investigación

            Educación

              Ciencia

                Género y Diversidad

                Tecnología

                Actualidad

                  Reportajes

                    Historias visuales

                      Colecciones

                        Podcast

                          Opinión

                          Opinión

                            Editorial

                              Columnistas

                                Caricaturistas

                                  Lectores

                                  Blogs

                                    Suscriptores

                                    Recomendado

                                      Contenido exclusivo

                                        Tus artículos guardados

                                          Somos El Espectador

                                            Estilo de vida

                                            La Red Zoocial

                                            Gastronomía y Recetas

                                              La Huerta

                                                Moda e Industria

                                                  Tarot de Mavé

                                                    Autos

                                                      Juegos

                                                        Pasatiempos

                                                          Horóscopo

                                                            Música

                                                              Turismo

                                                                Marcas EE

                                                                Colombia + 20

                                                                BIBO

                                                                  Responsabilidad Social

                                                                  Justicia Inclusiva

                                                                    Desaparecidos

                                                                      EE Play

                                                                      EE play

                                                                        En Vivo

                                                                          La Pulla

                                                                            Documentales

                                                                              Opinión

                                                                                Las igualadas

                                                                                  Redacción al Desnudo

                                                                                    Colombia +20

                                                                                      Destacados

                                                                                        BIBO

                                                                                          La Red Zoocial

                                                                                            ZonaZ

                                                                                              Centro de Ayuda

                                                                                                Newsletters
                                                                                                Servicios

                                                                                                Servicios

                                                                                                  Empleos

                                                                                                    Descuentos

                                                                                                      Idiomas

                                                                                                      Cursos y programas

                                                                                                        Más

                                                                                                        Cromos

                                                                                                          Vea

                                                                                                            Blogs

                                                                                                              Especiales

                                                                                                                Descarga la App

                                                                                                                  Edición Impresa

                                                                                                                    Suscripción

                                                                                                                      Eventos

                                                                                                                        Pauta con nosotros

                                                                                                                          Avisos judiciales

                                                                                                                            Preguntas Frecuentes

                                                                                                                              Contenido Patrocinado
                                                                                                                              07 de febrero de 2024 - 07:00 p. m.

                                                                                                                              El fenómeno deepfakes: una revolución tecnológica que amenaza la verdad

                                                                                                                              Uno de los usos más preocupantes que ha ido habilitando el crecimiento en capacidades de la inteligencia artificial es la posibilidad de crear imágenes y videos, de contenido falso, que resulta muy complejo de reconocer y, por ende, de denunciar.

                                                                                                                              La inteligencia artificial ha revolucionado el internet con imágenes que son falsas y muy difíciles de reconocer.
                                                                                                                              Foto: kaspersky

                                                                                                                              Desde los desnudos falsos de Taylor Swift que se volvieron virales y llevaron a Threads y a X a bloquear las búsquedas sobre la cantante, hasta el caso ocurrido en Hong Kong, en donde robaron 23.7 millones de euros a una compañía suplantando al CEO en una videoconferencia y haciendo que transfirieran el dinero a lo que pensaban era la filial de su empresa en el Reino Unido. Los casos son recientes y han puesto de nuevo sobre la mesa la discusión urgente respecto a los alcances de la suplantación de identidad gracias al desarrollo de la inteligencia artificial: el agujero negro de las llamadas deepfake.

                                                                                                                              El problema evidente es que cada vez resulta más difícil reconocer la verdad en el mar de informaciones alimentadas con inteligencia artificial (IA), sobre todo cuando ni siquiera sabemos a qué nos estamos enfrentando. Y acá un dato revelador: en Colombia, según la empresa de ciberseguridad Kaspersky, el 63 % de las personas no sabe lo que es un deepfake y un 73 % admite que no sabe reconocer este tipo de alteraciones.

                                                                                                                              Read more!

                                                                                                                              Aparición del deepfake

                                                                                                                              El nuevo concepto se basa en la manipulación de video o imágenes en las que un software analiza el material de origen y extrae parte de él y lo inserta en uno nuevo. El deepfake viene del “deep learning” (aprendizaje profundo) una de las vertientes de la inteligencia artificial. En este caso se emplea la IA para contenido falso.

                                                                                                                              En una entrevista reciente con la cadena NBC de EE.UU., el director ejecutivo de Microsoft, Satya Nadella, calificó los ‘deepfakes’ de “alarmantes y terribles” y dijo que cree que las empresas de inteligencia artificial deben “actuar rápido” para implementar mejores barreras de seguridad.

                                                                                                                              Le recomendamos leer: Nuevo juicio a Google: ¿Monopolio de la publicidad digital o competencia justa?

                                                                                                                              Mario Morales, profesor de la Universidad Javeriana, explica su desarrollo: “Son la forma negativa de llamar una nueva tecnología (deep learning) que tiene muchas aplicaciones... Como cualquier otra tecnología, puede ser utilizada de manera positiva o negativa. La falsificación de imágenes o videos no es nuevo, lo que hace la inteligencia artificial es optimizar la alteración visual y crea imágenes totalmente falsas”.

                                                                                                                              La preocupación no pasa solo por la difusión de imágenes falsas de contenido sexual explícito sobre una persona, que ya de por sí es un escenario preocupante, sino que también tiene que ver con un nuevo universo en el que ya comienzan a especializarse los ciberdelincuentes.

                                                                                                                              ¿Cómo utilizan los deepfakes y la IA para robar?

                                                                                                                              Esta tecnología cada vez está más cerca de las personas, al punto en que ya existen aplicaciones de pago con versiones gratuitas que permiten la creación de deepfakes. Uno de los peligros será el acceso a la información a través de los engaños de la IA. Las trampas pueden ser mediante imágenes, videos y voz.

                                                                                                                              Read more!

                                                                                                                              Las llamadas también serán un factor importante a tener en cuenta, si bien ya existen personas que se dedican a hacerse pasar por bancos o por familiares con calamidades, con la IA ahora podrían acceder a la voz de personas cercanas para generar la estafa.

                                                                                                                              No ad for you

                                                                                                                              Más de tecnología: MacBook Pro M3: pusimos a prueba su potente procesador

                                                                                                                              No ad for you

                                                                                                                              Fabio Assolini, director de investigación y análisis de Kaspersky en América Latina, afirma que ahora la IA está al alcance de todos: ”Lo novedoso es que este tipo de estafas ya no son costosas, estas herramientas están disponibles de forma gratuita”. Esta accesibilidad aumentará el riesgo de ser víctima, debido a que, con el apoyo de esta herramienta virtual, los estafadores podrán utilizar la información para manipular a sus objetivos. Kaspersky afirma que han detectado que las personas que buscan crear ese contenido falso suelen recurrir a la llamada internet profunda para solicitar videos o imágenes de objetivos específicos.

                                                                                                                              No ad for you

                                                                                                                              Por su parte, Isabel Manjarrez, investigadora de seguridad del equipo global de investigación y análisis de Kaspersky, asegura que “nos enfrentamos a un escenario de manipulación digital avanzada que compromete la verdad, y nos exige a todos ser conscientes de este fenómeno. En un mundo donde la línea entre la realidad y la ficción digital es cada vez más difusa, debemos consumir los contenidos digitales con responsabilidad, siendo cuidadosos de lo que leemos o escuchamos, y evitando promover la desinformación, compartiendo noticias, videos y audios falsos”.

                                                                                                                              ¿Cómo reconocer una deepfake?

                                                                                                                              Algunas técnicas para contrarrestar estas alteraciones se han estado desarrollando a la par de los deepfakes. Esta misma semana, Meta anunció que marcará el contenido falso de sus redes sociales para ayudar a los usuarios a saber cuando una foto es creación de la IA y cuando es real.

                                                                                                                              No ad for you

                                                                                                                              Sin embargo, esta labor de etiquetado puede ser complicada porque la eficacia de la manipulación sigue en su crecimiento. Morales propone una serie de recomendaciones para identificar un deepfake. “A través del deep learning, se pueden identificar si la simulación visual es falsa, o con estrategias más sencillas, con la naturalidad de gestos (en caso de video) como el parpadeo, en la tecnología a veces es más rápido y no lograr realizar la velocidad real del gesto humano. Otra técnica es aumentar y disminuir la velocidad, lo que permite ver si los fotogramas funcionan armónicamente, este procedimiento requiere de entrenamiento”.

                                                                                                                              Desde Kaspersky también se ofrecen algunos consejos para detectar los deepfakes:

                                                                                                                              • Realizar un análisis facial y corporal detallado de la visual en sospecha.
                                                                                                                              • Buscar sincronización entre los labios y las expresiones para que tenga sentido y coherencia.
                                                                                                                              • Revisar que la iluminación sea la que corresponde al entorno.
                                                                                                                              • Visitar y recopilar la información de sitios web oficiales para evitar estafas. Evitar pagos o la suministración de información personal en páginas sospechosas.
                                                                                                                              No ad for you

                                                                                                                              Assolini explica que, en términos generales, hay dos categorías de estafas. la profesional y la de menos recursos. “En la estafa con un bajo presupuesto, puedes darte cuenta si miras con atención el deepfake, el movimiento de la boca puede ser raro, o no hay coordinación entre lo que dice y los labios. Si uno está atento, encontrará señales. Las estafas más profesionales, que son más costosas, tendrán mejor calidad y deepvoice. Las más profesionales están direccionadas a empresas, famosos y altos ejecutivos”.

                                                                                                                              Otra herramienta será la misma inteligencia artificial, Assolini propone que habrá algún tipo de implementación similar a lo que vivió el correo electrónico con la aparición del spam: “Los que crearon los correos electrónicos no pensaron que, algún día, el correo sería una vía para enviar propaganda no solicitada en demasía. A partir de ahí nace la tecnología para detectar y bloquear los correos no deseados. Con la inteligencia artificial será igual”.

                                                                                                                              Situaciones peligrosas de Deepfakes en 2024

                                                                                                                              No ad for you

                                                                                                                              Kaspersky, como todos los años, realizó un informe analizando el panorama de la ciberseguridad en el mundo. Los expertos de la compañía aseguran que las tendencias serán un anzuelo recurrente para sus estafas con la ayuda de la tecnología. El estudio de Kaspersky asegura que a 70 % de los colombianos les preocupa la seguridad en línea. Algunas situaciones en las que se pueden incrementar los riesgos son:

                                                                                                                              • Los eventos benéficos: en 2023 se registró el nivel más alto de conflictos violentos a escala global desde la segunda guerra mundial. Kaspersky prevé un aumento en las estafas de este tipo aprovechando la empatía en los usuarios.
                                                                                                                              • El mundo gamer: la empresa de seguridad detectó entre 2022 y 2023 un total de 4.076.530 millones de intentos por descargar archivos, dejando afectados a 192.456 usuarios. Los ciberdelincuentes intensificarán este blanco para el próximo año.
                                                                                                                              • Los estrenos de entretenimiento: los grandes estrenos que lleguen en 2024 pueden ser nuevas oportunidades para que los ciberdelincuentes propaguen sitios de phishing ofreciendo acceso exclusivo fraudulento.
                                                                                                                              • Deepfake de voz: Las llamadas o notas de voz con la alteración de voz serán una práctica muy común para engañar y obtener información o dinero de las víctimas.

                                                                                                                              Beneficio del deep learning en la sociedad

                                                                                                                              No todo es malo, aunque así lo parezca. El aprendizaje profundo es una herramienta que bien encaminada puede impactar positivamente varios campos de la sociedad. El profesor Morales explica que estas simulaciones pueden ser beneficiosas, por ejemplo, en la ciencia y medicina para la detección de cánceres o hacer comparaciones entre órganos sanos y afectados.

                                                                                                                              No ad for you

                                                                                                                              Le recomendamos leer: La UE quiere criminalizar los ‘deepfakes’, el ‘cyberflashing’ y demás ciberdelitos

                                                                                                                              “En la astronomía para simular viajes al espacio” comentó Morales al añadir que también puede ser útil en el entretenimiento, para los recorridos en los museos y exposiciones, al igual que en los videojuegos y la creación de personajes que interactúen con la persona.

                                                                                                                              Para la educación, Morales expresa que “en la medida que estas suplantaciones pueden ayudar a recomponer imágenes o construcciones que en su construcción ayudan a una mayor comprensión del conocimiento en sus diferentes fases”.

                                                                                                                              No ad for you

                                                                                                                              👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

                                                                                                                              La inteligencia artificial ha revolucionado el internet con imágenes que son falsas y muy difíciles de reconocer.
                                                                                                                              Foto: kaspersky

                                                                                                                              Desde los desnudos falsos de Taylor Swift que se volvieron virales y llevaron a Threads y a X a bloquear las búsquedas sobre la cantante, hasta el caso ocurrido en Hong Kong, en donde robaron 23.7 millones de euros a una compañía suplantando al CEO en una videoconferencia y haciendo que transfirieran el dinero a lo que pensaban era la filial de su empresa en el Reino Unido. Los casos son recientes y han puesto de nuevo sobre la mesa la discusión urgente respecto a los alcances de la suplantación de identidad gracias al desarrollo de la inteligencia artificial: el agujero negro de las llamadas deepfake.

                                                                                                                              El problema evidente es que cada vez resulta más difícil reconocer la verdad en el mar de informaciones alimentadas con inteligencia artificial (IA), sobre todo cuando ni siquiera sabemos a qué nos estamos enfrentando. Y acá un dato revelador: en Colombia, según la empresa de ciberseguridad Kaspersky, el 63 % de las personas no sabe lo que es un deepfake y un 73 % admite que no sabe reconocer este tipo de alteraciones.

                                                                                                                              Read more!

                                                                                                                              Aparición del deepfake

                                                                                                                              El nuevo concepto se basa en la manipulación de video o imágenes en las que un software analiza el material de origen y extrae parte de él y lo inserta en uno nuevo. El deepfake viene del “deep learning” (aprendizaje profundo) una de las vertientes de la inteligencia artificial. En este caso se emplea la IA para contenido falso.

                                                                                                                              En una entrevista reciente con la cadena NBC de EE.UU., el director ejecutivo de Microsoft, Satya Nadella, calificó los ‘deepfakes’ de “alarmantes y terribles” y dijo que cree que las empresas de inteligencia artificial deben “actuar rápido” para implementar mejores barreras de seguridad.

                                                                                                                              Le recomendamos leer: Nuevo juicio a Google: ¿Monopolio de la publicidad digital o competencia justa?

                                                                                                                              Mario Morales, profesor de la Universidad Javeriana, explica su desarrollo: “Son la forma negativa de llamar una nueva tecnología (deep learning) que tiene muchas aplicaciones... Como cualquier otra tecnología, puede ser utilizada de manera positiva o negativa. La falsificación de imágenes o videos no es nuevo, lo que hace la inteligencia artificial es optimizar la alteración visual y crea imágenes totalmente falsas”.

                                                                                                                              La preocupación no pasa solo por la difusión de imágenes falsas de contenido sexual explícito sobre una persona, que ya de por sí es un escenario preocupante, sino que también tiene que ver con un nuevo universo en el que ya comienzan a especializarse los ciberdelincuentes.

                                                                                                                              ¿Cómo utilizan los deepfakes y la IA para robar?

                                                                                                                              Esta tecnología cada vez está más cerca de las personas, al punto en que ya existen aplicaciones de pago con versiones gratuitas que permiten la creación de deepfakes. Uno de los peligros será el acceso a la información a través de los engaños de la IA. Las trampas pueden ser mediante imágenes, videos y voz.

                                                                                                                              Read more!

                                                                                                                              Las llamadas también serán un factor importante a tener en cuenta, si bien ya existen personas que se dedican a hacerse pasar por bancos o por familiares con calamidades, con la IA ahora podrían acceder a la voz de personas cercanas para generar la estafa.

                                                                                                                              No ad for you

                                                                                                                              Más de tecnología: MacBook Pro M3: pusimos a prueba su potente procesador

                                                                                                                              No ad for you

                                                                                                                              Fabio Assolini, director de investigación y análisis de Kaspersky en América Latina, afirma que ahora la IA está al alcance de todos: ”Lo novedoso es que este tipo de estafas ya no son costosas, estas herramientas están disponibles de forma gratuita”. Esta accesibilidad aumentará el riesgo de ser víctima, debido a que, con el apoyo de esta herramienta virtual, los estafadores podrán utilizar la información para manipular a sus objetivos. Kaspersky afirma que han detectado que las personas que buscan crear ese contenido falso suelen recurrir a la llamada internet profunda para solicitar videos o imágenes de objetivos específicos.

                                                                                                                              No ad for you

                                                                                                                              Por su parte, Isabel Manjarrez, investigadora de seguridad del equipo global de investigación y análisis de Kaspersky, asegura que “nos enfrentamos a un escenario de manipulación digital avanzada que compromete la verdad, y nos exige a todos ser conscientes de este fenómeno. En un mundo donde la línea entre la realidad y la ficción digital es cada vez más difusa, debemos consumir los contenidos digitales con responsabilidad, siendo cuidadosos de lo que leemos o escuchamos, y evitando promover la desinformación, compartiendo noticias, videos y audios falsos”.

                                                                                                                              ¿Cómo reconocer una deepfake?

                                                                                                                              Algunas técnicas para contrarrestar estas alteraciones se han estado desarrollando a la par de los deepfakes. Esta misma semana, Meta anunció que marcará el contenido falso de sus redes sociales para ayudar a los usuarios a saber cuando una foto es creación de la IA y cuando es real.

                                                                                                                              No ad for you

                                                                                                                              Sin embargo, esta labor de etiquetado puede ser complicada porque la eficacia de la manipulación sigue en su crecimiento. Morales propone una serie de recomendaciones para identificar un deepfake. “A través del deep learning, se pueden identificar si la simulación visual es falsa, o con estrategias más sencillas, con la naturalidad de gestos (en caso de video) como el parpadeo, en la tecnología a veces es más rápido y no lograr realizar la velocidad real del gesto humano. Otra técnica es aumentar y disminuir la velocidad, lo que permite ver si los fotogramas funcionan armónicamente, este procedimiento requiere de entrenamiento”.

                                                                                                                              Desde Kaspersky también se ofrecen algunos consejos para detectar los deepfakes:

                                                                                                                              • Realizar un análisis facial y corporal detallado de la visual en sospecha.
                                                                                                                              • Buscar sincronización entre los labios y las expresiones para que tenga sentido y coherencia.
                                                                                                                              • Revisar que la iluminación sea la que corresponde al entorno.
                                                                                                                              • Visitar y recopilar la información de sitios web oficiales para evitar estafas. Evitar pagos o la suministración de información personal en páginas sospechosas.
                                                                                                                              No ad for you

                                                                                                                              Assolini explica que, en términos generales, hay dos categorías de estafas. la profesional y la de menos recursos. “En la estafa con un bajo presupuesto, puedes darte cuenta si miras con atención el deepfake, el movimiento de la boca puede ser raro, o no hay coordinación entre lo que dice y los labios. Si uno está atento, encontrará señales. Las estafas más profesionales, que son más costosas, tendrán mejor calidad y deepvoice. Las más profesionales están direccionadas a empresas, famosos y altos ejecutivos”.

                                                                                                                              Otra herramienta será la misma inteligencia artificial, Assolini propone que habrá algún tipo de implementación similar a lo que vivió el correo electrónico con la aparición del spam: “Los que crearon los correos electrónicos no pensaron que, algún día, el correo sería una vía para enviar propaganda no solicitada en demasía. A partir de ahí nace la tecnología para detectar y bloquear los correos no deseados. Con la inteligencia artificial será igual”.

                                                                                                                              Situaciones peligrosas de Deepfakes en 2024

                                                                                                                              No ad for you

                                                                                                                              Kaspersky, como todos los años, realizó un informe analizando el panorama de la ciberseguridad en el mundo. Los expertos de la compañía aseguran que las tendencias serán un anzuelo recurrente para sus estafas con la ayuda de la tecnología. El estudio de Kaspersky asegura que a 70 % de los colombianos les preocupa la seguridad en línea. Algunas situaciones en las que se pueden incrementar los riesgos son:

                                                                                                                              • Los eventos benéficos: en 2023 se registró el nivel más alto de conflictos violentos a escala global desde la segunda guerra mundial. Kaspersky prevé un aumento en las estafas de este tipo aprovechando la empatía en los usuarios.
                                                                                                                              • El mundo gamer: la empresa de seguridad detectó entre 2022 y 2023 un total de 4.076.530 millones de intentos por descargar archivos, dejando afectados a 192.456 usuarios. Los ciberdelincuentes intensificarán este blanco para el próximo año.
                                                                                                                              • Los estrenos de entretenimiento: los grandes estrenos que lleguen en 2024 pueden ser nuevas oportunidades para que los ciberdelincuentes propaguen sitios de phishing ofreciendo acceso exclusivo fraudulento.
                                                                                                                              • Deepfake de voz: Las llamadas o notas de voz con la alteración de voz serán una práctica muy común para engañar y obtener información o dinero de las víctimas.

                                                                                                                              Beneficio del deep learning en la sociedad

                                                                                                                              No todo es malo, aunque así lo parezca. El aprendizaje profundo es una herramienta que bien encaminada puede impactar positivamente varios campos de la sociedad. El profesor Morales explica que estas simulaciones pueden ser beneficiosas, por ejemplo, en la ciencia y medicina para la detección de cánceres o hacer comparaciones entre órganos sanos y afectados.

                                                                                                                              No ad for you

                                                                                                                              Le recomendamos leer: La UE quiere criminalizar los ‘deepfakes’, el ‘cyberflashing’ y demás ciberdelitos

                                                                                                                              “En la astronomía para simular viajes al espacio” comentó Morales al añadir que también puede ser útil en el entretenimiento, para los recorridos en los museos y exposiciones, al igual que en los videojuegos y la creación de personajes que interactúen con la persona.

                                                                                                                              Para la educación, Morales expresa que “en la medida que estas suplantaciones pueden ayudar a recomponer imágenes o construcciones que en su construcción ayudan a una mayor comprensión del conocimiento en sus diferentes fases”.

                                                                                                                              No ad for you

                                                                                                                              👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

                                                                                                                              Ver todas las noticias
                                                                                                                              Read more!
                                                                                                                              Read more!
                                                                                                                              Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
                                                                                                                              Aceptar