Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.

La amenaza de la IA Gen: riesgos para la privacidad y la ciberseguridad

La inteligencia artificial no solo representa un riesgo pasivo para la privacidad, sino que también puede ser utilizada como una herramienta de ataque en ciberseguridad. En los últimos días, DeepSeek y Gemini fueron focos claves en estos aspectos.

Redacción Tecnología

03 de febrero de 2025 - 04:30 p. m.
La inteligencia artificial no solo representa un riesgo pasivo para la privacidad, sino que también puede ser utilizada como una herramienta de ataque en ciberseguridad. En los últimos días, DeepSeek y Gemini fueron focos claves en estos aspectos.
Foto: Imagen creada con inteligencia artificial (CANVA)
PUBLICIDAD

La protección de datos es un aspecto que ha estado en tela de juicio a raíz de la imponente aparición de los asistentes de inteligencia artificial generativa. Los principales desarrolladores han estado bajo escrutinio constante sobre cómo están entrenados sus modelos y la información a la que están accediendo con el propósito de mejorar sus servicios.

El problema radica en que muchas veces los datos utilizados para entrenar modelos de IA provienen de fuentes que pueden ser opacas, debido a que la recolección puede llegar sin un consentimiento claro o utilizados de formas que los usuarios no anticipaban.

Las aplicaciones de IA pueden recopilar y analizar información sensible, lo que puede exponer a los individuos a riesgos como la vigilancia masiva, la discriminación algorítmica y la pérdida del control sobre su identidad digital.

Además, la inteligencia artificial no solo representa un riesgo pasivo para la privacidad, sino que también puede ser utilizada como una herramienta de ataque en ciberseguridad. Modelos avanzados de IA pueden emplearse para la generación de deepfakes, la automatización de ataques de phishing altamente personalizados o incluso la explotación de vulnerabilidades en sistemas de defensa digital. La sofisticación y eficacia de este tipo de ataques informáticos es cada vez más alta.

Le recomendamos leer: El auge de DeepSeek: esto piensan los líderes de la tecnología sobre la IA china

La falta de normativas globales armonizadas y la velocidad con la que evoluciona la tecnología hacen que la protección de datos en IA sea un desafío en constante transformación.

Por un lado, los investigadores de seguridad de Wiz descubrieron que DeepSeek dejó expuesta en línea una base de datos crítica, filtrando más de un millón de registros, incluidos avisos de usuario, registros del sistema y tokens de autenticación de API.

Otra preocupación es el informe de The Wall Street Journal, en el cual se indicó que cerca de 20 países utilizan Gemini principalmente como herramienta para el desarrollo de técnicas de piratería sofisticadas.

Read more!

DeepSeek

DeepSeek, la startup china de IA generativa, ganó popularidad rápidamente, superando incluso a competidores como ChatGPT en descargas en la App Store de Apple. La situación alertó a la comunidad tecnológica estadounidense, que cada vez adopta más servicios digitales de propiedad china. El ejemplo más reciente y mediático es el conflicto alrededor de TikTok y sus operaciones en el país.

Sin embargo, esta expansión acelerada viene acompañada de serias preocupaciones de seguridad.

No ad for you

Investigadores de la firma de ciberseguridad Wiz descubrieron que DeepSeek dejó expuesta una base de datos crítica en línea, filtrando más de un millón de registros. Esta vulnerabilidad permitió que cualquier persona con acceso a la base de datos pudiera visualizar información sensible, como historiales de chat de los usuarios y claves de software. Tras ser notificada, DeepSeek aseguró los datos en menos de una hora, pero el incidente subraya la importancia de implementar medidas de seguridad robustas en plataformas de IA emergentes.

Le podría interesar: OpenAI lanzó nueva función para ChatGPT especializada en investigación profunda

Del mismo modo, un grupo de investigadores probó 50 jailbreaks conocidos contra el chatbot chino y los resultados evidenciaron que las protecciones de seguridad no son confiables y que sus usuarios están expuestos a los ataques maliciosos.

Read more!

Google Gemini

Por otro lado, Google Gemini fue objeto de uso indebido por parte de grupos de hackers vinculados a gobiernos extranjeros, incluidos China, Irán, Rusia y Corea del Norte. Según el informe presentado en The Wall Street Journal, estos actores maliciosos utilizaron Gemini para tareas como escribir código malicioso e investigar posibles objetivos de ataque.

No ad for you

Aunque las autoridades occidentales y los expertos en seguridad han advertido durante sobre el potencial de la IA para usos maliciosos, el informe destacó que docenas de grupos de piratas informáticos de más de 20 países están utilizando la plataforma principalmente como herramienta de investigación y productividad para el desarrollo de técnicas de piratería sofisticadas.

Los grupos iraníes, por ejemplo, utilizaron el chatbot para generar contenidos de phishing en inglés, hebreo y farsi. Los grupos vinculados a China utilizaron Gemini para la investigación táctica de conceptos técnicos como la exfiltración de datos y la escalada de privilegios. En Corea del Norte, los piratas informáticos lo utilizaron para redactar cartas de presentación para puestos tecnológicos remotos, supuestamente en apoyo de los esfuerzos del régimen por colocar a espías en puestos tecnológicos para financiar su programa nuclear.

No es la primera vez que se descubre a grupos de piratas informáticos extranjeros utilizando chatbots. El año pasado, OpenAI reveló que cinco de estos grupos habían utilizado ChatGPT de forma similar.

No ad for you

👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.