
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La protección de datos es un aspecto que ha estado en tela de juicio a raíz de la imponente aparición de los asistentes de inteligencia artificial generativa. Los principales desarrolladores han estado bajo escrutinio constante sobre cómo están entrenados sus modelos y la información a la que están accediendo con el propósito de mejorar sus servicios.
El problema radica en que muchas veces los datos utilizados para entrenar modelos de IA provienen de fuentes que pueden ser opacas, debido a que la recolección puede llegar sin un consentimiento claro o utilizados de formas que los usuarios no anticipaban.
Las aplicaciones de IA pueden recopilar y analizar información sensible, lo que puede exponer a los individuos a riesgos como la vigilancia masiva, la discriminación algorítmica y la pérdida del control sobre su identidad digital.
Además, la inteligencia artificial no solo representa un riesgo pasivo para la privacidad, sino que también puede ser utilizada como una herramienta de ataque en ciberseguridad. Modelos avanzados de IA pueden emplearse para la generación de deepfakes, la automatización de ataques de phishing altamente personalizados o incluso la explotación de vulnerabilidades en sistemas de defensa digital. La sofisticación y eficacia de este tipo de ataques informáticos es cada vez más alta.
Le recomendamos leer: El auge de DeepSeek: esto piensan los líderes de la tecnología sobre la IA china
La falta de normativas globales armonizadas y la velocidad con la que evoluciona la tecnología hacen que la protección de datos en IA sea un desafío en constante transformación.
Por un lado, los investigadores de seguridad de Wiz descubrieron que DeepSeek dejó expuesta en línea una base de datos crítica, filtrando más de un millón de registros, incluidos avisos de usuario, registros del sistema y tokens de autenticación de API.
Otra preocupación es el informe de The Wall Street Journal, en el cual se indicó que cerca de 20 países utilizan Gemini principalmente como herramienta para el desarrollo de técnicas de piratería sofisticadas.
DeepSeek
DeepSeek, la startup china de IA generativa, ganó popularidad rápidamente, superando incluso a competidores como ChatGPT en descargas en la App Store de Apple. La situación alertó a la comunidad tecnológica estadounidense, que cada vez adopta más servicios digitales de propiedad china. El ejemplo más reciente y mediático es el conflicto alrededor de TikTok y sus operaciones en el país.
Sin embargo, esta expansión acelerada viene acompañada de serias preocupaciones de seguridad.
Investigadores de la firma de ciberseguridad Wiz descubrieron que DeepSeek dejó expuesta una base de datos crítica en línea, filtrando más de un millón de registros. Esta vulnerabilidad permitió que cualquier persona con acceso a la base de datos pudiera visualizar información sensible, como historiales de chat de los usuarios y claves de software. Tras ser notificada, DeepSeek aseguró los datos en menos de una hora, pero el incidente subraya la importancia de implementar medidas de seguridad robustas en plataformas de IA emergentes.
Le podría interesar: OpenAI lanzó nueva función para ChatGPT especializada en investigación profunda
Del mismo modo, un grupo de investigadores probó 50 jailbreaks conocidos contra el chatbot chino y los resultados evidenciaron que las protecciones de seguridad no son confiables y que sus usuarios están expuestos a los ataques maliciosos.
Google Gemini
Por otro lado, Google Gemini fue objeto de uso indebido por parte de grupos de hackers vinculados a gobiernos extranjeros, incluidos China, Irán, Rusia y Corea del Norte. Según el informe presentado en The Wall Street Journal, estos actores maliciosos utilizaron Gemini para tareas como escribir código malicioso e investigar posibles objetivos de ataque.
Aunque las autoridades occidentales y los expertos en seguridad han advertido durante sobre el potencial de la IA para usos maliciosos, el informe destacó que docenas de grupos de piratas informáticos de más de 20 países están utilizando la plataforma principalmente como herramienta de investigación y productividad para el desarrollo de técnicas de piratería sofisticadas.
Los grupos iraníes, por ejemplo, utilizaron el chatbot para generar contenidos de phishing en inglés, hebreo y farsi. Los grupos vinculados a China utilizaron Gemini para la investigación táctica de conceptos técnicos como la exfiltración de datos y la escalada de privilegios. En Corea del Norte, los piratas informáticos lo utilizaron para redactar cartas de presentación para puestos tecnológicos remotos, supuestamente en apoyo de los esfuerzos del régimen por colocar a espías en puestos tecnológicos para financiar su programa nuclear.
No es la primera vez que se descubre a grupos de piratas informáticos extranjeros utilizando chatbots. El año pasado, OpenAI reveló que cinco de estos grupos habían utilizado ChatGPT de forma similar.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.