Publicidad

¿Qué pasaría si se filtraran tus chats con la IA? Estos son cinco riesgos reales

Una filtración puede exponer rutinas, trabajo y datos sensibles. Así puedes bajar el riesgo.

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Kevin Stiven Ramírez Quintero
04 de marzo de 2026 - 06:59 p. m.
Contraseñas reutilizadas y ataques de phishing siguen siendo una de las puertas de entrada más comunes a cuentas digitales.
Contraseñas reutilizadas y ataques de phishing siguen siendo una de las puertas de entrada más comunes a cuentas digitales.
Foto: Getty Images
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

En menos de un año, la relación con la inteligencia artificial se volvió cotidiana. La escuchamos en las noticias, la leemos en redes sociales y la usamos como si fuera un amigo al que se le puede contar de todo.

Ese salto no se explica solo por la tecnología, sino por la experiencia: conversar con chatbots como ChatGPT, Gemini o Grok se parece cada vez más a entrar a un espacio “íntimo” y aparentemente seguro. Y ahí aparece el problema: en esa confianza, muchas personas terminan entregando información que no compartirían con nadie más.

Con esa inquietud como punto de partida, ESET, compañía de ciberseguridad, analizó qué tipo de datos se suelen compartir con los chatbots de IA, cómo podrían quedar expuestos y cuál sería el impacto real si se filtraran. Esto fue lo que se encontró:

¿Qué se le cuenta a un chatbot?

Datos personales: No se trata solo de nombre, edad, ciudad o país. También aparecen rutinas y hábitos cotidianos: dónde trabajas, con quién vives, cómo está compuesta tu familia. Ese “mosaico” de detalles, combinado y en manos equivocadas, puede volverse peligroso.

Información laboral: Bajo la excusa de un “Ayúdame a mejorar esto”, muchos usuarios comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas y detalles de clientes o proveedores. Incluso conversaciones, tickets, código fuente y arquitecturas internas.

Consultas médicas, psicológicas o emocionales: Para mucha gente, los chatbots se han convertido en consejeros o “especialistas” (una práctica que puede ser peligrosa). Se les comparten síntomas, diagnósticos y medicación; y también conflictos de pareja, duelos o preguntas que no se harían en otra red social.

Opiniones, creencias y posturas sensibles: En ese terreno aparecen ideología política o religiosa, posturas sobre empresas, jefes o colegas, y comentarios que, fuera de contexto, pueden generar un daño reputacional.

“Los chatbots no fueron concebidos como un lugar confidencial, más allá que la experiencia conversacional invite a pensarlos así. Si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad (controles de acceso, monitoreo, protección de infraestructura), esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad”, mencionó Martina López, investigadora de seguridad informática de ESET Latinoamérica.

“El problema no es lo que se comparte, sino esa falsa sensación de intimidad y privacidad, la cual puede romperse muy fácilmente. Meses de conversaciones construyen un perfil, que puede tener un valor muy alto para un ciberatacante”, agregó López.

¿Cómo podría quedar expuesta esa información?

La filtración no depende de una sola puerta de entrada. ESET enumera varios escenarios que, en conjunto, dibujan el riesgo real.

El acceso a la cuenta: Ocurre si alguien obtiene la contraseña, si el usuario cae en un ataque de phishing o si usa la misma clave en varios servicios.

Casos de chatbots manipulados: Sistemas inducidos con prompts maliciosos para intentar extraer información de los usuarios.

Aceptar términos y condiciones sin leer: Los chatbots recopilan y almacenan información de uso, como historial y conversaciones, para entrenar su modelo de lenguaje de manera predeterminada.

Brechas o fallos: Un error de la plataforma que exponga conversaciones e historial, o una extensión/app que “mire más de la cuenta”. Por ejemplo, si se instala un plugin para hacer el chatbot más potente y esa app falla, es vulnerable o es maliciosa, la conversación sale del control del proveedor principal.

Los cinco riesgos más comunes

Robo de identidad / Ingeniería social: Las conversaciones aportan contexto humano: hábitos, intereses, rutinas, servicios que se usan e incluso el tono al hablar. Con eso, un atacante puede crear ataques más personalizados (correos o mensajes que parecen escritos por alguien cercano), estafas con datos reales o suplantaciones difíciles de detectar.

Espionaje corporativo: Si se usa el chatbot como apoyo laboral, es posible que se filtren estrategias, documentos, decisiones internas, información sobre clientes y detalles de precios o productos. Además del riesgo legal, esto puede traducirse en ventaja competitiva para terceros o en incumplimientos contractuales.

Daño reputacional: Si quedan expuestas opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales hasta pérdida de credibilidad.

Exposición de datos sensibles: En consultas íntimas suelen aparecer síntomas, diagnósticos, tratamientos, creencias religiosas o políticas, y conflictos personales o familiares. Si eso se filtra, el impacto puede ser devastador: estigmatización, discriminación y vulneración emocional.

Extorsión: Con información privada, un atacante puede presionar con amenazas creíbles y chantajes personalizados para obtener rédito económico.

¿Qué hacer para bajar el riesgo?

La forma más realista de reducir el impacto —si una conversación se expusiera— es cambiar hábitos. Por ejemplo:

  • No compartir datos personales (cédula, fecha de nacimiento, mail, teléfono).
  • Anonimizar casos reales (cambiar nombres, empresas, ubicaciones).
  • No adjuntar documentos sensibles, información confidencial o credenciales.
  • Revisar configuraciones de privacidad (qué se guarda, qué se usa como entrenamiento).
  • Proteger la cuenta con contraseña robusta y doble factor de autenticación.
  • Utilizar cuentas diferentes para trabajo y uso personal.
  • Pensar: ¿Esto lo diría en voz alta en una sala con desconocidos?

Al final, el mejor indicador es este: si te daría vergüenza, te metería en problemas o te expondría, no lo escribas. No hace falta esperar a una filtración para aprenderlo.

👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

Kevin Stiven Ramírez Quintero

Por Kevin Stiven Ramírez Quintero

Formado en la Pontificia Universidad Javeriana. Interesado en temas musicales, deportivos, culturales, turísticos, gastronómicos y tecnológicos. Le gusta realizar crónicas, trabajar temas en tendencias SEO y la cobertura de eventos en vivo de alcance internacional. Ganador del Premio Simón Bolívar en 2021.@kevins_ramirezkramirez@elespectador.com

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.