Las plataformas de inteligencia artificial (IA) como ChatGPT, Gemini o Claude se han convertido en el nuevo «confesionario» digital de los usuarios. Sin embargo, la compañía de ciberseguridad ESET advierte que tratar a estos chatbots como espacios de absoluta confidencialidad es un error que pone en riesgo la privacidad y la seguridad de los ciudadanos.
La falsa sensación de privacidad
Aunque la experiencia conversacional invite a la confianza, estos sistemas no fueron concebidos como lugares confidenciales. Martina Lopez, investigadora de Seguridad Informática de ESET Latinoamérica, destaca que las plataformas pueden almacenar y revisar las charlas para mejorar sus servicios. “Esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad”, señala la experta.
La información que suele quedar expuesta incluye:
- Datos personales: Hábitos cotidianos, lugar de trabajo y composición familiar.
- Información laboral: Correos internos, contratos, estrategias comerciales y código fuente.
- Consultas de salud: Síntomas, diagnósticos y medicación compartidos con la IA como si fuese un especialista.
- Posturas sensibles: Opiniones políticas, religiosas o críticas profesionales que podrían causar daño reputacional.
Peligros reales: Del robo de identidad a la extorsión
La exposición de estas conversaciones puede derivar en consecuencias devastadoras. ESET identifica cinco riesgos críticos:
- Robo de identidad: Los atacantes usan el tono y los datos del usuario para estafas personalizadas.
- Espionaje corporativo: Filtración de secretos comerciales y decisiones internas de empresas.
- Daño reputacional: Divulgación de opiniones privadas o dudas profesionales.
- Exposición de datos sensibles: Estigmatización por la filtración de cuadros médicos o creencias.
- Extorsión: Chantajes basados en información privada obtenida de los historiales.
Recomendaciones para un uso seguro
Para aprovechar estas herramientas sin comprometer la integridad digital, los especialistas sugieren un checklist básico:
- Anonimizar la información: Cambiar nombres de personas y empresas en los casos consultados.
- Evitar datos bancarios: Nunca compartir cédulas, teléfonos o credenciales de acceso.
- Configurar la privacidad: Revisar qué datos se guardan y cuáles se usan para entrenar al modelo.
- Seguridad de cuenta: Utilizar contraseñas robustas y activar el doble factor de autenticación.
- Criterio de publicación: Antes de escribir, pregúntese: “¿Diría esto en voz alta en una sala llena de desconocidos?”.

