
La interacción con chatbots (ChatGPT, Gemini, Copilot, Claude, Perplexity, entre otros) pasó a tratarse como un espacio íntimo y seguro. Se le confían inquietudes emocionales, psicológicas, laborales y médicas. ESET, compañía líder en detección proactiva de amenazas, analiza qué tipo de información se suele compartir con los chatbots de IA, de qué manera podría quedar expuesta y cuál podría ser el impacto real de una filtración. Además, comparten buenas prácticas digitales para seguir utilizando estas herramientas sin ponerse en riesgo.
“No es una novedad que muchas personas usan los chatbots como si fueran espacios privados. Utilizarlos de esa manera se contradice con la naturaleza de este tipo de herramientas ya que las propias plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio. Los chatbots no fueron concebidos como un lugar confidencial, más allá que la experiencia conversacional invite a pensarlos así. Si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad (controles de acceso, monitoreo, protección de infraestructura), esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad.”, destaca Martina Lopez, Investigadora de Seguridad Informática de ESET Latinoamérica.
Al usarlo como asistente personal o hasta de consejero, muchas veces se comparte mucha información personal y sensible casi sin darse cuenta. A saber:
Datos personales. Información sensible como nombre, edad, ciudad y país, pero también hábitos cotidianos: dónde trabajas, con quién vives y cómo está compuesta tu familia. Esta información combinada y en las manos equivocadas, puede ser peligrosa.
Información laboral. Con la necesidad de “Ayúdame a mejorar esto”, muchos usuarios comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, detalles de clientes, proveedores, conversaciones y tickets. También código fuente y arquitecturas internas.
Consultas médicas, psicológicas o emocionales. Los chatbots también son entendidos por muchas personas como consejeros o especialistas (práctica que puede ser peligrosa). Se comparten cuestiones vinculadas a la salud, como síntomas, diagnósticos y medicación, y también temas personales como conflictos de pareja, duelos, consultas que no harían en otra red social, o el pedido de un consejo.
Opiniones, creencias y posturas sensibles. Los chatbots reciben opiniones de los usuarios vinculados a la ideología política o religiosa, posturas sobre empresas, jefes o colegas, y también información que, fuera de contexto, puede generar daño reputacional.
Los 5 riesgos destacados a los que se está expuestos por una filtración de chatbots, según ESET, son:
1. Robo de identidad / Ingeniería social: Las conversaciones con chatbots aportan contexto humano. Así, el ciberatacante obtiene información sobre hábitos, intereses, rutinas, servicios que se utilizan, problemáticas que los trascienden y hasta el tono que se usa al hablar. Esto permite crear ataques mucho más personalizados, a través de correos o mensajes que parecen escritos por alguien del entorno, estafas que incluyen datos reales de la vida o suplantaciones de identidad mucho más difíciles de detectar.
2. Espionaje corporativo: Dado que muchos usuarios usan chatbots como apoyo laboral, es posible que los atacantes obtengan información confidencial como estrategias, documentos, decisiones internas, información sobre clientes, detalles de precios y/o productos. Más allá de los riesgos legales que esa situación puede ocasionar, también puede significar una ventaja competitiva para terceros o el incumplimiento de ciertos compromisos contractuales.
3. Daño reputacional: Si quedan expuestas opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales a la pérdida de credibilidad profesional.
4. Exposición de datos sensibles: Este tipo de chatbots también se usan como espacio de consulta íntima, y suelen contener información personal como síntomas, diagnósticos, tratamientos, creencias religiosas o políticas, conflictos personales o familiares. Si eso se filtrara, el impacto para la víctima puede ser devastador: estigmatización, discriminación y hasta vulneración emocional.
5. Extorsión: Cuando el ciberatacante cuenta con información privada puede presionar a través de amenazas creíbles y chantajes personalizados. ¿El objetivo? Obtener algún tipo de rédito económico por parte de la víctima.
Noticias de Barquisimeto – PromarTV Canal de Televisión