La conocida experta en ciberseguridad, María Aperador, ha advertido en varias ocasiones sobre el mal uso de la IA. Los ciberdelincuentes no solamente se hacen pasar por entidades en Instagram y WhatsApp en España, sino que aprovechan su recopilación de datos.
El tema de la privacidad y seguridad en los chatbots se ha vuelto uno de los más discutidos en la actualidad por toda la información que usan las empresas para entrenar a los modelos de IA.
En efecto, la ENISA afirma que esta tecnología está siendo utilizado en el 80% de las campañas de phishing de 2025 y, en 2026, lo más preocupante es la manera en la que las personas hablan con ChatGPT, Gemini y otros asistentes.
No es tu amiga ni confidente, es un sistema que almacena masivamente cada cosa que dice y lo que se guarda en las conversaciones podría ser utilizado en tu contra si algún intruso o hacker ve el historial o se filtran los datos.
Cosas que nunca debes compartir con ChatGPT o cualquier inteligencia artificial
El uso de la inteligencia artificial no se debería tomar a la ligera. Si bien hay funciones útiles en ChatGPT, la gran parte de los usuarios la usa a diario y como si fuera cualquier otra persona a la que se le puede contar lo que sea.
Eurostat ha compartido que aproximadamente el 32,7% de la población de la Unión Europea (de 16 a 74 años) la utilizó IA generativa en 2025 y la cifra aumenta considerablemente. De hecho, en países como Grecia o Estonia ya supera el 80% en jóvenes de 16 a 24 años.
Ni te imaginas las millones de conversaciones que se pueden tener en un asistente virtual como Copilot o Gemini. Básicamente, es una herramienta que está en el día a día de las personas y la situación va a ser cada vez más preocupante, según explica la especialista María Aperador.
Es evidente que los chatbots se han vuelto de mucha utilidad. Con ellos puedes generar imágenes y vídeos realistas con texto, redactar contenidos o usarlos para que te ayuden en proyectos de programación y mucho más.
Sin embargo, el problema es que hay una constante exposición de datos sensibles. La investigadora afirma que hay cinco cosas fundamentales que se tienen que evitar al hablar con la inteligencia artificial para no estar en peligro.
Como ya deberías saber, nunca se debería compartir información personal. Aperador indica que recientemente una investigadora de OpenAI denunciada a la compañía por “el mayor archivo de pensamientos íntimos de la historia” y por eso es crucial tener mucho cuidado con contar cosas en las conversaciones de la IA. Estas son las siguientes:
- Salud mental y datos médicos: ya es común que muchas personas filtren su información clínica que determina los estados actuales.
- Credenciales financieras: nunca se debería, bajo ninguna circunstancia, compartir los datos bancarios, cuentas o capturas relacionadas con bancos o plataformas de monederos.
- Documentación: nombres y apellidos, número de DNI y otros documentos legales que contengan detalles personales.
- Identidad y ubicación: direcciones físicas, capturas, planos de viaje con localizaciones exactas o cosas que determinan tu desfile.
- Contenido multimedia personal: fotos y vídeos. Las imágenes que usas para convertirlas en estilo Ghibli, Funko Pop o lo que sea, se almacenan y se utilizan para entrenar al modelo.
¿Por qué todos estos detalles son tan peligrosos? lamentablemente, hay muchísimas razones, como la nueva técnica de Inyección de Prompts que “engaña al sistema con frases o palabras estratégicas para que el asistente virtual responda o filtre cosas que no debería.
También están los malwares que controlan equipos remotos, los cuales fácilmente pueden ver todo lo que se comparte en pantalla, incluyendo esos chats que tienes con la inteligencia artificial.
Peor aún, existen hackers que acceden a tus cuentas directamente y consiguen ver todo lo que has hablado con el chatbot. recopilando cada detalle para ser utilizados por ransomwarevenderlos en la Dark Web y muchas otras cosas maliciosas. Hazle caso a María Aperador y mantente bajo perfil si no quieres problemas digitales en el futuro.
