Una experta en ciberseguridad explica las cinco cosas que no debes contarle a la IA: "Parece obvio, pero podemos filtrar datos por error"
María Aperador aconseja evitar estas conversaciones con ChatGPT para proteger la privacidad de los usuarios
Cómo nos comportamos en los conciertos, según la psicología: esto es lo que un pequeño gesto revela "sobre altruismo, empatía y personalidad"
"Mucho cuidado con lo que le cuentas a la IA". Esta es la advertencia de María Aperador, criminóloga especializada en ciberseguridad, sobre el uso cada vez más desmedido de la Inteligencia Artificial en la vida cotidiana. Los chatbots, los asistentes virtuales y las herramientas generativas se han convertido en consejeros improvisados, apoyo emocional y solución exprés para casi todo. Son rápidos. Son eficaces. Y parecen entendernos. Pero esa confianza tiene una cara oculta.
Desde que esta tecnología comenzó a extenderse por nuestra realidad, el debate ha permanecido abierto. No exenta de polémica, la última llega desde el núcleo interno de OpenAI. La investigadora Zoë Hitzig, ex empleada de la compañía, hizo saltar las alarmas tras presentar su dimisión: "La empresa tiene el archivo más grande de la historia de pensamientos íntimos". Por ello, en un momento en el que es habitual compartir información sin pensar, la protección de datos y la ciberseguridad se convierten en cuestiones clave. Ahora bien, como dice Aperador, "cuanto más sepas, menos daño podrán hacerte".
Cinco cosas que nunca le debes contar a la IA
"Imagínate todo lo que pueden hacer con la cantidad de datos que han recolectado de todo lo que nosotros les contamos", reflexiona la criminóloga. Y no es para menos. En España, el uso frecuente de ChatGPT ha pasado del 4% al 28%, entre 2023 y 2025, según la III Encuesta Funcas sobre Inteligencia Artificial. Pero qué es lo que nunca le debemos contar?
- Problemas de salud mental y datos médicos. "Un millón de personas a la semana comparten con la IA su información médica", advierte Aperador. "Y todo esto se queda guardado en sus servidores".
- Datos bancarios, contraseñas o números de cuenta. "Parece muy obvio, pero muchas veces, al adjuntarle una captura de pantalla a la IA, podemos filtrar esa información sin darnos cuenta".
- Documentos legales adjuntos, con nombres y apellidos, ya sean nuestros o de terceras personas.
- Dirección, DNI o cualquier tipo de información personal.
- Capturas de pantalla o fotografías personales. "Nunca le adjuntes nada de esto porque la IA puede extraer absolutamente toda su información", concluye.
IA y privacidad: lo que debes tener en cuenta
Para su correcto funcionamiento, la IA se basa en un continuo entrenamiento gracias a cantidades ingentes de información; entre ella, la que comparten los usuarios. Esto puede ser en ocasiones relativo a datos personales o de comportamiento en línea, con todo lo que ello implica. En concreto, los modelos de IA generativa son susceptibles a la retención de información sensible que, en ocasiones, puede ser recuperable o divulgable.
Del mismo modo, la falta de transparencia es una de las cuestiones más preocupantes. "La opacidad en los procesos de toma de de decisiones de la IA puede dificultar que los individuos comprendan cómo se utilizan sus datos", explican desde la consultora sobre protección de datos, Actecil. Finalmente, hay que tener en cuenta que la centralización de grandes volúmenes de información personal en sistemas de IA puede ser un claro objetivo para los ciberdelincuentes. Por ese motivo, se aconseja precaución a la hora de utilizar estas herramientas.
También te puede interesar
Regístrate para recibir este boletín quincenal que abundará en una idea de la que se habla poco: tener críos puede ser muy divertido.