La mitad de los españoles no sabe identificar como falsos los vídeos manipulados con IA
- La IA entra en el trabajo sin conciencia del riesgo
- Más allá de la oficina: estafas cada vez más creíbles
- Un problema que seguirá creciendo
Así lo refleja la Prueba Nacional de Privacidad, un estudio internacional que alerta de un problema creciente a medida que estas tecnologías se integran tanto en el trabajo como en la vida personal.
La encuesta, elaborada por la empresa de ciberseguridad NordVPN, en la que han participado 36.667 personas de 192 países, muestra que el 46% de los españoles no identifica correctamente fraudes basados en inteligencia artificial, como vídeos falsos hiperrealistas o la clonación de voz.
Estas técnicas permiten crear escenas, gestos y mensajes que imitan con enorme precisión a personas reales, lo que complica la detección incluso para usuarios experimentados.
La IA entra en el trabajo sin conciencia del riesgo
El estudio también pone el foco en el ámbito laboral, donde la adopción de herramientas de inteligencia artificial avanza a mayor velocidad que la concienciación sobre sus riesgos.
Según los datos recopilados durante todo 2025, el 94% de los españoles no entiende qué problemas de privacidad debe tener en cuenta al usar la IA en su trabajo.
Millones de personas recurren a asistentes como ChatGPT, Copilot y otras aplicaciones generativas para ganar productividad, sin ser conscientes de que pueden estar exponiendo información personal o corporativa sensible.
“La adopción de la IA en los espacios de trabajo es más rápida que la concienciación de sus riesgos”, advierte Marijus Briedis, director de tecnología de NordVPN. “La gente está compartiendo información confidencial con las herramientas sin darse cuenta de dónde acaban esos datos, cómo se almacenan o quién puede tener acceso a ellos”, señala.
A diferencia de una conversación privada entre compañeros, las interacciones con sistemas de inteligencia artificial pueden quedar registradas, analizadas y reutilizadas.
Briedis subraya que cuando un empleado comparte datos de clientes, estrategias internas o información personal con estos asistentes, puede estar creando una brecha de privacidad sin intención alguna, con consecuencias difíciles de controlar.
Más allá de la oficina: estafas cada vez más creíbles
Los riesgos no se limitan al entorno laboral. La misma tecnología que mejora la eficiencia en el trabajo está siendo aprovechada por delincuentes para crear fraudes cada vez más sofisticados y convincentes.
Los vídeos falsos con movimientos realistas, las voces clonadas y los personajes generados por IA están detrás de un aumento de estafas que apelan a la confianza de las víctimas.
Las consecuencias económicas ya son visibles. Según una investigación previa de NordVPN, una de cada tres personas en el mundo se ha encontrado con estafas en internet en los últimos dos años. Casi la mitad de las víctimas perdió dinero y, en el 20% de los casos, las pérdidas superaron los 100 dólares.
“La inteligencia artificial ha simplificado enormemente el trabajo de los delincuentes”, explica Briedis. “Ya no necesitan grandes conocimientos técnicos para crear correos fraudulentos, clonar la voz de alguien o diseñar una tienda en línea casi idéntica a una legítima. Nunca ha sido tan fácil hacerse pasar por alguien o engañar a gran escala”, añade.
Un problema que seguirá creciendo
Las previsiones no son optimistas. Los expertos de NordVPN advierten de que los ataques impulsados por inteligencia artificial serán uno de los grandes riesgos de ciberseguridad en 2026, con métodos cada vez más refinados para explotar la falta de conocimientos de los usuarios.
En este contexto, la idea de que “ver es creer” ha dejado de ser válida: la imagen ya no garantiza autenticidad.
Frente a este escenario, los especialistas insisten en la importancia de un uso responsable de la IA. En el ámbito profesional, recomiendan evitar compartir cualquier tipo de información confidencial y comprender que las conversaciones con estas herramientas no son privadas en el sentido tradicional.
También subrayan la necesidad de conocer las políticas internas de cada organización antes de integrar la inteligencia artificial en las tareas diarias.
En el plano personal, la prudencia es clave ante llamadas o mensajes inesperados, incluso cuando parecen proceder de alguien conocido. Verificar las solicitudes de dinero o de datos sensibles por canales fiables y mantener actualizadas las herramientas de seguridad se ha vuelto imprescindible para reducir el riesgo de caer en engaños cada vez más elaborados.