Día de Internet Segura: proteger la identidad y los datos ante una IA sin precedentes | Por F5
La manipulación de datos por IA en redes sociales reabre el debate sobre la soberanía digital y la protección de la identidad.
En el marco del Día de la Internet Segura, expertos en ciberseguridad y protección de datos analizan los riesgos que aparecen cuando la inteligencia artificial deja de ser una herramienta productiva y se convierte en un potencial vector de vulneración de la privacidad.
Recientemente, casos de alto perfil pusieron en evidencia la fragilidad de la privacidad en las redes sociales. Chatbots que funcionan en redes sociales muy populares fueron señalados por facilitar la creación de imágenes íntimas no consentidas (deepfakes) mediante comandos que permiten "desnudar" o alterar fotos de usuarios y menores de edad. Más allá de la seguridad informática que hay que atender, también retornan dos temas fundamentales: la ética y la responsabilidad. ¿Puede un chatbot que funciona en una red social atender esa clase de solicitudes sin responsabilizarse por sus consecuencias, que van desde vulnerar la intimidad hasta generar imágenes artificiales hiperrealistas que no distinguen realidad de ficción?
La IA se alimenta, entrena y responde en base a la información y las decisiones tomadas por personas; no es un ente abstracto autogenerado que no tiene conciencia alguna de sus actos. ¿Los usuarios no responden por las tareas que le solicitan? Se generan tantas capas de responsabilidad que parece que, al final, nadie tiene la culpa.
Sin embargo, este fenómeno no solo representa una violación ética, sino que expone un problema estructural: cómo los datos que compartimos voluntariamente pueden ser procesados por modelos de lenguaje (LLM) para fines que son maliciosos.
"El problema no es la herramienta. Es el entrenamiento de estos modelos con datos públicos sin su consentimiento explícito", señalan los especialistas.
Esta situación subraya la necesidad de que las infraestructuras que sostienen internet y sus plataformas -desde las APIs hasta las nubes de datos- incorporen capas de verificación de identidad más profundas.
Los puntos críticos para una Internet Segura en 2026
Desde la perspectiva de la infraestructura tecnológica, se pueden identificar tres áreas donde la seguridad de los datos está siendo comprometida hoy.Por un lado, está la exposición de APIs y datos personales. Las APIs son los puentes que permiten que las aplicaciones compartan nuestra información. Si estas conexiones no están blindadas, los datos personales pueden ser recolectados masivamente por terceros para entrenar IAs o realizar ataques de ingeniería social.
Otro gran peligro es el auge de la desinformación sintética. Esto pudo verse en Argentina, durante las elecciones del 2025, cuando se difundió un video falso y hecho con IA de un líder político anunciando la baja de una candidatura.
Este uso de la IA termina por erosionar la confianza digital. La seguridad no es solo evitar el robo de una contraseña, también se debe garantizar que el contenido que vemos y generamos no sea manipulado o utilizado para el acoso, la extorsión o el fraude.
El vicepresidente de F5 para Latinoamérica, Roberto Ricossa fue contundente sobre este tema y estableció: "El escenario actual es el de una batalla de inteligencia artificial buena contra una inteligencia artificial mala, entre quienes lanzan aplicaciones y quienes las hackean".
Por último, está el hecho de que la vulnerabilidad quedó del lado de los clientes porque los atacantes migraron hacia donde el usuario interactúa. El código malicioso que se ejecuta en el navegador o en la app del teléfono puede interceptar información antes de que llegue a los servidores seguros, facilitando el robo de identidad.
-
-
Recomendaciones para la protección de la soberanía digital
En primer lugar, las organizaciones, que son actores fundamentales en la adopción de la IA, deben empezar a Implementar una estrategia de seguridad de Aplicaciones y APIs. Su función es detectar el comportamiento de bots y herramientas de IA que intentan extraer o manipular datos de forma automatizada."Las empresas necesitan asegurarse de que, mientras equilibran las cargas de procesamiento, la información confidencial permanezca bajo un control estricto", detalló Federico Aragona, director de ventas regional de F5 para Latinoamérica.
A los usuarios se les recomienda revisar las configuraciones de privacidad de las redes sociales para restringir el uso de datos personales y fotos en el entrenamiento de modelos de IA. La "higiene digital" hoy incluye ser selectivos con el contenido que se sube a plataformas con políticas de uso de datos ambiguas.
"La seguridad depende de nuestras propias acciones y de hasta dónde permitimos el involucramiento de la tecnología en nuestras vidas", cerró Aragona.

No hay comentarios.