Deep Fake y su Amenaza a la Democracia - Técnicas de detección y propuestas legislativas sobre identidad digital | Por Carlos Christian Sueiro

Por Carlos Christian Sueiro, abogado y profesor de Criminalidad informática

I. Las falsificaciones profundas (Deep Fake)

En los años noventa, herramientas como Photoshop permitieron por primera vez modificar imágenes digitales. Para entonces, alterar un rostro en una fotografía o video requería tiempo y habilidad técnica.

Hoy, gracias al avance del aprendizaje automático, el aprendizaje profundo y la inteligencia artificial, estas manipulaciones pueden hacerse en minutos. Plataformas como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google), Llama 3 (Meta), Grok (X), Claude (Anthropic) y otras, han democratizado el acceso a estas tecnologías, poniéndolas al alcance de cualquier usuario.


II. Impacto de los Deep Fake en democracias y relaciones internacionales

Inicialmente asociados a la industria pornográfica, los deep fakes evolucionaron hacia la manipulación política y diplomática. Celebridades como Scarlett Johansson, Katy Perry o Taylor Swift fueron las primeras afectadas. Más tarde, figuras públicas como Donald Trump, Angela Merkel y Mauricio Macri también fueron víctimas.

Un caso emblemático ocurrió en 2017, cuando medios árabes difundieron un video falso del Emir de Qatar elogiando a organizaciones extremistas. La falsificación exacerbó un conflicto diplomático con Arabia Saudita y otros países.

Más recientemente, en las elecciones de mayo de 2025 en Buenos Aires, circuló un deep fake del expresidente Macri llamando a votar por la fuerza oficialista. Aunque falso, su veracidad fue difícil de discernir de inmediato.

Estos ejemplos reflejan el potencial disruptivo de los deep fakes en contextos electorales, diplomáticos y sociales.


III. Técnicas para detectar deep fakes

Investigadores de la Universidad de Albany (Nueva York) desarrollaron un protocolo forense para identificar videos manipulados. Algunas señales clave:

  1. Parpadeo anómalo: Ausencia de parpadeo o parpadeos poco naturales puede indicar manipulación.
  2. Desajuste corporal: Muchas falsificaciones solo cambian el rostro, pero algunas también alteran cuerpos completos.
  3. Duración limitada: Cuanto más largo el video, mayor la probabilidad de que aparezcan errores. La mayoría de los deep fakes de alta calidad no superan los 60 segundos sin revelar fallos.
  4. Desfase de audio: Problemas de sincronización entre labios y voz, o directamente ausencia de sonido, son indicadores clave.
  5. Contenido improbable: Si un video muestra una situación extremadamente inverosímil (ej. líderes políticos en conductas absurdas), es razonable dudar de su autenticidad.

IV. Propuesta legislativa de Dinamarca sobre identidad digital

Dinamarca está liderando una iniciativa legislativa en la Unión Europea que reconoce la identidad digital como propiedad intelectual.

El proyecto otorga derechos de autor sobre los rasgos faciales y la voz de una persona, permitiéndole exigir el retiro de contenidos no autorizados de plataformas digitales. También cubre imitaciones digitales realistas de artistas o figuras públicas sin consentimiento.

Jakob Engel-Schmidt, Ministro de Cultura danés, ha declarado su intención de usar la próxima presidencia de Dinamarca en la Unión Europea (segundo semestre de 2025) para impulsar esta legislación a nivel regional.


No hay comentarios.

Imágenes del tema de enot-poloskun. Con tecnología de Blogger.