Deepfakes: qué hacer cuando ya nada es lo que parece

Forman parte, cada vez más, del arsenal de agresiones híbridas de algunos estados y organizaciones criminales. Los deepfakes, sistemas de creación -mediante IA-, de falsos contenidos audiovisuales, suponen una amenaza tecnológica para la seguridad que se combate con tecnología sofisticada.

La última controversia relacionada con el uso de imágenes sintéticas (deepfakes) extremadamente realistas se ha producido en TikTok. La red social de origen chino alberga estos días una cuenta, Unreal Reeves, en la que se muestra vídeos del actor Keanu Reeves realzando acciones cotidianas como cantar, escuchar música o bromear sobre su carrera. 

Tal y como indica el periodista Eric Hal Schwartz en su blog Voicebot, “apenas un tercio de los usuarios de la red que comentan los vídeos parecen conscientes de que no se trata del verdadero Reeves, sino de una imitación generada haciendo uso de la síntesis de imagen”. A pesar de que el nombre de la cuenta no puede ser más explícito, muchos parecen pensar que están viendo al actor o “a un hermano gemelo separado de él tras su nacimiento”. 

Tal y como explica Schwartz, no estamos ante un deepfake malicioso, es decir, ante una falsificación que se quiera hacer pasar por real con intenciones delictivas, sino a una aplicación de uso lúdico realizada, al parecer, con el motor gráfico de Unreal, el popular videojuego de acción en 3D de Epic Games. El pasado verano, la startup estadounidense Metaphysic concursó con sus deepfakes de artistas fallecidos como Elvis Presley en la decimoséptima edición del reality America’s Got Talent (GT). Alcanzó la final. Al público le resultaba irresistible la resurrección virtual del rey del rock, que hizo uso, además, de un programa del vanguardista programa de síntesis de voz Respeecher, de manera que nada en aquella actuación era real, ni las imágenes ni la música.

 

Cada vez más convincentes (e inquietantes) 

Este par de anécdotas ilustran a la perfección el largo trecho recorrido por los deepfakes desde que la tecnología empezó a estar disponible en torno a 1997. Incluso las imágenes sintetizadas de Barack Obama que causaron sensación en 2018 nos parecen ahora rudimentarias, comparadas con lo que es posible generar en la actualidad con un motor gráfico sofisticado y, eso sí, un uso extensivo de algoritmos de inteligencia artificia dotados de sistemas de autoaprendizaje (deep learning). 

Devin Coldewey, redactor del boletín corporativo TechCrunch, explica que también la síntesis de voz, que se mantenía un peldaño por detrás de la síntesis de imágenes en términos de realismo, acaba de dar un paso decisivo gracias a sistemas como VALL-E, “que convierte la elaboración de deepfakes acústicos en algo sencillo, rápido y trivial”. 

 

Todo tipo de usos, maliciosos o no 

Como ocurre con cualquier otro desarrollo tecnológico, los deepfakes son una herramienta neutra. Se han hecho de ella usos benignos, como las síntesis de imagen de Obama, con voz del director de cine Jordan Peele, que sirvieron para concienciar al gran público de los riesgos asociados a esta tecnología.  

Mucho más inquietante resulta, por supuesto, el uso de deepfakes por parte de organizaciones criminales, una práctica que se viene detectando con intensidad creciente desde hace al menos tres años. También son cada vez más frecuentes, tal y como denuncia un grupo de investigadores en el artículo How Underground Groups Use Stolen Identities and Deepfakes, publicado en Trend Micro, robos de identidad realizados para superar sistemas de control y verificación o para causar daños reputacionales.  

Los preocupantes de verdad son los deepfakes con intencionalidad política que se pretenden pasar como reales, como en el caso de los falsos vídeos de Joe Biden.

 

En la esfera pública, los deepfakes han resultado ser una herramienta muy eficaz en acciones de propaganda y desinformación. Algunos casos, como las campañas de desprestigio mediante uso de imágenes sintetizadas de que fueron objeto Mauricio Macri, Angela Merkel o Donald Trump, pueden resultar tan efectistas como anecdóticas. Los preocupantes de verdad son los deepfakes con intencionalidad política que se pretenden pasar como reales, como en el caso de los falsos vídeos de Joe Biden dando supuestas muestras que deterioro cognitivo muy avanzado que circularon por las redes sociales durante la campaña presidencial estadunidense de 2020. 

La eficacia de este tipo de actos de intoxicación quedó demostrada con una encuesta que realizó Fox News días después de que se hiciese público que los vídeos eran falsas: el 37% de los que los habían visto se mostraban convencidos de que eran imágenes reales pese a que ya existía un desmentido oficial al respecto.  

 

¿Auge imparable? 

La propia Moravec añade que el número de vídeos deepfakes detectados online sigue en progresión geométrica desde 2018. En 2019 rondaban los 14.000 y hoy son ya centenares de miles. La capacidad de detectarlos también ha disminuido. En junio de 2020, el Deepfake Detection Challenge, una iniciativa colaborativa basaba en desarrollar software de detección de imágenes sintéticas, arrojó resultados prometedores: los mejores programas, creados por desarrolladores independientes o ingenieros informáticos de universidades como Oxford, Cornell o Berkeley, detectaban deepfakes con un grado de precisión de hasta el 82%. Los actuales resultados son bastante inferiores. 

Una vez más, se ha confirmado que, en el uso de tecnologías disruptivas con potenciales usos delictivos, la capacidad de agresión tiende a ir por delante de la capacidad de respuesta. Sofisticados sistemas basados en redes neuronales artificiales, como el llamado Expression Manipulation Detection (EMD, por sus siglas en inglés), creación de un grupo de ingenieros de la universidad de Riverside que consiguieron resultados iniciales muy prometedores. Pero este primer impacto positivo tiende a diluirse en cuanto los creadores de deepfakes se adaptan a estos nuevos parámetros e integran en sus algoritmos de inteligencia artificial los criterios usados por los programas de detección. 

 

Un destello de esperanza 

El pasado noviembre, Intel presentaba FakeCatcher, una plataforma de detección a la que se atribuye capacidad para detectar deepfakes con una precisión superior al 96%. Ilke Demir, investigadora senior de Intel Labs, destacaba en la presentación del producto que, por primera vez, un software de detección pensado para usos domésticos “devuelve resultados en milisegundos”. 

En palabras de Demir, “la mayoría de los detectores basados en aprendizaje profundo de los que se ha hecho uso hasta ahora intentan detectar irregularidades en los vídeos, algo que cada vez resulta menos eficaz, dada la creciente perfección técnica de las aplicaciones de creación de deepfakes”. FakeCatcher, en cambio, compara vídeos falsos con reales prestando una especial atención “al flujo sanguíneo”, es decir, a los sutiles cambios de pigmentación que se producen en los organismos humanos cuando el corazón bombea sangre. De confirmarse los buenos augurios que trae consigo FakeCatcher, quedaría claro que son las recetas tecnológicas las que resuelven los problemas que la propia tecnología plantea.