People inspired

Deepfakes: una máquina desmintiendo a otra

En este último año, la popularidad de los vídeos manipulados mediante inteligencia artificial para suplantar identidades, se ha popularizado en las redes sociales. El uso de esta tecnología está en auge pero, ¿cómo se consigue parar? ¿Es la máquina la que crea o la que lo desmiente?

Los deepfakes nacieron a finales de 2017. Lo que conocemos sobre este término no es más que la habilidad para cambiar una cara por otra en una imagen o en un vídeo. ¡Se hicieron populares gracias a la industria del porno!, el principal motor en casi todas las nuevas tecnologías. Su objetivo prioritario  era intercambiar los rostros de las actrices de las películas por caras de actrices famosas o mujeres conocidas. Posteriormente, saltaron a la política. Líderes de diferentes partidos eran suplantados diciendo o dando discursos en contra de sus ideales que, en realidad, no habían ocurrido.

Ahora, cualquier persona puede crear un vídeo con el CEO de su compañía o con su jefe con fines que pueden ir más allá del entretenimiento. Un escenario que representó, representa y representará el caos que puede suponer que no se ponga límite o que no se desmienta a tiempo la información generada. 

Sin duda, esta serie de vídeos falsos se están convirtiendo en una de las principales preocupaciones de la sociedad y de los gobiernos, debido a la falta de veracidad de su contenido y al desconcierto que pueden crear en pocas horas. Aunque, los cambios de rostros o la realización de retoques no es nada nuevo, ya que se lleva realizando en el cine durante años. Pero, ¿era antes tan fácil y rápido cambiar la cara de un actor por, por ejemplo, la de Gollum en El Señor de los Anillos? No. Era necesario un ordenador muy potente, varios perfiles de edición de vídeo específicos y expertos, y trabajar muchas horas para conseguir un resultado decente.

El desarrollo de los deepfakes  y su problemática

El avance y el problema, al fin y al cabo, es que gracias a las técnicas generadas con IA, cualquiera con un ordenador básico y con bastante información, puede llegar a obtener los mismos resultados de una forma bastante decente. En decir, cualquier usuario con miles de fotografías de una persona puede reemplazar su cara en un vídeo y hacer que la falsificación sea complicada de descubrir. 

Este “truco” utiliza deep learning para generar lo que se conoce como modelado generativo. Lo que permite que el ordenador aprenda de la información dada a la hora de obtener un vídeo falso. Además, recientemente se están empezando a utilizar dos redes neuronales conjuntamente para producir resultados aún más convincentes. Las conocidas como generative adversarial networks (GAN). Si con una red neuronal se obtenían buenos resultados, ahora que se están empezando a utilizar dos para ponerse a prueba una a la otra… ¡es mejor ni imaginarlo! 

Para poner solución y un poco de orden a este problema, desde que surgieron los deepfakes, varias organizaciones han tratado de desarrollar nuevas tecnologías para poder detectarlos. Su objetivo consiste en utilizar las mismas técnicas de IA para reconocer patrones analizando su contenido y alertar a los usuarios de estas falsificaciones.

Un ejemplo de ello sería la detección del parpadeo. Las caras en los vídeos deepfakes pestañean con menor frecuencia que en el mundo real ya que en la mayoría de imágenes de entrenamiento suelen utilizar fotografías en las que las personas no salen con los ojos cerrados. Gracias a la IA podemos analizar, detectar los fotogramas y dictaminar a partir de ese valor si se trata de un deepfake o no.

Otra solución posible sería crear una base de datos con modelos personalizados con personajes famosos, políticos y toda figura pública de la que se tengan suficientes imágenes. Digamos que es una solución un poco ruda, ya que el día de mañana casi seguro no hará falta tener un banco de imágenes tan amplio como el que se necesita ahora para crear un deepfake y no nos serviría de nada tener ese backup de base de datos. 

De cualquier forma, se debe tener cuidado. De unos años atrás hasta ahora, la tecnología y los vídeos deepfakes han evolucionado y aumentado considerablemente. Cada vez se hace más difícil identificarlos y desmentirlos de un simple -o meticuloso- vistazo y en futuro puede que sea imposible utilizar cualquier tipo de tecnología para detectarlos. Es una carrera en la que una (las que los crean) trata continuamente de superar a la otra (las que los detectan).  

De esta manera, la única solución posible que nos queda es volver a nuestra faceta más primitiva de tener que contrastar la información que vemos en las redes sociales o ir directamente a la fuente principal para asegurarnos de que no se trata de un deepfake antes de compartirlo y hacer saltar todas las alarmas.