Etiquetas
Afterwork, Capital Radio, Deepfake, El Equipo E, Manipulación
Ayer acudí a mi visita mensual en el programa Afterwork de Eduardo Castillo en Capital Radio. Por las fechas en las que nos encontramos, estaba previsto que diéramos un repaso a todo lo acontecido durante el año más algunos consejos tecnológicos para el 2020, pero cambiamos el guión a última hora como consecuencia del vídeo viral de moda que apareció tras las últimas elecciones. Estoy hablando del vídeo titulado «El Equipo E, con E de España» en el que se fusionan las caras de los líderes de los cinco principales partidos con imágenes de la mítica serie de los años ochenta, «El Equipo A».
En el vídeo, subido a Youtube donde acumula más de 1,2 millones de reproducciones, Pablo Casado es Hannibal Smith, Pedro Sanchez es Fénix (el guaperas), Albert Rivera es Murdock (el loco) y en un golpe de genialidad, Santiago Abascal es M.A. y Pablo Iglesias es Amy Amanda, la chica que acompañaba al grupo. El nivel de fusión de las caras es muy bueno y desde un punto de vista cómico, el vídeo es insuperable. Se extendió entre grupos de whatsapp como la espuma.
Tengo que decir que me ha tocado muy de cerca, porque como se titulaba «El Equipo E», mucha gente pensó que era obra de mi empresa y en unos pocos días, recibí decenas de mensajes. El tráfico en nuestra página web llegó a multiplicarse por 200. Hasta llegamos a publicar un pequeño mensaje de bienvenida en el que dejábamos claro que no era obra nuestra. Eduardo Castillo, el director de Afterwork, fue uno de los que me contactó, así que finalmente decidimos dedicar el programa de Diciembre a contar los aspectos más anecdóticos del vídeo, pero también a hablar de Deepfake, la tecnología que hace posible que se creen vídeos como éste.
Deepfake, que podríamos traducir como “profundamente falso”, surge de la fusión de los términos deep learning (“aprendizaje profundo”) y fake (“falso”). Se trata de una técnica de inteligencia artificial que permite la generación de vídeos o imágenes falsos pero que aparentan ser reales, hasta un nivel asombroso. Deepfake permitiría, por ejemplo, insertar la cabeza o la cara de una persona en el cuerpo de otra. El algoritmo se alimenta con una serie de referentes visuales (vídeos o fotos) y consigue generar un nuevo vídeo alterado.
La tecnología Deepfake tuvo una primera aplicación muy conocida durante el rodaje de la saga Star Wars. La actriz Carrie Fisher falleció durante el rodaje y se utilizaron técnicas Deepfake para generar las escenas que faltaban utilizando a otra actriz e incorporando posteriormente la cara original de la princesa Leia. Hay un importante debate en el ámbito del cine ya que, ¿hasta qué punto es lícito utilizar estas técnicas de sustitución de actores? No hay duda que puede ser muy interesante para grabar escenas potencialmente peligrosas o para conseguir hilos argumentales muy largos en el tiempo rejuveneciendo o envejeciendo actores. Pero, ¿sería ético sustituir a actores en otras circunstancias? Por ejemplo, si un actor pide que se le suba el sueldo y la productora se niega, ¿podrían sustituirse las escenas restantes por otras generadas mediante Deepfake? ¿Se podría llegar a grabar una película completa sin actores, algo así como “la nueva película de Leonardo DiCaprio sin Leonardo DiCaprio”? ¿Los actores podrían cobrar por licenciar su cara sin llegar a actuar?
Deepfake también tiene otra vertiente, la del uso fraudulento, la manipulación pura y dura. Por ejemplo: un político diciendo lo contrario de lo que ha dicho en su discurso real (ya hay un precedente muy conocido con Barack Obama), un CEO que reconoce las cosas que hace mal su compañía (otro precedente, Mark Zuckerberg) o una conocida actriz con la que se generan vídeos pornográficos (también hay muchos precedentes, como el de Scarlett Johanson).
Contra estos usos fraudulentos de la tecnología Deepfake ya hay una gran movilización de empresas que están desarrollando algoritmos para detectar montajes. Microsoft, Amazon, Google o Facebook ya han creado bases de datos con miles de archivos manipulados para entrenar a los algoritmos de detección automática de fraudes. Curiosamente, una de las empresas que más está haciendo por detectar deepfakes es el portal pornográfico Pornhub. Es una de las empresas más activas y efectivas eliminando vídeos falsos de su contenido, especialmente después de que se subieran a su plataforma decenas de vídeos que colocaban artificialmente en escenas pornográficas el rostro de conocidos actores o incluso personas anónimas.
El único problema que ofrecen las técnicas de detección automática es que al mismo tiempo que sirven para detectar un fraude, sirven para realimentar el algoritmo que genera los vídeos, haciendo que cada vez sean más difíciles de detectar. Por eso, la “capa humana” sigue siendo necesaria: periodistas con ojo adiestrado que no caen en el click fácil, planes de respuesta rápida en las empresas para el caso en el que surja algún problema y, por supuesto, una sociedad con pensamiento crítico que no colabore en hacer la bola más grande publicando en sus redes sociales un vídeo que podría ser una fraude.
Como siempre, el audio del programa completo está disponible aquí.