Por esta santa casa hemos hablado en no pocas ocasiones de las ultrafalsificaciones o deep fakes, es decir, de esos vídeos o audios en los que alguien se hace pasar por otra persona, aparentando que esta dice o hace unas cosas que por razones obvias, ni ha dicho ni ha hecho.
¿Sus principales usos? Pues el de la industria pornográfica, que tanto daño reputacional está haciendo a cada vez más víctimas, y también su impacto en la estrategia geopolítica. En su día hablé de varios casos que afectaban a dirigentes rusos, y últimamente se han hecho bastante habituales los que provienen de este mismo país haciéndose pasar por el presidente de Ucrania o demás mandatarios ucranianos, en esa guerra propagandística y militar que están llevando a cabo.
Incluso se han empezado a utilizar para campañas publicitarias y marketing, y la tendencia, mal que nos pese, es que a su uso sea cada vez más intenso y en mayores derroteros.
Tanto que ya hace meses decidimos publicar por esta página una serie de recomendaciones para identificar deep fakes.
Algunos de los más importantes eran:
- Fijarse en los detalles más complicados de emular en un vídeo o imagen: Hablo, principalmente, de la distancia entre los ojos de una cara o la colocación de las orejas. El ser humano curiosamente es muy bueno a la hora de analizar proporciones en rostros (estamos biológicamente diseñados para ello), y si algo falla puede que sea nuestro cerebro avisándonos de que quizás estamos ante una ultrafalsificación.
- Fijarse en los movimientos y el lenguaje corporal: Por ejemplo, algo como el pestañeo de los ojos no siempre los deepfakes son capaces de emularlo correctamente. Además, se les suele ver más el plumero cuando hay ligeros movimientos de cabeza o torso, o a la hora de sincronizar dichos movimientos con los esperables que hacemos mientras hablamos.
- Contrastar información en diferentes fuentes: Por supuesto, no es recomendable informarse únicamente por una misma fuente de información. Ya no solo porque esta podría estar intentando engañarnos, sino porque lo mismo sus periodistas son las víctimas de uno de estos engaños, pensando que es real ese deepfake y haciéndose por tanto eco de ello.
- Las redes sociales no son una herramienta de información, sino de entretenimiento: Hay que tener clara esta diferencia. El objetivo de una red social es que pases el mayor tiempo posible usándola, no informarte correctamente. De ahí que muchos deepfakes se comparten por ahí (menos controles, mayor capacidad de viralización).
- Cuidado con exponer mucha información y contenido gráfico nuestro: De cara a ser víctima de los deepfakes, mientras menos contenido audiovisual haya de nosotros públicamente, mejor. A fin de cuentas, estas herramientas funcionan mejor conforme mayor es la biblioteca de recursos gráficos que tenemos de la víctima. De ahí que muchas de estas ultrafalsificaciones utilicen rostros de personas famosas, de las que ya tenemos mucho contenido gráfico en la red. Y como en cualquier otro fraude, mientras menos información haya de nosotros, menos herramientas tendrá el ciberdelincuente para generar deepfakes que resulten creíbles.
Pues bien.
A todo esto ahora deberíamos incluir un par más:
- Pedir a la otra persona que se ponga de perfil: Por absurdo que parezca, lo cierto es que las ultrafalsificaciones, por su propia ideosincrasia, lo tienen bastante complicado para hacer giros de 90º (o en diferentes ejes x,y,z) a un rostro sin que se note el cambio de escorzo. Como los algoritmos que crean los deep fakes no tienen tantos datos muestreados de ese tipo de imágenes de la persona –porque trabajan mejor con fotografías frontales más bien simétricas, en las que se ven los dos ojos, la boca completa, etcétera– el resultado salta a la vista. Se produce una especie de transformación gradual de rostro reconocible en formas borrosas.
- Pedir a la otra persona que anteponga su mano a la cara: Por el mismo motivo, no se comportan muy bien cuando hay un objeto complejo, como puede ser una mano, delante de la ultrafalsificación y en movimiento.
El resultado lo puedes ver en esta serie de pantallazos que colgaba Mikel Anderson en un post para Metaphysic (EN). Conforme los deep fakes son forzados a girar la cara, se va notando más que se trata de un fraude. Y si ponen la mano por delante veremos que hay momentos donde el sistema se lía y genera alteraciones terroríficas.
Todo gracias a la limitación de la propia tecnología de deepfake… y mediante una prueba de muy baja tecnología.
Así que ya sabes para la próxima. En cualquier videoconferencia que hagas, pide a la gente que se coloque en ángulos distintos a los habituales o haga movimientos lentos pero continuos con la mano delante suya.
No hay mejor prueba para reconocer una ultra-falsificación, y por tanto, evitar que tú, o la empresa para la que trabajas, sea víctima de algún timo de usurpación de identidad.
En CyberBrainers ayudamos a empresas y usuarios a prevenir, monitorizar y minimizar los daños de un ataque informático o una crisis reputacional. Si estás en esta situación, o si quieres evitar estarlo el día de mañana, escríbenos y te preparamos una serie de acciones para remediarlo.