Los deepfakes son fascinantes y problemáticos a la vez, sobre todo cuando la tecnología es usada para engañar o estafar a niveles cada vez más altos y delicados.
Ya no es solo que se usa esta tecnología para compartir videos donde personalidades mundialmente famosas hacen cosas que no encajan con su estilo o persona, sino que hay deepfakes hasta en videollamadas y videoconferencias en vivo, y eso está generado un alto nivel de preocupación.
Un ejemplo de la problemática que representan los deepfakes a este nivel se vio en junio pasado cuando una supuesta videollamada del alcalde de Kiev (Ucrania), Vitali Klitschko, logró engatusar momentáneamente a cuatro alcaldes en cuatro ciudades de Europa.
Cierto es que ante este caso de Klitschko persiste la duda de si fue en verdad un caso de deepfake o, en su defecto, una personificaciób muy convincente, pero lo cierto es que los temores en torno a esta tecnología han aumentado.
Ante una potencial invasión de deepfakes a nivel de videollamadas, ¿cómo nos protegemos? La respuesta podría ser más fácil de lo que pensamos, al menos por ahora.
Resulta que Metaphysic.ai, los generadores de contenido de inteligencia artificial responsables de ciertos videos deepfake de Tom Cruise que se viralizaron en 2021 en TikTok y más allá, han desvelado una interesante debilidad en la tecnología.
Los deepfakes son convincentes siempre que el individuo se mantenga mirando de frente a su interlocutor. Pedirles ponerse de lado, sin embargo, revela la naturaleza artificial del asunto al presentar una imagen para nada normal.
Esto ocurre porque hay menos puntos de referencia para estimar la vista lateral de la cara, y el resultado es una distorsión, tal como demuestra Metaphysic.ai en una reciente entrada de blog.
Por supuesto, existe la posibilidad de que esto se perfeccione con el tiempo. Por el momento, sin embargo, podemos usar este dato a nuestro favor.