Na nedavno održanoj DEF CON hakerskoj konferenciji, posetioci su imali priliku da se okušaju u kreiranju deepfake video sadržaja, što je izazvalo veliku pažnju. Jedan od eksperimenata pokazao je koliko je lako danas stvoriti uverljiv deepfake video, ali i koliko tehnologija napreduje u njihovom otkrivanju.
Tokom eksperimenta u okviru AI Village laboratorije, posetioci su mogli da zamene svoje lice licem poznatih ličnosti, poput Megan Markl, koristeći alat DeepFaceLive. Za samo 10 sekundi, softver je uspeo da generiše video u kojem je lice učesnika zamenjeno licem slavne osobe.
Međutim, pravo otkriće leži u mogućnosti otkrivanja ovih lažnih video zapisa. DARPA-in alat, SemaFor, uspešno je prepoznao manipulaciju u videu, pokazavši da, iako su deepfake-ovi sve uverljiviji, alati za njihovo prepoznavanje takođe napreduju. SemaFor koristi analizu metapodataka i drugih video karakteristika kako bi identifikovao manipulacije, čak i kada su one na prvi pogled neprimetne, piše Axios.
Iako je tehnologija sve dostupnija, ona predstavlja ozbiljnu pretnju. Prevaranti već koriste deepfake tehnologiju za obmanjivanje poslodavaca tokom video poziva, a jedan od najozbiljnijih slučajeva uključuje prevaru od 25 miliona dolara, gde je osoba koristila deepfake da se predstavi kao finansijski direktor velike kompanije.
Stručnjaci veruju da će alati za otkrivanje deepfake sadržaja nastaviti da se razvijaju kako bi parirali sve sofisticiranijim pokušajima prevara.