Geen complexe deepfaketechnologie, maar eenvoudige schmink

Deepfake-technology © iStockphoto.com/wildpixel
© iStockphoto.com/wildpixel

Toen Russische bedriegers zich tegenover Buitenlandse Zaken voordeden als Navalny’s stafchef Leonid Volkov, werd er in de media al snel gesproken over het gebruik van deepfaketechnologie. Dat is onlogisch, vindt prof. dr. ir. Jan Broersen (Filosofie en Religiewetenschap). Hij vertelt in NRC dat het onwaarschijnlijk is dat de bedriegers deepfaketechnologie gebruikten.

Slachtoffer van deepfaketechnologie

Door de coronacrisis zijn virtuele ontmoetingen de norm geworden op de werkvloer. Maar deze digitale samenkomsten zijn niet zonder risico, zo bleek uit de ontmoeting tussen de Vaste Kamercommissie voor Buitenlandse Zaken met een nepversie van Navalny’s stafchef Leonid Volkov. De echte stafchef Volkov suggereerde slachtoffer te zijn geworden van deepfaketechnologie, waarbij pratende en bewegende gezichten in video’s worden vervangen door middel van kunstmatige intelligentie.

Deepfake is (nog) niet overtuigend

Veel binnen- en buitenlandse media namen deze berichtgeving over en spraken van een deepfakevideo. Het duo dat achter de actie zat beweert echter géén deepfaketechnologie gebruikt te hebben, maar Volkov te hebben geïmiteerd met schmink. Broersen vindt het waarschijnlijk dat zij de waarheid spreken. Hij betwijfelt of deepfaketechnologie al goed genoeg is voor een overtuigend livegesprek. “Op het juiste moment de juiste gezichtsuitdrukkingen vertonen - zoals een grimas of een glimlach - is extreem moeilijk voor een computer,” aldus Broersen. “Het is heel moeilijk om een overtuigende deepfakevideo te maken. Waarom dan het risico nemen van een haperende deepfake?”

Meer informatie
Lees hier het NRC-artikel