“Deepfakes bestrijden vraagt om jongleren met meerdere perspectieven”

International onderzoeksproject SOLARIS afgerond

De verspreiding van deepfakes is een bedreiging voor democratieën wereldwijd. Een simpel antwoord op het fenomeen is er niet. Dat blijkt uit meerjarig Europees onderzoek onder leiding van de Utrechtse hoogleraar Federica Russo. “Deepfakes zijn geen puur technologisch probleem. Het is een complex samenspel tussen technologie, context, wet- en regelgeving en menselijk gedrag.” 

Deepfakes zijn beelden, geluid of ander materiaal die zijn gemaakt of gemanipuleerd met AI-modellen. Met die technologie kan iemand zeer realistische beelden creëren die soms nauwelijks te onderscheiden zijn van echte. Deepfakes spelen een belangrijke rol in de verspreiding van desinformatie, omdat videobeelden worden gezien als krachtig bewijsmateriaal. Deze technologie zet dat op z’n kop: is dat wat we zien wel echt?

Federica Russo, hoogleraar Philosophy and Ethics of Techno-Science, heeft zich de afgelopen jaren gebogen over deepfakes. Het Europese onderzoek, SOLARIS, draaide om de vraag op welke manier deepfakes democratische processen beïnvloeden en hoe we daar als samenleving mee om moeten gaan.

Het project verbond verschillende disciplines, variërend van informatica en ethiek tot psychologie en recht, om het onderwerp vanuit verschillende perspectieven te belichten. “Die samenwerking is cruciaal”, aldus Russo, “omdat deepfakes niet los kunnen worden gezien van het bredere systeem waarin zij functioneren. Deepfakes zijn geen puur technologisch probleem; het gaat ook om wet- en regelgeving en menselijk gedrag.”

Ontkrachte deepfakes

Een opvallend resultaat van het onderzoek is dat de impact van deepfakes niet uitsluitend afhangt van hun technische kwaliteit: ook een ongeloofwaardige of ontkrachte deepfake heeft invloed. Russo: “Deepfakes beïnvloeden de publieke opinie niet zozeer door mensen met valse informatie te overtuigen, maar door het debat te ‘tweaken’. Zelfs wanneer een video duidelijk nep is, maken de beelden al deel uit van het bredere narratief.”

De gevolgen voor democratische processen zijn groot. In verkiezingstijd kunnen deepfakes kandidaten of politieke partijen beschadigen. Andersom kunnen echte compromitterende beelden afgedaan worden als ‘deepfake’, het zogenaamde ‘liar’s dividend’. Wanneer alles gemanipuleerd kan zijn, wordt ook echte informatie verdacht. Die onzekerheid heeft gevolgen voor het vertrouwen in bijvoorbeeld media en vergroot polarisatie.

Het internationale team van onderzoekers boog zich ook over de vraag hoe deepfakes aangepakt kunnen worden. Russo: “De verleiding is groot om de oplossing te zoeken in een technologische innovaties, zoals detectiemodellen. Maar het gevolg daarvan is dat er een soort wedloop ontstaat, waarbij de detectiemodellen altijd achter de feiten aan zullen lopen.”

Deepfakes “tweaken” het debat. Zelfs wanneer een video duidelijk nep is, maken de beelden al deel uit van het bredere narratief.

Bovendien gaan technologische innovaties voorbij aan het wantrouwen dat in de samenleving ontstaat door de verspreiding van desinformatie. Russo: “Daarom is het belangrijk dat er op het gebied van wet- regelgeving strenge eisen worden gesteld aan nieuwsplatforms en social media, bijvoorbeeld het verplichten van transparantie, aansprakelijkheid en rechtsbescherming. De Europese AI Act is een goed begin, maar onderkent de risico’s van generatieve AI nog onvoldoende.”

Daarnaast is digitale geletterdheid en mediawijsheid belangrijk, zegt Russo. “Mensen moeten ervan doordrongen zijn dat wat ze zien, mogelijk niet echt is. Ze moeten kritisch zijn op de bron, de context van een video herkennen, en weten hoe content wordt verspreid op mediaplatforms. Maar mensen zouden zich ook beter moeten realiseren dat ze zuinig moeten zijn op hun privacy. Niet alles is geschikt om publiek te delen.”

Russo wil benadrukken dat ze de technologie niet wil demoniseren. “Deepfakes kunnen ook een krachtig middel zijn voor goede doeleinden. Bijvoorbeeld door historische figuren tot leven te brengen, en mensen enthousiast te maken over wetenschap, of klimaat, kunnen we positieve berichten verspreiden.”

Geen veilige plek meer

Maar uiteindelijk overheersen toch de zorgen over misbruik. “Het maken van deepfakes is zó laagdrempelig en toegankelijk geworden; je hoeft geen expert te zijn om beelden te kunnen manipuleren. Denk aan de ontkleed-app van X, Grok, die was voor iedereen beschikbaar. Het betekent dat er geen veilige plek meer is, en dat is schadelijk voor het vertrouwen tussen mensen. We moeten met elkaar het gesprek aangaan of zo’n krachtige tool wel beschikbaar zou moeten zijn voor publiek gebruik.” Het voorgenomen Europees verbod op dergelijke ontkleed-apps is een mooi begin, maar het betekent niet dat het werk gedaan is.

Russo is daarom blij dat de kennis en expertise die met SOLARIS is opgedaan, een plek vindt in Utrecht. Bijvoorbeeld in de Special Interest Group van Maarten Hillebrandt (Bestuurs- en Organisatiewetenschap) en Robert Weijers (Psychologie), Tackling disinformation and misinformation. Maar ook door haar collega's van de faculteit Bètawetenschappen en bij het Freudenthal Instituut, waar Russo bij werkt, zal er aandacht besteed blijven worden aan digitale geletterdheid. “Die multidisciplinariteit is essentieel, omdat het onderwerp ook verschillende aspecten heeft. Alleen door met verschillende perspectieven te jongleren kunnen we een krachtig antwoord bieden op deepfakes.”

Meer informatie
Meer over SOLARIS