Utrecht leidt onderzoek naar nepnieuws en deepfakes

Telefoon met headlines van het nieuws
Foto: Unsplash

Met de komst van Federica Russo naar de Universiteit Utrecht, is de coördinatie van het Europese project SOLARIS ook in Utrechtse handen gekomen. In dit project onderzoekt de hoogleraar Philosophy and Ethics of Techno-Science de politieke risico’s van nepnieuws en deepfakes. Daarnaast kijkt ze ook naar de mogelijkheden van AI-gegenereerde beelden voor positieve doeleinden.

Volgens Federica Russo, die in augustus 2023 de Universiteit van Amsterdam verruilde voor de Universiteit Utrecht, is de verspreiding van nepnieuws een bedreiging voor democratieën wereldwijd. Burgers die vooral online naar nieuws zoeken, worden ‘gebombardeerd’ met enorme hoeveelheid ongefilterde informatie. Daardoor wordt het makkelijker om complottheorieën te verspreiden. Bovendien trekken mensen zich steeds meer terug in online bubbels waar ze alleen met gelijkgestemden in contact komen. Dit versterkt de polarisatie tussen sociale groepen.

“Het is voor mensen zonder specifieke technische kennis steeds moeilijker om ‘ware’ feiten te onderscheiden van valse of bevooroordeelde informatie,” aldus Russo bij de start van het project begin vorig jaar. “Daarom is het probleem van de betrouwbaarheid van informatie urgenter dan ooit tevoren.”

Onderscheid tussen echt en nep

De projectgroep Solaris richt zich in het onderzoek op deepfakes: hierbij worden AI-modellen gebruikt om zeer realistische beelden te creëren die nauwelijks te onderscheiden zijn van echte beelden. De kwaliteit van zulke deepfakes wordt alsmaar beter, waardoor het steeds moeilijker wordt om onderscheid te maken tussen echt en nep. Russo en haar collega’s willen weten welke factoren bijdragen aan de geloofwaardigheid van deepfakes. Volgend jaar willen ze hun eigen deepfakes verspreiden onder volksvertegenwoordigers en de media om te onderzoeken hoe zij op deepfakes reageren.

Uit de eerste resultaten van het Solaris-onderzoek blijkt al dat de kwaliteit van de video niet het enige element is dat ons doet geloven in een deepfake. “Veel belangrijker is de verspreiding van de nepvideo’s en de sociale netwerken van de mensen die ze zien. Als een video vaak wordt bekeken, wordt hij onderdeel van het verhaal. Vooral als het wordt gedeeld door je vrienden - mensen die je vertrouwt - draagt dit bij aan de geloofwaardigheid van deepfakes. Je zou kunnen zeggen: it takes a village to trust a deepfake.”

Als nepnieuws wordt gedeeld door mensen die je vertrouwt draagt dit bij aan de geloofwaardigheid van deepfakes. Je zou kunnen zeggen: it takes a village to trust a deepfake.

Federica Russo, hoogleraar Philosophy and Ethics of Techno-Science

De uitkomsten van het onderzoek moeten bijdragen aan het formuleren van aanbevelingen voor politici en beleidsmakers, zoals manieren om het gebruik van AI te reguleren, net zoals bij medicijnen gebeurt. De Europese AI Act noemt Russo “een begin”. Daarnaast ontwikkelen de onderzoekers een statistisch model ontwikkelen om de verspreiding van deepfakes te voorspellen, door realtime data van sociale media te analyseren.

Russo benadrukt dat er ook een verantwoordelijkheid ligt bij media en individuele burgers. “Media moeten hun feiten checken en betrouwbare informatiebronnen promoten. Mensen moeten voorzichtig zijn met wat ze delen en kritisch zijn over wat ze geloven.”

Positieve deepfakes

Tegelijkertijd wil Russo er ook voor waken om alleen over de “apocalyptische kant” van AI te spreken. “Ik ben ervan overtuigd dat deepfakes gevaarlijk kunnen zijn. Maar je kunt ze ook gebruiken om democratische betrokkenheid van burgers te versterken. Zo kunnen de AI-modellen die gebruikt worden voor deepfakes óók gebruikt worden om video’s te ontwikkelen die het bewustzijn van burgers over belangrijke mondiale kwesties, zoals klimaatverandering, gender en migratie, vergroten.” Later in het project willen Russo en haar collega’s samen met burgers aan de slag om dergelijke AI-gegenereerde content te ontwikkelen.

Over SOLARIS

Onderzoeksproject SOLARIS (Strengthening democratic engagement through value-based generative adversarial networks) is in februari 2023 van start gegaan en wordt gefinancierd door het programma Horizon Europe met een subsidie van 2,6 miljoen euro. Er zijn dertien partners uit acht verschillende landen bij betrokken.