13 maart 2019

Hoogleraar Jan Broersen kritisch over inzet algoritmes op Facebook

“Algoritmes inzetten om nepnieuws te bestrijden is geen goed idee”

© iStockphoto.com

De Nederlandse overheid start deze week een campagne om mensen te waarschuwen tegen nepnieuws. En in december lanceerde de Europese Commissie een actieplan om de verspreiding van desinformatie tijdens de komende Europese verkiezingen tegen te gaan. Platforms als Google, Facebook en Twitter hebben hiervoor een gedragscode ondertekend.  In een eerste verslag (pdf) geeft Facebook aan dat hun ‘fact-checking programma’ gebruik maakt van een combinatie van technologie en menselijke beoordeling om valse nieuwsberichten op te sporen en te degraderen. Maar kunnen wij wel verantwoordelijkheid geven aan technologie en algoritmes om fake news te bestrijden? Volgens hoogleraar Jan Broersen niet.

Broersen geeft aan dat nepnieuws van alle tijden is. “Mensen proberen het publieke discours al eeuwen te beïnvloeden, maar in het verleden was dit een minder groot probleem dan nu.” Volgens de hoogleraar komt dit vooral door de opkomst van internet en social media en de afnemende bereidheid om voor kwalitatief goede informatie te betalen. “Traditioneel werd de kwaliteit van informatie gewaarborgd doordat mensen geld overhadden voor nieuws uit handen van gerenommeerde outlets die er dus belang bij hadden kwaliteit te leveren. Maar in deze tijd zijn de nieuwsproductiemiddelen niet meer in handen van kranten en uitgeverijen. Iedereen kan iedereen bereiken en ‘nieuws maken’, je hebt geen krant meer nodig. En dus vallen traditionele kwaliteitsfilters weg.”

Facebook schuift de verantwoordelijkheid iets te bestempelen als nepnieuws deels af op algoritmes. Maar algoritmes zijn vooralsnog niet goed in het beoordelen van een tekst op inherente kwaliteit, zoals opbouw, consistentie en redenatie.

Algoritmes als beoordelaars van nepnieuws

Hij vindt de toename van nepnieuws op sociale media dan ook zorgelijk. “Wat je ziet in je tijdlijn op Facebook wordt door algoritmes bepaald. Facebook heeft daarmee grote invloed op jouw dagelijkse nieuwsvoorziening. Om de kwaliteit van nieuws te bewaken zet Facebook een combinatie van menselijke beoordelaars en algoritmes in.” Broersen is sceptisch over deze inzet van algoritmes: “Ik denk dat het vrij gevaarlijk is wat Facebook doet. Zij schuiven de verantwoordelijkheid iets te bestempelen als nepnieuws deels af op algoritmes. Maar algoritmes zijn vooralsnog niet goed in het beoordelen van een tekst op inherente kwaliteit, zoals opbouw, consistentie en redenatie.”

An early prototype of Watson in Yorktown Heights, NY
Een vroeg prototype van Watson in Yorktown Heights, NY (Wikimedia cc)

Tegenstrijdigheden in tekst

Broersen was afgelopen jaar op bezoek bij IBM en maakte daar kennis met Watson. Deze supercomputer kan een in spreektaal gestelde vraag interpreteren en na een zoektocht door een verzameling van encyclopedieën, websites, boeken en artikelen binnen enkele seconden een goed antwoord op de vraag geven. Wat Broersen tijdens zijn bezoek leerde is dat Watson niet in staat is om een tekst echt te begrijpen. “Deze supercomputer kan geen tegenstrijdigheden in een tekst signaleren. Maar als je nepnieuws wilt detecteren dan is een van de eerste dingen die je wilt weten of er geen inherente tegenstrijdigheden in de tekst zitten.” 

Moreel kompas

“Het enige wat machines doen is oppervlakkige kenmerken testen die wijzen op mogelijke nepheid. Bovendien, ons oordeel over wat kan en wat niet kan is ontzettend moeilijk in een regel te stoppen; misschien is het zelfs onmogelijk. Daarnaast worden algoritmes ook opgesteld door mensen met een bepaald moreel kompas en bepaalde vooroordelen. Je moet niet denken dat algoritmes objectief zijn. De mensen die ze maken zijn dat niet.”

Je kan machines wel beter leren omgaan met situaties die verantwoordelijkheid vragen maar je kunt niet elke vorm van verantwoordelijkheid op ze afschuiven. Uiteindelijk draagt altijd de mens de morele verantwoordelijkheid.
Prof. dr. ir. Jan Broersen. Foto: Ed van Rijswijk

Verantwoordelijkheid

Broersen heeft een achtergrond in wiskunde, logica en informatica. Hij bestudeert kunstmatige intelligentie vanuit filosofisch perspectief.  In zijn onderzoek wil hij mensen tot nadenken aanzetten over hoe intelligente systemen met verantwoordelijkheid zouden kunnen omgaan. Hij heeft geen hoge pet op van de verantwoordelijkheid die algoritmes op dit moment kunnen dragen. “Je kan machines wel beter leren omgaan met situaties die verantwoordelijkheid vragen maar je kunt niet elke vorm van verantwoordelijkheid op ze afschuiven. Uiteindelijk draagt altijd de mens de morele verantwoordelijkheid.”