“Of we machteloos staan tegenover kunstmatige intelligentie? Nee, absoluut niet”

Over de voor- en nadelen van kunstmatige intelligentie of artificial intelligence (AI) is de laatste tijd veel geschreven. Er zijn vraagtekens te zetten bij de betrouwbaarheid van (de producten van) ChatGPT en de machtspositie van techbedrijven, om maar twee te noemen. Moeten we daarom bang zijn? Nee, betoogt hoogleraar Media en digitale samenleving José van Dijck in een mini-masterclass ChatGPT voor Tweede Kamerleden. Maar dan moet er wel iets gedaan worden.
Gebruikers alert maken
“Zijn we machteloos? Nee, absoluut niet. We moeten investeren in mensen, wetten en technologie”, vat Van Dijck de boodschap van haar mini-masterclass over de gevolgen van ChatGPT voor onderwijs en media kort samen. Van Dijck onderstreept de risico’s en gevaren van AI-tools, maar wijst erop dat er ook oplossingen zijn. Mensen moeten met AI leren omgaan, zegt ze.

In het verbieden van de tools ziet Van Dijck niets. “We moeten gebruikers vooral alert maken door AI in te bedden in leermethodes en mensen goed bewust te maken van wat het kan en wat het niet kan, van wat mogelijk is en wat niet mogelijk is, en van de risico’s op de lange en korte termijn.”
Wet- en regelgeving aanpassen
Een goede verankering van regels in wetgeving is cruciaal, stelt Van Dijck. De huidige privacywetgeving, de AVG, is onvoldoende: er moet specifieke AI-wetgeving komen. “Op Europees niveau wordt op dit moment de EU AI Act geschreven. Het is zeer belangrijk om hierbij aan te haken en deze in de gaten te houden.”
Het allerbelangrijkste deel van AI-wetgeving vindt Van Dijck het afdwingen van transparantie. “Transparantie over welke datasets er bij de ‘training’ van datamodellen wordt gebruikt en over hoe de modellen precies getraind worden”, legt ze uit, verwijzend naar de informatie waarmee AI-tools gevoed wordt om hen ‘slim’ te maken.
Masterclass voor Tweede Kamerleden
José van Dijck was samen met hoogleraar Kunstmatige Intelligentie Eric Postma (Tilburg University) en senior connector technology Arjan Goudsblom (TechLeap.nl) uitgenodigd om een masterclass ChatGPT te geven voor Tweede Kamerleden. In zeven minuten vatte ze bondig de maatschappelijke implicaties van ChatGPT en impact ervan op onderwijs en media samen. Ook gaf ze kort antwoord op de vraag: wat moeten we doen om risico’s en gevaren van implementatie van ChatGPT op korte en lange termijn te beteugelen?
Monitoren en handhaven
“Het laatste wat ik wil noemen is de monitoring en handhaving”, vervolgt Van Dijck. “Je kunt technische tools ontwikkelen, en informatie bijvoorbeeld ‘watermerken’ waardoor je weet waar die vandaan komt, maar daarmee loop je altijd achter de technologie die je wilt beheersen aan. Monitoren en handhaven is iets anders.” AI-tools zijn beschikbaar en er zullen nieuwe op de markt komen, maar zo lang je niet bij hun trainingsmodellen kunt, is controleren eigenlijk onmogelijk.
Uiteindelijk komt het neer op transparantie en mankracht, besluit Van Dijck. “Je moet continue toegang afdwingen om de onderliggende taalmodellen van AI-tools constant te monitoren en beoordelen. Op dit moment kunnen maar een paar mensen die toezicht houden, dus het investeren in nieuwe experts is ongelooflijk belangrijk.”