UU-onderzoekers adviseren overheid over regulering ChatGPT en andere generatieve AI

Menselijke en robot hand raken samen met vinger symbool van rechterlijke weegschaal aan. © iStockphoto.com/David Gyung
© iStockphoto.com/David Gyung

Overal ter wereld staan overheden voor de uitdagingen die kunstmatige intelligentie (AI) presenteert. Een van de grote vragen is hoe generatieve AI-systemen als ChatGPT te reguleren. De ontwikkeling van de technologieën verloopt razendsnel en de belangen van de bedrijven erachter zijn veelal commercieel. Aan de overheid de taak om ze in toom te houden, adviseren onderzoekers Fabian Ferrari, Antal van den Bosch en José van Dijck het ministerie van Economische Zaken en Klimaat in een technische briefing.

Toezicht op AI

Volgens de overheid maken meer dan anderhalf miljoen Nederlanders gebruik van generatieve AI, waarvan ChatGPT ondertussen het bekendste programma is. De programma’s zorgen niet alleen voor gemak, maar brengen ook risico’s met zich mee, waarschuwen Ferrari, Van den Bosch en Van Dijck. AI lijkt op het eerst gezicht misschien objectief, maar dat is ze niet. “Als gebruiker kun je worden blootgesteld aan desinformatie, discriminerende output en privacyschendingen. Zeker bij gebrek aan regels over de productie van de achterliggende modellen en codes.”

Fabian Ferrari, Antal van den Bosch (foto: Dirk Gillissen) en José van Dijck
Fabian Ferrari, Antal van den Bosch (foto: Dirk Gillissen) en José van Dijck

Verschillende Nederlandse ministeries bundelen nu hun krachten om een overkoepelende ‘visie op generatieve AI’ te ontwikkelen. De UU-onderzoekers adviseren het ministerie van Economische Zaken en Klimaat op basis van een artikel over de regulering van AI dat ze eerder in Nature Machine Intelligence publiceerden. “In onze briefing benadrukken we dat beleid over generatieve AI-systemen minutieus geformuleerd moet worden, met duidelijke transparantieverplichtingen. We hebben ook aanbevelingen gedaan om deze precisie te bereiken.”

Een Europese uitdaging

AI-beleid is echter niet alleen een opgave voor Nederlandse toezichthouders, beklemtonen Ferrari, Van den Bosch en Van Dijck, maar ook een Europese uitdaging. De EU werkt momenteel aan de EU Artificial Intelligence Act, waarin onder andere transparantie-eisen worden geformuleerd. “Maar de wetgever heeft nog niet gespecificeerd welke technische details de bedrijven achter AI openbaar moeten maken en ook niet aan wie. Onafhankelijke onderzoekers zouden toegang moeten krijgen tot de modellen, zodat ze deze grondig kunnen inspecteren en testen.”

Beleid over generatieve AI-systemen moet minutieus worden geformuleerd, met duidelijke transparantieverplichtingen.

Fabian Ferrari, Antal van den Bosch en José van Dijck

“Daarbij is het goed te beseffen dat regelgeving alleen geen wondermiddel is, zeker niet op nationaal niveau. Een handvol commerciële Amerikaanse en Chinese technologiebedrijven domineren nu het veld van de generatieve AI en daarom moet er ook geïnvesteerd worden in open en publieke alternatieven.” Deze alternatieven, zoals BLOOM, een open-source large language model, bestaan al en zijn veelbelovend, zeggen de onderzoekers. “Toch zullen dit soort AI-systemen overheidssteun nodig blijven hebben, vooral om te kunnen concurreren met de voorsprong van de Big Tech-bedrijven.”

“Op zowel nationaal als EU-niveau is het voor regelgevers van cruciaal belang om de snelle ontwikkelingen van AI bij te houden en om de technologieën te reguleren. Samenwerkingsverbanden tussen AI- en governance-onderzoekers kunnen leiden tot beleidsaanbevelingen die anders onuitgewerkt blijven”, besluiten Ferrari, Van den Bosch en Van Dijck. “Voor een sterke visie op generatieve AI moeten we ministeriële en disciplinaire kloven dan ook achter ons laten.”