Laag en minimaal risico AI
De AI-verordening van de EU onderscheidt, naast verboden AI en hoog-risico AI, ook AI-systemen met beperkt risico en minimaal risico (Art. 50).
AI-systemen die onder beperkt risico en minimaal risico vallen, worden in de praktijk vaak gezamenlijk aangeduid als laag risico AI, omdat het onderscheid tussen beide categorieën relatief beperkt is.
Opgemerkt moet wel worden dat AI-systemen uit deze laagrisicocategorie niet betekent dat deze dan zonder meer kunnen worden toegepast. Net als voor elke software geldt ook hier dat er voorafgaande goedkeuring van de software nodig is, onder andere vanwege privacy- en security-eisen die we als UU hanteren. Die eisen zijn bedoeld om de gebruikers en de data te beschermen.
Wat betekent dit in de praktijk?
Voor chatbots geldt bijvoorbeeld dat je deze kan gebruiken voor je studie of in het onderwijs als je een account aanmaakt op basis van je prive emailadres en je houdt aan de standaard gebruikscondities van AI-systemen en -tools.
Voorbeelden van beperkt risico AI
Voorbeelden van beperkt risico AI systemen zijn:
- Chatbots
- Deepfake video
- AI avatar
- Sentimentanalyse van stemmen
Voor deze categorie AI-systemen en -tools gelden uitsluitend transparantieverplichtingen voor de leverancier van die tools (vanaf 2-8-2026). Transparantieverplichting gelden overigens voor alle AI-systemen (Art. 13) dus ook voor hoog risico AI.
Art 50.1: Dit betekent dat duidelijk aan de gebruiker die een AI-interactie heeft (bijvoorbeeld een chatbot) moet zijn aangegeven dat dit een AI-tool is (en geen mens). Deze transparantie-eis moet toegespitst zijn op de gebruikersdoelgroep. Indien bijvoorbeeld de AI-tool gericht is op personen met een functiebeperking, dan moet daarmee rekening worden gehouden (Recital 132). Het aanbrengen van een onzichtbaar watermerk door de leverancier valt dus niet onder afdoende transparantie.
Voor AI-tools die deepfakes genereren (Art 50.4) geldt dat moet zijn aangegeven dat de content (beeld, video of audio etc.) door AI is gegenereerd of door AI is gemanipuleerd. Deze regel is iets soepeler als het om artistieke of satirische content gaat.
Voorbeelden van minimaal risico AI
Voorbeelden van minimaal risico AI systemen zijn:
- Spamfilters
- AI in videogames
- Aanbevelingssystemen voor gepersonaliseerde nieuwsberichten en e-commerce
- Routeadvies zoals in navigatiesystemen om files of reistijd te voorspellen
- Taalherkenning
Deze categorie van AI-systemen heeft geen wettelijke vereisten volgens de EU AI Act, maar er gelden natuurlijk wel andere verplichtingen vanuit de AVG en informatiebeveiliging/cybersecurity.
Let op
AI-systemen en -tools van deze laagrisicocategorie kunnen onder bepaalde omstandigheden vallen onder de categorie hoog risico (of zelfs verboden) AI-systemen. Bijvoorbeeld als een tool als ChatGPT wordt gebruikt voor automatic grading. De bepaling van de risicoclassificatie van AI is dus altijd use case- en contextafhankelijk. Dat maakt het ook noodzakelijk dat deze bepaling wordt uitgevoerd door daarvoor gecertificeerde medewerkers (zoals CAICO’s).