Tijd voor een AI-keurmerk? ‘Kunstmatige intelligentie wordt de baas en dan kan de mens niet meer terug’
Neemt AI ofwel kunstmatige intelligentie de boel over, zoals velen vrezen? Er is al toezicht in diverse sectoren. Maar grootschaliger toezicht is gewenst, liefst gebundeld vanwege de efficiëntie. De laatste tijd wordt ook de roep steeds luider voor een AI-keurmerk, dat onze grondrechten beschermt. Ook dat is er al, zelfs op vrijwillige basis.
Gezonde achterdocht tegen AI
Meldpunt Actueel krijgt regelmatig meldingen binnen van mensen die een gezonde achterdocht hebben tegen AI. Eentje springt eruit, afkomstig van Rinke. Hij mailt: “Mijn oude en wijze buurman zei jaren geleden al tegen me dat kunstmatige intelligentie de baas wordt. En dan kan de mens niet meer terug.”
EU AI-verordening waarborgt veilig gebruik en respect voor grondrechten
Laat de Europese Unie daar nou net de AI Act (in het Nederlands de AI-verordening) voor in het leven hebben geroepen (in 2024). Dit is de eerste uitgebreide wet ter wereld die regels stelt voor het ontwikkelen en gebruiken van dit fenomeen. Veel Amerikaanse Tech-bedrijven zijn er niet blij mee, maar in Europa wordt de noodzaak juist breed gevoeld. Het doel is dat AI-systemen veilig zijn en de grondrechten van Europese burgers respecteren.
De wet geldt voor ontwikkelaars van zulke systemen maar ook voor organisaties die ze gebruiken. Dat kunnen bedrijven zijn, maar ook overheden, zorginstellingen of scholen.
Gefaseerde invoering
De AI-verordening trad in augustus 2024 officieel in werking. De regels zijn daarna stap voor stap gaan gelden. Sinds februari 2025 zijn sommige toepassingen met een onaanvaardbaar risico al verboden. In augustus van dat jaar gingen de regels in voor bijvoorbeeld taalmodellen. De wet is volledig van kracht per augustus 2027.
De systemen zijn in de verordening ingedeeld naar risico. Hoe groter het risico voor mensen of samenleving, hoe strenger de regels zijn. Sommige toepassingen zijn verboden, terwijl andere aan strenge eisen moeten voldoen.
Europees toezicht en de situatie in Nederland
Het European AI Office bureau controleert als toezichthouder vooral de grootste en meest krachtige taalmodellen (LLM, Large Language Model). Nederland komt het toezicht op AI vooralsnog niet bij één instantie te liggen. Het Nederlandse systeem werkt met sectorale toezichthouders. Dat betekent dat elke sector zijn eigen controle houdt. De Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) houden bijvoorbeeld toezicht op de financiële sector. Kritieke infrastructuur valt onder het toezicht van de Inspectie Leefomgeving en Transport (ILT) en de Rijksinspectie Digitale Infrastructuur (RDI). Voor producten zoals speelgoed blijft de controle bij bestaande toezichthouders, zoals de Nederlandse Voedsel- en Warenautoriteit (NVWA).
Voor systemen met een hoog risico kan een CE-markering nodig zijn, net als bij andere producten. Die laat zien dat een systeem aan Europese regels voldoet.
Rol van de Autoriteit Persoonsgegevens
Een belangrijke rol is voorzien voor de Autoriteit Persoonsgegevens (AP). De AP houdt nu al toezicht op het gebruik van algoritmes als daarbij persoonsgegevens worden verwerkt. Daarnaast kan de AP markttoezichthouder worden voor bepaalde AI-systemen waarvoor nog geen sectorale controle bestaat.
Vlak voor het ingaan van genoemde verordening zei AP-voorzitter Aleid Wolfsen tegen website Binnenlands Bestuur dat dat logisch is: “De markttoezichthouder gaat erop toezien dat AI die op de markt komt echt voldoet aan eisen zoals transparantie, training van systemen en menselijke controle. Dat vereist specialistische kennis. Het is efficiënt als die kennis wordt gebundeld.”
Veel experts vinden dat 1 centrale toezichthouder, bijvoorbeeld de AP, uiteindelijk het overzicht zou moeten houden over alle toepassingen. Maar zo ver is het nu nog niet.
AI-keurmerk voor organisaties
Naast wetgeving ontstaan er ook vrijwillige keurmerken voor verantwoord AI-gebruik. De internationale standaardorganisatie International Organization for Standardization (ISO) ontwikkelde bijvoorbeeld de AI-norm ISO 42001. Dit certificaat laat zien dat een organisatie haar systemen op een gecontroleerde en verantwoorde manier beheert.
Het keurmerk is bedoeld voor bedrijven en organisaties die artificiële intelligentie ontwikkelen of gebruiken en willen aantonen dat ze:
- de risico’s ervan beheersen
- privacy en veiligheid beschermen
- menselijk toezicht organiseren
In Nederland worden dergelijke certificaten onder meer uitgegeven door certificeringsorganisatie BSI. Bedrijven die het keurmerk willen, krijgen een uitgebreide controle. Zo kijkt men bijvoorbeeld naar datagebruik, menselijke controle en mogelijke vooringenomenheid van de ontwikkelde systemen. Zo’n keurmerk heeft uiteindelijk het doel om alle betrokkenen vertrouwen te geven. Veel van onze melders zeggen daar behoefte aan te hebben.
(Bron: EU, Digitale Overheid, AP, Binnenlands Bestuur, ISO, BSI, AD, archief. Foto: Shutterstock)