Europese regels voor risicovolle AI


De toepassingen van Artificiële Intelligentie variëren van laag risico tot hoog risico. Eind april publiceerde de Europese commissie een voorstel voor een verordening voor risicovolle Artificiële Intelligentie. Wat houdt dit in en wat betekent dit in de praktijk?

Waarom AI-richtlijnen?

Artificiële Intelligentie (AI) is al een aantal jaren een hot topic. Het verwijst naar de situatie waarin machines zo zijn geprogrammeerd dat ze kunnen denken en handelen als mensen. De inzet van AI varieert enorm; van automatische muziekaanbevelingen door Spotify tot het sociaal kredietsysteem in China. Van laag risico tot hoog risico dus. Veel lidstaten van de Europsese Unie vonden het tijd worden om regels rondom AI te publiceren. Om versnippering te voorkomen en om het belang nogmaals te benadrukken heeft de Europese commissie hier zelf richtlijnen voor gepubliceerd.

Hoog risico versus Laag risico

We zagen al dat de inzet (en daarmee de impact) van AI enorm verschilt. Hierbij spelen verschillende voor- en nadelen een rol. De Europese commissie besloot hierop AI-toepassingen te onderscheiden in vier risicoklassen:

  1. onacceptabel risico;
  2. hoog risic;
  3. laag risico;
  4. minimaal risico.

1. Onacceptabel risico

AI-toepassingen die een onacceptabel risico met zich meebrengen worden met deze verordening verboden. Het gaat hier om toepassingen die mensen kunnen manipuleren, de kwetsbaarheid van kwetsbare groepen (kinderen, personen met een handicap) kunnen misbruiken. Toepassingen die ‘sociale scoring’ toepassen voor algemene doeleinden door overheidsinstanties worden hiermee verboden. Net als het gebruik van real-time biometrische gegevens (zoals gezichtsherkenning) in openbare ruimtes voor identificatie. Hier zijn wel uitzonderingen op, zoals bijvoorbeeld in het geval van het tegengaan van een terroristische dreiging. Het sociaal kredietsysteem in China valt onder het onacceptabele risico en wordt met deze verordening verboden in de Europese markt.

2. Hoog risico

Hoog risico AI-toepassingen zijn gedefinieerd als toepassingen die een hoog risico voor de gezondheid en veiligheid of de fundamentele rechten van personen inhouden. Deze AI-systemen worden wél toegelaten op de Europese markt, mits ze voldoen aan dwingende voorschriften en vooraf een beoordeling hierop zijn ondergaan. Voorbeelden van AI-toepassingen in deze categorie zijn te vinden in de (automatische) beoordeling van examens, bij risicobeoordelingen en CV-analyse.

Hoog risico AI-toepassingen moeten voldoen aan strenge verplichtingen. De belangrijkste verplichtingen kunnen worden samengevat als nauwkeurigheid, robuustheid en cyberveiligheid. Denk hierbij aan dat de AI-toepassing niet discrimineert en de zekerheid dat de data juist en van goede kwaliteit is. Daarnaast moeten deze toepassingen ook beoordeeld worden door een onafhankelijke derde partij en moet er een risicobeoordeling en -beperking uitgevoerd worden.

3. Laag risico

AI-toepassingen met een laag risico zijn toepassingen waarbij alleen specifieke transparantie-eisen gelden. Denk bijvoorbeeld aan chatbots; het moet voor iedereen duidelijk zijn dat je met een Chatbot praat en een weloverwogen keuze hierover kunt maken.

4. Minimaal risico

De categorie minimaal risico is veruit de meest voorkomende categorie. Rechten van burgers zijn hier nauwelijks in het geding. Voorbeelden hiervan zijn spamfilters en videogames.

In de praktijk

Het is nog niet zeker wanneer het voorstel ingaat, het moet namelijk eerst nog beoordeeld worden door de Europese commissie en de Raad. Als het straks ingevoerd wordt, start er een introductieperiode van één à twee jaar. Veel AI-toepassingen krijgen naar verwachting het label ‘minimaal risico’. Trends (zoals fraudeopsporing en classificering voor toeslagen) kunnen ook vallen onder hoog risico en krijgen extra eisen mee. 

Toch kan er nog veel veranderen voordat deze richtlijnen ingevoerd worden. Zo is het nog niet duidelijk wie het toezicht hierop gaat houden. In het huidige voorstel komt er een Europees comité voor artificiële intelligentie, en een meldplicht voor ernstige incidenten en defecten. De voorgenomen boetes zijn in elk geval fors. Variërend tussen de tien en dertig miljoen of twee tot zes procent van de wereldwijde omzet (als dat hoger is). 

Vooralsnog lijkt het erop dat Spotify nog steeds favoriete muziek mag aanbevelen na ingang van de nieuwe regels, maar er komen wel extra verplichtingen voor AI-toepassingen die meer risico’s met zich meebrengen. AI-systemen met een onacceptabel risico worden zelfs verboden.

Kortom

Er gaat een andere wind waaien rondom AI-toepassingen en dus doen bedrijven die gebruik maken of willen maken van die toepassingen, er goed aan zich dat te beseffen. Al is het maar om fikse boetes te voorkomen.

Geïnteresseerd?

Als M&I/Partners richten wij ons ook op de ethische kant rondom technische ontwikkelingen en projecten. Zo hebben we recent de Ethische Validatie van Algoritmes uitgebracht en zijn we aan de slag gegaan met de aanpak begeleidingsethiek. 

Meer weten? Wij drinken graag een (digitaal) kopje koffie met u om hierover in gesprek te gaan.



Terug naar het overzicht

Ethische Validatie van Algoritmes

Een begrijpelijk en concreet model om de ethische aspecten van en rondom algoritmes te toetsen.

 

Naar het EVA-model

Gerelateerde publicaties

In gesprek met Chris Peters (klinisch fysicus, Jeroen Bosch Ziekenhuis), Daniël Tijink (MT-lid zorg, strategie en ethiek bij ECP) en Jeroen van Oostrum (partner, M&I/Partners) over AI-trust uit de AI-Routekaart.

Lees verder

De publieke sector staat voor stevige maatschappelijke opgaven. Burgers verwachten transparantie en een toegankelijke en veilige digitale dienstverlening van de overheid. Artificial Intelligence biedt kansen voor de maatschappij en de economie. Maar artificial intelligence komt ook met uitdagingen. Enri Leufkens vertelt over de mogelijkheden, kritische aandachtspunten en geeft tips voor een effectieve AI-aanpak.

Lees verder