Het tijdperk van AI in organisaties is duidelijk al aangebroken. Er wordt op veel plaatsen volop geëxperimenteerd en AI wordt steeds vaker ook in de praktijk ingezet. Toch zullen organisaties en bedrijven nog een uitdagende weg, zo niet een marathon, moeten afleggen om AI in volle glorie tot wasdom te laten komen. Alleen als je op pad gaat, zul je ervaren of je je doel bereikt.
Lees verderDe toepassingen van Artificiële Intelligentie variëren van laag risico tot hoog risico. Eind april publiceerde de Europese commissie een voorstel voor een verordening voor risicovolle Artificiële Intelligentie. Wat houdt dit in en wat betekent dit in de praktijk?
Waarom AI-richtlijnen?
Artificiële Intelligentie (AI) is al een aantal jaren een hot topic. Het verwijst naar de situatie waarin machines zo zijn geprogrammeerd dat ze kunnen denken en handelen als mensen. De inzet van AI varieert enorm; van automatische muziekaanbevelingen door Spotify tot het sociaal kredietsysteem in China. Van laag risico tot hoog risico dus. Veel lidstaten van de Europsese Unie vonden het tijd worden om regels rondom AI te publiceren. Om versnippering te voorkomen en om het belang nogmaals te benadrukken heeft de Europese commissie hier zelf richtlijnen voor gepubliceerd.
Hoog risico versus Laag risico
We zagen al dat de inzet (en daarmee de impact) van AI enorm verschilt. Hierbij spelen verschillende voor- en nadelen een rol. De Europese commissie besloot hierop AI-toepassingen te onderscheiden in vier risicoklassen:
- onacceptabel risico;
- hoog risic;
- laag risico;
- minimaal risico.
1. Onacceptabel risico
AI-toepassingen die een onacceptabel risico met zich meebrengen worden met deze verordening verboden. Het gaat hier om toepassingen die mensen kunnen manipuleren, de kwetsbaarheid van kwetsbare groepen (kinderen, personen met een handicap) kunnen misbruiken. Toepassingen die ‘sociale scoring’ toepassen voor algemene doeleinden door overheidsinstanties worden hiermee verboden. Net als het gebruik van real-time biometrische gegevens (zoals gezichtsherkenning) in openbare ruimtes voor identificatie. Hier zijn wel uitzonderingen op, zoals bijvoorbeeld in het geval van het tegengaan van een terroristische dreiging. Het sociaal kredietsysteem in China valt onder het onacceptabele risico en wordt met deze verordening verboden in de Europese markt.
2. Hoog risico
Hoog risico AI-toepassingen zijn gedefinieerd als toepassingen die een hoog risico voor de gezondheid en veiligheid of de fundamentele rechten van personen inhouden. Deze AI-systemen worden wél toegelaten op de Europese markt, mits ze voldoen aan dwingende voorschriften en vooraf een beoordeling hierop zijn ondergaan. Voorbeelden van AI-toepassingen in deze categorie zijn te vinden in de (automatische) beoordeling van examens, bij risicobeoordelingen en CV-analyse.
Hoog risico AI-toepassingen moeten voldoen aan strenge verplichtingen. De belangrijkste verplichtingen kunnen worden samengevat als nauwkeurigheid, robuustheid en cyberveiligheid. Denk hierbij aan dat de AI-toepassing niet discrimineert en de zekerheid dat de data juist en van goede kwaliteit is. Daarnaast moeten deze toepassingen ook beoordeeld worden door een onafhankelijke derde partij en moet er een risicobeoordeling en -beperking uitgevoerd worden.
3. Laag risico
AI-toepassingen met een laag risico zijn toepassingen waarbij alleen specifieke transparantie-eisen gelden. Denk bijvoorbeeld aan chatbots; het moet voor iedereen duidelijk zijn dat je met een Chatbot praat en een weloverwogen keuze hierover kunt maken.
4. Minimaal risico
De categorie minimaal risico is veruit de meest voorkomende categorie. Rechten van burgers zijn hier nauwelijks in het geding. Voorbeelden hiervan zijn spamfilters en videogames.
In de praktijk
Het is nog niet zeker wanneer het voorstel ingaat, het moet namelijk eerst nog beoordeeld worden door de Europese commissie en de Raad. Als het straks ingevoerd wordt, start er een introductieperiode van één à twee jaar. Veel AI-toepassingen krijgen naar verwachting het label ‘minimaal risico’. Trends (zoals fraudeopsporing en classificering voor toeslagen) kunnen ook vallen onder hoog risico en krijgen extra eisen mee.
Toch kan er nog veel veranderen voordat deze richtlijnen ingevoerd worden. Zo is het nog niet duidelijk wie het toezicht hierop gaat houden. In het huidige voorstel komt er een Europees comité voor artificiële intelligentie, en een meldplicht voor ernstige incidenten en defecten. De voorgenomen boetes zijn in elk geval fors. Variërend tussen de tien en dertig miljoen of twee tot zes procent van de wereldwijde omzet (als dat hoger is).
Vooralsnog lijkt het erop dat Spotify nog steeds favoriete muziek mag aanbevelen na ingang van de nieuwe regels, maar er komen wel extra verplichtingen voor AI-toepassingen die meer risico’s met zich meebrengen. AI-systemen met een onacceptabel risico worden zelfs verboden.
Kortom
Er gaat een andere wind waaien rondom AI-toepassingen en dus doen bedrijven die gebruik maken of willen maken van die toepassingen, er goed aan zich dat te beseffen. Al is het maar om fikse boetes te voorkomen.
Geïnteresseerd?
Als M&I/Partners richten wij ons ook op de ethische kant rondom technische ontwikkelingen en projecten. Zo hebben we recent de Ethische Validatie van Algoritmes uitgebracht en zijn we aan de slag gegaan met de aanpak begeleidingsethiek.
Meer weten? Wij drinken graag een (digitaal) kopje koffie met u om hierover in gesprek te gaan.
Terug naar het overzicht
Gerelateerde publicaties
Dit artikel gaat in op Lifecycle Management van AI-modellen, op de betrokken stakeholders, de activiteiten en uitdagingen die daarbij komen kijken en gaat dieper in op configuratiebeheer van AI-modellen, monitoring, responsible AI en governance.
Lees verder