Welk risico heeft jouw AI-gebruik?
Module 2 van 5
Nieuwe Europese regels voor kunstmatige intelligentie
Welk risico heeft jouw AI-gebruik?
Je gebruikt AI om een activiteit voor bewoners te bedenken. Een ander systeem beslist of een cliënt thuiszorg krijgt. Zelfde technologie, totaal ander risico. De AI Act maakt hier onderscheid in. In deze module leer je de risiconiveaus kennen.
- jouw eigen AI-gebruik beoordelen aan de hand van de risicopyramide
- hoog-risicogebruik herkennen en gepast handelen
- uitleggen welke rechten en plichten voortvloeien uit de AI Act
Twee keer AI, twee keer anders
Stel je twee situaties voor:
Je vraagt ChatGPT om ideeën voor een spelmiddag met bewoners. Leuk, creatief, en als het idee tegenvalt kies je gewoon iets anders. Lage inzet, geen risico voor iemands gezondheid of rechten.
Een AI-systeem beslist of een cliënt thuiszorg krijgt. Als het systeem een fout maakt, kan iemand de zorg mislopen die hij of zij nodig heeft. Grote impact op iemands leven.
Twee keer AI. Maar het risico is totaal anders. De AI Act herkent dit verschil en deelt AI-systemen in op basis van risico. Hoe groter de mogelijke schade, hoe strenger de regels.
De risicopyramide
De AI Act deelt AI-systemen in vier risiconiveaus in. Denk aan een pyramide: hoe hoger je komt, hoe strenger de regels.
- Verboden (bovenaan): onacceptabel risico, deze AI mag niet worden gebruikt
- Hoog risico: strenge eisen, mag alleen onder voorwaarden
- Transparantierisico: je moet melden dat je AI gebruikt
- Overig (onderaan): geen specifieke eisen vanuit de AI Act

Belangrijk: ook als je AI-gebruik onder ‘overig’ valt, gelden de basisregels altijd. Denk aan privacywetgeving, het controleren van AI-output en je eigen verantwoordelijkheid. De gouden regels uit leerroute 3 blijven gewoon van kracht.
Verboden AI-systemen
Sommige AI-toepassingen zijn zó risicovol dat ze in de EU simpelweg verboden zijn. Geen uitzonderingen, geen voorwaarden: deze mogen niet.
- AI die mensen manipuleert of misleidt: bijvoorbeeld onzichtbare beïnvloeding van gedrag
- AI die kwetsbare mensen uitbuit: denk aan ouderen of mensen met een beperking
- Social scoring: mensen beoordelen op basis van gedrag of persoonlijke kenmerken
- Emotieherkenning op de werkvloer of in het onderwijs: AI die de stemming van medewerkers of leerlingen analyseert
Emotieherkenning op de werkvloer is verboden. Een AI-systeem dat de stemming van medewerkers analyseert via camera of microfoon mag niet worden gebruikt.
Stel je voor: een systeem dat je een score geeft op basis van je gedrag, wie je kent, wat je koopt of waar je naartoe gaat. Een lage score betekent minder rechten . Bijvoorbeeld geen lening krijgen of geen toegang tot bepaalde diensten.
Dit soort systemen bestaan al in sommige landen buiten de EU. In Europa is dit verboden. De AI Act beschermt mensen tegen dit soort beoordeling, omdat het oneerlijk is en de grondrechten schendt.
Hoog risico in de zorg
Niet alle AI is verboden, maar sommige toepassingen zijn zo impactvol dat ze als hoog risico worden aangemerkt. In de zorg komt dit vaker voor dan je denkt.
AI is hoog risico als het wordt ingezet voor:
- Medische hulpmiddelen (diagnose, triage)
- Beoordelen of iemand in aanmerking komt voor zorg
- Beslissingen over behandeling
- Beoordelen van lerenden in het onderwijs
Jouw dagelijkse ChatGPT-gebruik voor een rapportage is géén hoog risico. Maar een AI-systeem dat automatisch bepaalt of een cliënt meer zorguren krijgt, is dat wél. Het verschil zit in de impact op iemands leven.
Voor hoog risico AI-systemen gelden strenge eisen. Denk aan verplichte risicoanalyses, menselijk toezicht en transparantie. Meer hierover leer je in module 4, waar we het over verantwoordelijkheid hebben.
Jouw dagelijks AI-gebruik
De meeste AI-toepassingen die jij als zorgmedewerker gebruikt, vallen onder ‘overig’ of ‘transparantierisico’. Denk aan tekst schrijven, brainstormen, vertalen of informatie opzoeken.
Dat betekent niet dat er geen regels zijn. Privacywetgeving geldt altijd. Je moet altijd controleren wat AI je geeft. En je blijft zelf verantwoordelijk voor wat je met de output doet.
In leerroute 3 leerde je over privacy en AI. Die regels gelden altijd, ook als je AI-gebruik niet als hoog risico wordt gezien. Deel nooit vertrouwelijke informatie met AI, controleer altijd de output, en blijf zelf verantwoordelijk.
Het feit dat jouw AI-gebruik ‘laag risico’ is volgens de AI Act, maakt het niet vrijblijvend. De basisregels voor veilig en verantwoord AI-gebruik gelden altijd.
Check jezelf: 3 korte vragen
Geen cijfer, geen stress. Gewoon even kijken wat je hebt meegenomen.
Dit neem je mee
- 🔵De AI Act verdeelt AI in: verboden, hoog risico, transparantierisico en overig
- 🔵Verboden: emotieherkenning op de werkvloer en social scoring zijn niet toegestaan
- 🔵Hoog risico: AI voor diagnose of zorgtoewijzing valt onder strenge eisen
- 🔵Dagelijks gebruik: rapportage, brainstormen en vertalen is meestal overig risico . Maar de basisregels gelden altijd
- EU AI Act — Verordening (EU) 2024/1689 — de officiële tekst van de Europese AI-verordening
- SURF/Npuls — "AI Act in het kort" (februari 2025) — Nederlandse samenvatting van de AI Act voor onderwijsinstellingen
- Rijksoverheid — AI-verordening — Nederlandse overheidsuitleg over de AI Act
- Practoraat Zorg en Technologie (Alfa-college, 2025) — curriculaire basis voor deze leerroute
