Wie is waarvoor verantwoordelijk?
Module 4 van 5
Nieuwe Europese regels voor kunstmatige intelligentie
Wie is waarvoor verantwoordelijk?
Je instelling koopt een AI-tool voor rapportages. Een collega gebruikt het, de AI maakt een fout die niet wordt ontdekt, en er gaat iets mis. Wie is verantwoordelijk, het bedrijf dat de AI maakte, je instelling, of je collega? De AI Act geeft hier duidelijke antwoorden op.
- de verantwoordelijkheidsverdeling bij AI in de zorg uitleggen
- rechten van cliënten als AI-betrokkene benoemen
- uitleggen wat menselijk toezicht betekent in de context van de AI Act
Als het misgaat...
Stel je voor: je instelling heeft een AI-tool aangeschaft die helpt bij het opstellen van medicatieoverzichten. Je collega Fatima gebruikt de tool en stuurt het overzicht door naar de apotheek. Maar de AI heeft een medicijn weggelaten. Fatima heeft het niet gecontroleerd. De cliënt mist daardoor een noodzakelijk medicijn en de familie dient een klacht in.
Wie is hier verantwoordelijk? Het bedrijf dat de AI maakte? Je instelling die de tool heeft ingekocht? Of Fatima, die het overzicht niet heeft gecontroleerd?
De AI Act geeft duidelijke antwoorden op deze vraag. De wet definieert precies wie welke verantwoordelijkheid draagt. En dat is belangrijk, want als er iets misgaat, wil je weten bij wie de verantwoordelijkheid ligt.
Twee rollen in de AI Act
De AI Act maakt onderscheid tussen twee hoofdrollen. Die rollen bepalen wie welke verplichtingen heeft.
- Aanbieder (provider): het bedrijf dat de AI ontwikkelt of op de markt brengt. Bijvoorbeeld: OpenAI, Microsoft, of een softwarebedrijf dat een zorgtool maakt.
- Gebruiksverantwoordelijke (deployer): de organisatie die de AI inzet voor professioneel gebruik. Bijvoorbeeld: jouw zorginstelling.
De aanbieder moet zorgen dat de AI veilig is, goed werkt en aan de regels voldoet. De gebruiksverantwoordelijke moet zorgen dat de AI op de juiste manier wordt ingezet en dat er toezicht is op het gebruik.
Als jouw instelling Microsoft Copilot inkoopt voor medewerkers, dan is Microsoft de aanbieder en jouw instelling de gebruiksverantwoordelijke. Beide hebben verplichtingen onder de AI Act.
Het is dus niet zo dat alleen het techbedrijf verantwoordelijk is. Jouw instelling heeft als gebruiksverantwoordelijke ook verplichtingen. En die zijn niet vrijblijvend.
Wat moet je instelling doen?
Als gebruiksverantwoordelijke heeft je instelling een aantal concrete verplichtingen onder de AI Act. De belangrijkste zijn:
- De AI gebruiken volgens de instructies van de aanbieder: niet zomaar op een andere manier inzetten dan bedoeld
- Menselijk toezicht inrichten: een mens moet altijd kunnen ingrijpen
- Logboeken bijhouden: minimaal 6 maanden bewaren
- Bij hoog risico AI: een beoordeling van de impact op grondrechten uitvoeren. Wat betekent het gebruik voor de rechten van cliënten?
Dit zijn geen vrijblijvende aanbevelingen. Het zijn wettelijke verplichtingen waar je instelling aan moet voldoen.
De aanbieder van een AI-systeem moet documentatie leveren over hoe het systeem veilig gebruikt moet worden. Denk aan: waarvoor is de AI bedoeld, wat kan de AI niet, en waar moet je op letten?
Jouw instelling moet die instructies volgen. Als je organisatie het systeem op een wezenlijk andere manier gebruikt dan bedoeld, dan kan ze zelfs als aanbieder worden beschouwd. Dat betekent dat ze dan ook alle verplichtingen van een aanbieder krijgt. Die zijn een stuk zwaarder.
En jij als medewerker?
In de AI Act ben jij als medewerker niet de “gebruiksverantwoordelijke”. Dat is je instelling. Maar dat betekent niet dat je geen verantwoordelijkheid hebt. Je draagt als zorgprofessional altijd professionele verantwoordelijkheid.
Wat betekent dat concreet?
- Je controleert de output van AI voordat je het gebruikt
- Je signaleert fouten en meldt ze
- Je gebruikt AI volgens de afspraken van je organisatie
- Je deelt geen vertrouwelijke informatie met AI-tools
In Leerroute 3 leerde je: “de AI zei het” is geen excuus. Dat principe heeft nu ook een wettelijke basis. De AI Act bevestigt dat menselijk toezicht noodzakelijk is en dat de verantwoordelijkheid voor beslissingen bij mensen ligt.
De AI Act legt verantwoordelijkheid bij je instelling, maar jouw professionele zorgplicht verandert niet. Jij bent en blijft verantwoordelijk voor de zorg die je levert.
Menselijk toezicht: de mens blijft de baas
De AI Act eist menselijk toezicht bij hoog risico AI-systemen. Dat betekent dat er altijd een mens moet zijn die de output van de AI controleert, begrijpt en kan bijsturen of stoppen.
In de zorg is dit extra belangrijk. Een AI kan een rapportage schrijven of een advies geven, maar het is altijd een mens die beslist of dat klopt en of het wordt overgenomen. De AI ondersteunt, de mens beslist.
AI schrijft, jij controleert. AI suggereert, jij beslist. Dat is niet alleen een gouden regel. Het is de wet.
In leerroute 3 leerde je de 3 gouden regels. Regel 2 (controleer altijd) en regel 3 (blijf zelf verantwoordelijk) zijn precies wat de AI Act bedoelt met menselijk toezicht. Wat je eerder leerde als goede gewoonte, is nu wettelijk vastgelegd.
Menselijk toezicht geldt niet alleen voor jou als zorgprofessional. Ook de cliënt heeft rechten als AI bij zijn of haar zorg wordt gebruikt.
- Recht op menselijke tussenkomst: bij belangrijke beslissingen die (deels) door AI worden genomen, heeft de cliënt het recht om een mens te laten meekijken en te beslissen.
- Recht op uitleg: de cliënt mag vragen hoe een beslissing tot stand is gekomen, ook als AI daarbij een rol speelde.
- Recht om te weten: als AI wordt ingezet bij zorg of beslissingen over een cliënt, moet de organisatie daar transparant over zijn.
Wat betekent dit voor jou? Als een cliënt vraagt of AI is gebruikt bij zijn rapportage of behandelplan, wees dan eerlijk. Je hoeft de techniek niet uit te leggen. Je kunt zeggen: "AI heeft meegedacht, maar ik heb alles gecontroleerd en beslist." Dat is precies wat de wet bedoelt.
Check jezelf: 3 korte vragen
Geen cijfer, geen stress. Gewoon even kijken wat je hebt meegenomen.
Dit neem je mee
- 🔵Twee hoofdrollen: de AI Act kent de aanbieder (maker) en de gebruiksverantwoordelijke (inzetter)
- 🔵Je instelling is gebruiksverantwoordelijke als ze een AI-tool inkoopt en inzet
- 🔵Professionele verantwoordelijkheid: jij als medewerker controleert altijd de AI-output
- 🔵Menselijk toezicht is wet: de mens controleert, de mens beslist
- EU AI Act — Verordening (EU) 2024/1689 — de officiële tekst van de Europese AI-verordening
- SURF/Npuls — "AI Act in het kort" (februari 2025) — Nederlandse samenvatting van de AI Act voor onderwijsinstellingen
- Rijksoverheid — AI-verordening — Nederlandse overheidsuitleg over de AI Act
- Practoraat Zorg en Technologie (Alfa-college, 2025) — curriculaire basis voor deze leerroute
