Wie is verantwoordelijk?

Module 3 van 5

Leer waar de grenzen liggen. Privacy, verantwoordelijkheid en wanneer je AI beter niet kunt gebruiken.

Module 3: Wie is verantwoordelijk? | AI Zorg Academy
Module 3 · AI & Ethiek

Wie is verantwoordelijk?

AI kan je helpen met teksten, ideeën en concepten. Maar wie is er verantwoordelijk als er iets misgaat? In deze module ontdek je waarom jij altijd de professional blijft. Ook als AI meeschrijft.

🕑 8 minuten
Voortgang
3 / 5

Jij blijft de professional

AI geeft suggesties. Jij neemt beslissingen. Dat is het belangrijkste verschil. Hoe goed AI ook wordt, het blijft een hulpmiddel net als een rekenmachine, een zoekmachine of een spellingscontrole.

Vergelijking

Een rekenmachine kan fout rekenen als je verkeerde getallen invoert. Maar jij checkt de uitkomst voordat je die gebruikt. Met AI werkt het precies zo: jij controleert wat eruit komt voordat je het overneemt.

In de zorg draag je verantwoordelijkheid voor je cliënten. Dat verandert niet doordat je AI gebruikt. Jouw vakkennis, ervaring en oordeelsvermogen blijven leidend. AI kan je werk makkelijker maken, maar het neemt je verantwoordelijkheid niet over.

"De AI zei het" is geen excuus

Stel: AI maakt een fout in een tekst, en jij neemt die tekst over zonder te checken. Wie is er dan verantwoordelijk? Jij. Niet de AI. Niet de makers van de AI. Jij.

Je kunt niet zeggen: "Maar de AI zei het zo." Net zoals je niet kunt zeggen: "Maar Google zei het" of "Maar mijn collega zei het." Je hebt het gelezen, je hebt het goedgekeurd, en je hebt het verstuurd.

Jij zet je naam onder het werk. Jij draagt de gevolgen. Dat geldt voor een rapportage, een brief, een overdracht alles wat je deelt of vastlegt.

Onthoud

Het maakt niet uit wie de tekst heeft geschreven. Het maakt uit wie de tekst heeft verstuurd. En dat ben jij.

Wanneer je NIET op AI moet vertrouwen

AI kan veel, maar er zijn situaties waarin je er niet op moet vertrouwen zelfs niet als het antwoord logisch klinkt. Bij deze onderwerpen neem jij altijd zelf de beslissing:

  • Beslissingen over zorg en behandeling: dit zijn professionele afwegingen die vakkennis vereisen
  • Medische adviezen en medicatie-informatie: AI kan verouderde of onjuiste informatie geven
  • Crisissituaties en escalaties: hier is menselijk oordeelsvermogen onmisbaar
  • Ethische afwegingen en gevoelige gesprekken: AI mist de nuance en het inlevingsvermogen
  • Alles waar de gevolgen groot zijn als het misgaat: hoe hoger het risico, hoe meer jij zelf moet nadenken

De vuistregel: hoe belangrijker de beslissing, hoe minder je op AI moet leunen. Gebruik AI voor het voorwerk, maar neem de eindbeslissing altijd zelf.

De "naam eronder"-test

Kernprincipe

Vraag jezelf af: zou ik mijn naam onder dit werk zetten? Als je twijfelt, dan is het niet goed genoeg. Check het, pas het aan, of doe het zelf opnieuw.

Alles wat je verstuurt of vastlegt, een rapportage, een mail, een overdracht, draagt als het ware jouw handtekening. Je ondertekent het. Je staat ervoor.

Die handtekening is van jou, niet van AI. Dus voordat je op "verstuur" drukt, stel jezelf de vraag: kan ik hier volledig achter staan? Als het antwoord ja is, ga je gang. Als je twijfelt, neem dan de tijd om het beter te maken.

De AI Act legt deze verantwoordelijkheden ook wettelijk vast: wie is waarvoor aansprakelijk? Leerroute 6, module 4 werkt dit uit voor de zorgpraktijk.

AI als collega die je checkt

Het helpt om AI te zien als een nieuwe collega die concepten aanlevert. Best handig, want je hebt een startpunt. Maar je zou het werk van een nieuwe collega ook altijd even checken, toch?

Je zou kritische vragen stellen. Klopt dit wel? Is dit de juiste toon? Mist er iets? Staat hier niets geks? Precies dezelfde houding past bij AI.

Zo werkt het

AI levert een concept aan. Jij leest het kritisch. Je past aan wat niet klopt. Je voegt toe wat mist. Je haalt weg wat niet past. En dan is het jouw werk, met AI als hulp bij het startpunt.

Die kritische blik is geen extra werk. Het is jouw professionaliteit. En het is precies wat het verschil maakt tussen blind overnemen en slim samenwerken met AI.

Herken je het verschil?

Hieronder zie je drie situaties. Twee medewerkers, twee aanpakken. En een dilemma om over na te denken.

Scenario: Zo niet

Jan gebruikt AI om een verslag te schrijven voor het MDO. Hij leest het vluchtig door en stuurt het in. Later blijkt dat AI een verkeerde medicatie heeft genoemd. Jan's leidinggevende spreekt hem aan.

Jan zegt: "Maar de AI schreef dat!"

Leidinggevende: "Jij hebt het verstuurd. Jij bent verantwoordelijk."

Scenario: Zo wel

Emma gebruikt AI om een concept-brief aan familie te maken. Ze leest de brief kritisch door en past de toon aan, te formeel. Ze corrigeert een feit, verkeerde dag en voegt een persoonlijke zin toe. Dan verstuurt ze.

Emma kan achter deze brief staan. Het is haar werk, AI hielp alleen met het startpunt.

Dilemma

AI geeft je een antwoord op een vraag over een zorgprotocol. Het klinkt logisch, maar je hebt een onderbuikgevoel dat iets niet klopt. Wat doe je?

Antwoord: Vertrouw je onderbuikgevoel. Check het protocol zelf. Jouw ervaring en intuïtie zijn waardevoller dan een AI-antwoord.

💭 Even nadenken
  1. Heb je weleens iets overgenomen van een collega zonder het goed te checken? Wat gebeurde er?
  2. Bij welke taken in jouw werk zou je AI nooit het laatste woord geven? Waarom niet?
  3. Hoe zou je aan een collega uitleggen waarom "de AI zei het" geen goed excuus is?

Maar hoe weet ik wat AI heeft gedaan?

Als AI een advies geeft, wil je weten hoe het tot die conclusie is gekomen. Maar dat is niet altijd mogelijk. Veel AI-systemen werken als een zwarte doos: je gooit er informatie in, er komt een antwoord uit, maar de stappen daartussen zijn niet zichtbaar.

Denk aan een rekenmachine die alleen het eindantwoord toont, zonder de tussenliggende berekeningen. Of een collega die zegt "vertrouw me maar" zonder uitleg te geven. Je kunt het eindresultaat niet op juistheid beoordelen als je de redenering niet ziet.

Waarom dit een probleem is

Stel dat een AI-systeem aangeeft dat een bewoner een hoog valrisico heeft. Wat heeft het systeem precies gemeten? Welke gegevens wogen het zwaarst mee? Als het systeem geen uitleg geeft, kun je als zorgverlener niet beoordelen of het advies klopt voor deze specifieke persoon. Je bent dan afhankelijk van iets wat je niet kunt controleren.

Jij mag uitleg vragen

De Europese AI Act verplicht aanbieders van AI-systemen in de zorg om uitleg te kunnen geven over hoe hun systeem werkt en hoe het tot een advies komt. Als zorgprofessional mag je die uitleg eisen. Begrijp je het advies van een AI-systeem niet, vraag dan je leidinggevende of de leverancier van het systeem. Vertrouw nooit blind op een AI-uitkomst die je niet kunt controleren.

Test je kennis

Vraag 1 van 3
AI maakt een fout in een rapport dat jij verstuurt. Wie is verantwoordelijk?
Vraag 2 van 3
Wat is de "naam eronder"-test?
Vraag 3 van 3
Bij welke taak moet je NIET vertrouwen op AI zonder zelf te checken?

Dit neem je mee

  • 🔵Jij blijft verantwoordelijk voor alles wat je verstuurt of vastlegt
  • 🔵"De AI zei het" is geen excuus, jij hebt het verstuurd, jij staat ervoor
  • 🔵Gebruik de "naam eronder"-test: zou je dit ondertekenen?
  • 🔵AI is een hulpmiddel, jij bent de professional

Module 3 van 5. Leerroute: AI & Ethiek. AI Zorg Academy

Scroll naar boven