De 3 Gouden Regels voor AI in de Zorg

De 3 gouden regels zijn basisafspraken voor veilig AI-gebruik op de zorgwerkvloer. Ze zijn eenvoudig te onthouden en helpen je om AI verantwoord in te zetten, ongeacht welke tool je gebruikt.

 

  1. Deel nooit vertrouwelijke informatie met AI.
  2. Controleer altijd wat AI je geeft.
  3. Blijf zelf verantwoordelijk.
 
Deze regels gelden voor elke AI-tool: ChatGPT, Copilot, Claude, spraak-naar-tekst, schrijfhulpen en vertaaltools. Of je nu een rapportage schrijft, een overdracht voorbereidt of een brief opstelt.

Regel 1: Deel nooit vertrouwelijke informatie

Publieke AI-tools slaan ingevoerde tekst soms op en kunnen deze gebruiken voor training. Daarom mag je nooit herleidbare gegevens van cliënten invoeren. Denk aan namen, geboortedata, adressen, BSN-nummers, maar ook aan combinaties van leeftijd, locatie en situatie die samen herleidbaar zijn.

De prikbordtest:

zou je de tekst die je aan AI geeft ook op het prikbord in de kantine hangen? Als het antwoord nee is, hoort het niet in een AI-tool.Gebruik altijd fictieve of geanonimiseerde gegevens als je wilt oefenen.

Regel 2: Controleer altijd wat AI je geeft

AI kan overtuigend klinken, maar toch fout zitten. Dit noemen we hallucinaties: AI verzint informatie die er betrouwbaar uitziet maar niet klopt. Dat kan gaan om onjuiste feiten, verzonnen bronnen of medisch onverantwoorde adviezen.

Controleer daarom altijd:

  • Kloppen de feiten?
  • Past de toon bij de situatie?
  • Is de informatie volledig?
  • Zou je dit zelf ook zo schrijven of adviseren?

Neem nooit een AI-antwoord klakkeloos over. Jij bent de professional die beoordeelt wat bruikbaar is.

Regel 3: Blijf zelf verantwoordelijk

AI is een hulpmiddel, geen beslisser. Als jij een tekst overneemt, aanpast of verstuurt, ben jij verantwoordelijk voor de inhoud. Niet de AI-tool, niet de leverancier, niet je werkgever.

 

Dit geldt voor:
  • Rapportages die je in het dossier plaatst
  • Brieven die je naar familie stuurt
  • Informatie die je deelt met collega’s
  • Adviezen die je geeft op basis van AI-uitkomsten
De professionele verantwoordelijkheid blijft altijd bij jou.

Waarom juist deze drie regels?

In de zorg werk je met kwetsbare mensen en gevoelige informatie. AI kan je helpen bij schrijftaken, maar de risico’s zijn anders dan in andere sectoren. Privacy, feitelijke juistheid en professionele verantwoordelijkheid zijn niet onderhandelbaar.

Deze drie regels dekken precies die drie risico’s af. Ze zijn makkelijk te onthouden, toepasbaar op elke situatie en geschikt om te delen met collega’s of in teamoverleg te bespreken.

De regels in de praktijk

Je wilt AI gebruiken voor een rapportage – Regel 1: gebruik geen echte cliëntgegevens.

AI geeft je een tekst voor een familiebrief | Regel 2: controleer toon, feiten en volledigheid

Je stuurt een door AI opgestelde overdracht | Regel 3: jij bent verantwoordelijk voor de inhoud

Meer leren over veilig AI-gebruik?

De 3 gouden regels worden uitgebreid behandeld in onze leerroute over veilig AI-gebruik. In vijf modules leer je over privacy, hallucinaties, verantwoordelijkheid en wanneer je AI beter niet gebruikt.

Wil je ook weten welke wettelijke regels er gelden voor AI?
Scroll naar boven