De 3 gouden regels
Module 5 van 5
Leer waar de grenzen liggen. Privacy, verantwoordelijkheid en wanneer je AI beter niet kunt gebruiken.
De 3 gouden regels
In de afgelopen modules heb je geleerd over privacy, hallucinaties, verantwoordelijkheid en grenzen. Nu brengen we alles samen in drie gouden regels die je altijd kunt toepassen. Na deze module kun je ook terugkijken op jouw eigen houding ten opzichte van AI en benoemen wat er veranderd is.
🕑 8 minutenNa deze module kun je:
- de drie gouden regels voor verantwoord AI-gebruik benoemen
- die regels toepassen in concrete werksituaties
- verantwoordelijkheid nemen voor de keuzes die je maakt met AI
Waarom drie regels?
AI is krachtig. Het kan je helpen met teksten, ideeën, samenvattingen en meer. Maar krachtig betekent ook: je moet er bewust mee omgaan. Daarom hebben we alles wat je in deze leerroute hebt geleerd samengevat in drie regels.
- AI is krachtig maar vraagt om bewust gebruik - zonder duidelijke regels maak je sneller fouten
- Drie regels zijn makkelijk te onthouden - geen lange checklists, gewoon drie vragen
- Ze dekken de belangrijkste risico's - privacy, fouten en verantwoordelijkheid
- Als je twijfelt: terug naar de drie regels - ze zijn je vangnet voor elke situatie
Je hoeft niet alles te onthouden uit de eerdere modules. Als je deze drie regels kent en toepast, zit je altijd goed.
Regel 1: Deel nooit vertrouwelijke informatie
Dit is de basis. Alles wat je in een AI-tool typt, kan worden opgeslagen en gebruikt om AI te verbeteren. Daarom deel je nooit gegevens waarmee je een persoon kunt identificeren.
- Geen namen, BSN, adressen of medische gegevens - dit zijn persoonsgegevens die onder de AVG vallen
- Gebruik de prikbord-test - zou je dit op een prikbord in de gang hangen? Nee? Dan hoort het niet in AI
- Anonimiseer of generaliseer - schrijf "een bewoner" in plaats van een naam, "een aandoening" in plaats van een diagnose
- Geldt voor publieke en bedrijfs-AI - ook als je organisatie een eigen AI-tool heeft, wees voorzichtig met wat je deelt
Wat je in AI typt, is niet meer alleen van jou. Behandel elke AI-tool alsof iemand meekijkt. Want dat is in feite ook zo.
Regel 2: Controleer altijd wat AI je geeft
AI klinkt overtuigend, maar dat betekent niet dat het klopt. AI kan hallucineren: informatie verzinnen die er betrouwbaar uitziet maar feitelijk onjuist is.
- AI kan hallucineren - het verzint soms feiten, cijfers of zelfs bronnen die niet bestaan
- Check feiten, cijfers en bronnen - neem niets zomaar over, zeker niet bij medische of juridische informatie
- Vertrouw op je eigen vakkennis - jij weet hoe het zit in jouw praktijk, AI niet
- Bij twijfel: zoek het op via een betrouwbare bron - gebruik een protocol, richtlijn of vraag een collega
AI schrijft: "Volgens de richtlijn dementiezorg 2024 moet je..." Klinkt professioneel. Maar bestaat die richtlijn wel? En staat er echt wat AI beweert? Check het altijd zelf.
Regel 3: Blijf zelf verantwoordelijk
Jij drukt op verzenden. Jij slaat het rapport op. Jij deelt de informatie. Dat maakt jou verantwoordelijk voor alles wat je met AI-output doet.
- Jij drukt op verzenden, jij bent verantwoordelijk - ongeacht wie of wat de tekst heeft geschreven
- "De AI zei het" is geen excuus - net als "Google zei het" of "mijn collega zei het" geen excuus is
- Gebruik de "naam eronder"-test - zou je je naam onder dit werk zetten? Als je twijfelt, is het niet goed genoeg
- AI is een hulpmiddel, jij bent de professional - AI helpt, maar jij beslist
Het maakt niet uit wie de tekst heeft geschreven. Het maakt uit wie de tekst verstuurt. En dat ben jij.
De regels in de praktijk
De drie gouden regels werken het beste als je ze samen toepast. Elke regel dekt een ander risico: privacy, betrouwbaarheid en verantwoordelijkheid. Samen vormen ze een snelle check die je bij elk AI-gebruik kunt doen.
- Zitten er persoonsgegevens in mijn vraag?
- Heb ik de output gecheckt?
- Zou ik mijn naam hieronder zetten?
Alle regels samen
Je wilt AI gebruiken om een rapportage te schrijven over een incident.
Regel 1: Je beschrijft de situatie zonder naam, BSN of kamernummer.
Regel 2: Je leest het AI-antwoord kritisch. Eén detail klopt niet: je past het aan.
Regel 3: Je leest de rapportage nog een keer. Zou je je naam eronder zetten? Ja. Je slaat het op.
Snelle check voor elk AI-gebruik
Voor elk AI-gebruik, stel jezelf drie vragen:
- Zitten er persoonsgegevens in mijn vraag?
- Heb ik de output gecheckt?
- Zou ik mijn naam hieronder zetten?
Delen met collega's
Een collega vraagt hoe AI werkt. Je legt de drie gouden regels uit:
- Deel nooit vertrouwelijke info
- Check altijd het antwoord
- Jij blijft verantwoordelijk
Simpel, maar krachtig. Zo help je collega's veilig starten.
Terugblik en afsluiting
Je bent aan het einde van Leerroute 3: AI & Ethiek. Laten we even terugkijken op wat je allemaal hebt geleerd.
- Module 1 - Privacy en AI: je weet nu welke gegevens je niet mag delen en hoe je de prikbord-test toepast
- Module 2 - AI kan fouten maken: je herkent hallucinaties en weet dat je altijd moet checken wat AI je geeft
- Module 3 - Wie is verantwoordelijk: je weet dat jij verantwoordelijk blijft voor alles wat je verstuurt
- Module 4 - Wanneer gebruik je AI niet: je kent de grenzen en weet wanneer AI niet de juiste keuze is
- Module 5 - De 3 gouden regels: je hebt alles samengevat in drie regels die je altijd kunt toepassen
Dit is een vraag die veel zorgprofessionals zich stellen. Er is (nog) geen wet die verplicht om bij elke rapportage te vermelden dat AI heeft meegeschreven. Maar de Wkkgz verplicht zorgverleners wel tot openheid over de zorgverlening.
Bespreek met je leidinggevende of je organisatie beleid heeft over AI-gebruik in dossiers. Steeds meer zorginstellingen maken hier afspraken over. Jij hoeft dit niet alleen te beslissen.
Wat als een cliënt vraagt of zijn brief door AI is geschreven?
Wees eerlijk. Je kunt zeggen: "Ik heb AI gebruikt als hulpmiddel bij het opstellen, maar ik heb alles gecontroleerd en aangepast. De inhoud is van mij." Dat is transparant én professioneel.
Openheid over AI-gebruik past bij de drie gouden regels: jij blijft verantwoordelijk, ook voor hoe je communiceert over je werkwijze.
De ethische kant van AI is niet eng, maar logisch. Het gaat om bewust omgaan met een krachtig hulpmiddel. Net zoals je bewust omgaat met medicatie, dossiers en vertrouwelijke gesprekken.
Je hebt nu de kennis om AI professioneel en verantwoord te gebruiken. De drie gouden regels zijn je kompas. Gebruik ze, deel ze, en help collega's om ook veilig met AI te werken.
Test je kennis
Als jij een vierde gouden regel mocht toevoegen aan de drie uit deze module, wat zou die dan zijn? Schrijf hem op in je eigen woorden en bespreek hem met een collega. Wat vinden jullie samen de belangrijkste?
Dit neem je mee
- 🔵Regel 1: Deel nooit vertrouwelijke informatie
- 🔵Regel 2: Controleer altijd wat AI je geeft
- 🔵Regel 3: Blijf zelf verantwoordelijk
- 🔵Deze drie regels gelden altijd: onthoud ze, pas ze toe, deel ze
Even terugkijken
Je hebt leerroute 3 afgerond. Neem even een moment voor jezelf.
Denk aan een moment waarop je twijfelde of je AI mocht inzetten, schrijf op welke van de drie gouden regels je daarbij hielp en wat je de volgende keer anders doet.
Gefeliciteerd!
Je hebt Leerroute 3: AI & Ethiek afgerond. Je weet nu hoe je privacy beschermt, fouten herkent, verantwoordelijk blijft, en wanneer AI niet de juiste keuze is. De drie gouden regels heb je nu paraat.
Klaar voor de volgende stap?
Volg alle 6 leerroutes en maak daarna de gratis eindtoets voor een persoonlijk certificaat op naam.
- Algemene Verordening Gegevensbescherming (AVG/GDPR) — Europese privacywetgeving
- Autoriteit Persoonsgegevens — Basis AVG — Nederlandse uitleg over privacyrechten en -plichten
- 3 Gouden Regels — ontwikkeld door Practoraat Zorg en Technologie als ethisch kader voor AI-gebruik in de zorg
- Practoraat Zorg en Technologie (Alfa-college, 2025) — curriculaire basis voor deze leerroute
Of ga direct verder: Leerroute 4: AI in de praktijk
