Hoe heeft AI leren denken?
Module 5 van 5
Nieuwe Europese regels voor kunstmatige intelligentie
Hoe heeft AI leren denken?
AI heeft een turbulente geschiedenis. Perioden van enthousiasme werden afgewisseld met teleurstellingen. In deze module ontdek je hoe AI zich heeft ontwikkeld van wiskundige regels naar de taalmodellen van vandaag, en wat dat betekent voor hoe je AI nu kunt begrijpen en vertrouwen.
- de historische ontwikkeling van AI beschrijven
- het verschil uitleggen tussen de logica-school en het data-tijdperk
- de Bayesiaanse aanpak plaatsen in de evolutie van AI
De geboorte van AI
In de zomer van 1956 kwamen een handvol wiskundigen en computerwetenschappers bijeen op Dartmouth College in de Verenigde Staten. Zij bedachten de term "artificial intelligence" en geloofden dat machines binnen een generatie menselijk denken zouden kunnen nabootsen. Dat bleek optimistisch, maar de vonk was aangestoken.
De oprichters van de Dartmouth-conferentie, onder wie John McCarthy en Marvin Minsky, verwachtten dat het probleem van kunstmatige intelligentie binnen een zomer "grotendeels opgelost" zou kunnen worden. Ruim zeventig jaar later zijn we nog steeds bezig. Dat zegt iets over de complexiteit van intelligentie, maar ook over hoeveel er sindsdien is bereikt.
De eerste decennia van AI waren gevuld met hoge verwachtingen en pijnlijke teleurstellingen. Computers werden wel beter in schaak spelen en wiskundige problemen oplossen, maar de "echte wereld" bleek veel weerbarstiger dan verwacht.
De logica-school: AI als rekenaar met regels
De eerste generatie AI-systemen werkte met logica: als dit, dan dat. Wetenschappers bouwden expertsystemen: programma's gevuld met de kennis van specialisten, omgezet in regels.
MYCIN was een van de eerste succesvolle AI-systemen in de zorg. Het kon infectieuze ziekten diagnosticeren en antibiotica aanbevelen, op basis van circa 600 regels die experts hadden ingebracht. In tests presteerde MYCIN beter dan veel artsen. Toch werd het nooit breed ingevoerd, mede omdat artsen wantrouwend stonden tegenover een systeem dat niet kon uitleggen hoe het tot zijn conclusies kwam.
Dit wantrouwen was niet onterecht. Expertsystemen waren breekbaar: buiten de regels wisten ze niets. En naarmate de regels complexer werden, werden ze ook moeilijker te onderhouden en te begrijpen.
Regelgebaseerde systemen zijn transparant en voorspelbaar, maar star. Ze falen op situaties die niet in de regels staan. Precies dit probleem leidde tot de zoektocht naar een andere aanpak.
De kansrekening komt erbij
In de jaren tachtig en negentig kregen statistiek en kansrekening een grotere rol in AI. In plaats van harde regels werkten systemen nu met waarschijnlijkheden: hoe groot is de kans dat dit symptoom wijst op die diagnose?
Dit heet Bayesiaans redeneren, naar de 18e-eeuwse wiskundige Thomas Bayes. De kern: je begint met een verwachting (a priori) en past die aan op basis van nieuwe informatie. Dat doet een ervaren zorgverlener ook: je hebt een beginvermoeden en bijstelt dat als je meer weet.
Een bewoner komt binnen met koorts. Kans op een simpele verkoudheid: hoog. Als er ook verwardheid bij komt, past die kans zich aan. Als er bovendien een catheter aanwezig is, past die zich opnieuw aan. Zo werkt ook een Bayesiaans AI-systeem: het herberekent voortdurend de waarschijnlijkheid op basis van steeds meer informatie.
Bayesiaanse systemen worden nog steeds gebruikt in de zorg, onder andere in diagnostische ondersteuningssystemen die artsen helpen bij het interpreteren van symptoomcombinaties.
Het data-tijdperk: neurale netwerken en taalmodellen
Vanaf de jaren 2010 versnelde de ontwikkeling sterk. Drie dingen kwamen samen: enorme hoeveelheden digitale data, goedkopere rekenkracht en verbeterde algoritmen. Hierdoor konden neurale netwerken eindelijk op grote schaal worden getraind.
Neurale netwerken zijn losjes gebaseerd op hoe hersencellen werken: lagen van berekeningen die input verwerken en patronen leren herkennen. Met genoeg data en rekenkracht bleek dit verbluffend effectief.
Systemen zoals ChatGPT en Gemini zijn Large Language Models (LLMs): neurale netwerken getraind op miljarden teksten. Ze leren welke woorden en zinnen statistisch bij elkaar horen. Het resultaat klinkt vloeiend en begrijpelijk, maar het systeem heeft geen begrip van wat het zegt. Het berekent wat het meest waarschijnlijke volgende woord is, keer op keer.
Dit verklaart zowel de indrukwekkende als de gevaarlijke eigenschappen van moderne AI: het kan prachtige teksten produceren, maar het kan ook volkomen zelfverzekerd onjuiste informatie geven, omdat het niet weet wat het niet weet.
Grote taalmodellen zijn getraind op algemene teksten van het internet, niet specifiek op zorgdata. Ze kennen geen richtlijnen, protocollen of regionale verschillen in de Nederlandse zorg. Gebruik ze als schrijfhulp of informatiebron, maar vertrouw nooit blind op medische informatie die ze geven zonder die te controleren bij een erkende bron.
AI-systemen kunnen worden misleid via zogenoemde adversarial aanvallen. Dit zijn ingenieus aangepaste inputs die een AI op het verkeerde been zetten, terwijl een mens niets vreemds zou zien.
Een klassiek voorbeeld: een afbeelding van een stopbord met een subtiel patroon erop, onzichtbaar voor mensen, dat een autonome auto herkent als "rijbaan vrij". Of een zorgvuldig geformuleerde prompt die een AI-assistent ertoe brengt adviezen te geven die buiten zijn richtlijnen vallen.
Voor de praktijk in de zorg betekent dit: wees alert op AI-uitkomsten die er "te mooi uitzien" of die sterk afwijken van wat je zelf zou verwachten. Een AI kan overtuigend zijn en toch fundamenteel fout zitten.
Van regels naar patronen: een verschuiving met gevolgen
De verschuiving van regelgebaseerde systemen naar data-gedreven AI heeft grote voordelen gebracht. Systemen zijn flexibeler, krachtiger en in staat om complexe taken te doen die met regels onmogelijk waren. Maar er zijn ook consequenties.
Bij regelgebaseerde systemen kon je precies nagaan waarom een systeem een bepaald antwoord gaf: "Regel 347 zegt dat bij symptoom X en symptoom Y de kans op diagnose Z groot is." Bij een neuraal netwerk is dat niet meer mogelijk. Het systeem heeft miljoenen parameters en niemand kan precies zeggen welke combinatie van patronen tot een bepaald advies heeft geleid.
Regelgebaseerde AI: transparant, maar beperkt. Data-gedreven AI: krachtig, maar een zwarte doos. Dit spanningsveld is een van de grootste uitdagingen in de inzet van AI in de zorg, en de reden waarom transparantie en uitlegbaarheid zo hoog op de agenda staan.
- Als AI leert van data. Welke data denk jij dat er over jouw werk beschikbaar is?
- Wat verandert er voor jou als AI niet regels volgt, maar patronen herkent?
- Vertrouw je een AI-systeem meer als je weet hoe het is opgebouwd? Waarom?
Test je kennis
Dit neem je mee
- 🔵AI begon in 1956 met regelgebaseerde systemen, gevuld met kennisregels van experts
- 🔵Bayesiaans redeneren voegde kansrekening toe: AI dat waarschijnlijkheden herberekent op basis van nieuwe informatie
- 🔵Moderne AI gebruikt neurale netwerken getraind op grote datasets, wat krachtig maar minder transparant is
- 🔵Grote taalmodellen zijn geen medische experts: controleer altijd informatie bij erkende bronnen
- 🔵AI kan misleid worden: een overtuigend klinkend antwoord is niet hetzelfde als een juist antwoord
- OECD — AI Policy Observatory — internationaal beleidskader voor verantwoorde AI
- SURF — AI en ethiek in het onderwijs — verdieping op ethische vraagstukken rondom AI
- Vilans — Technologie in de zorg — geavanceerde AI-toepassingen in de Nederlandse langdurige zorg
- Practoraat Zorg en Technologie (Alfa-college, 2025) — curriculaire basis voor deze leerroute
