Hoe heeft AI leren denken?

Module 5 van 5

Nieuwe Europese regels voor kunstmatige intelligentie

Module 2: Hoe heeft AI leren denken? | AI Zorg Academy
Module 2 · AI in Verdieping

Hoe heeft AI leren denken?

AI heeft een turbulente geschiedenis. Perioden van enthousiasme werden afgewisseld met teleurstellingen. In deze module ontdek je hoe AI zich heeft ontwikkeld van wiskundige regels naar de taalmodellen van vandaag, en wat dat betekent voor hoe je AI nu kunt begrijpen en vertrouwen.

  • de historische ontwikkeling van AI beschrijven
  • het verschil uitleggen tussen de logica-school en het data-tijdperk
  • de Bayesiaanse aanpak plaatsen in de evolutie van AI
🕑 12 minuten
Voortgang
2 / 5

De geboorte van AI

In de zomer van 1956 kwamen een handvol wiskundigen en computerwetenschappers bijeen op Dartmouth College in de Verenigde Staten. Zij bedachten de term "artificial intelligence" en geloofden dat machines binnen een generatie menselijk denken zouden kunnen nabootsen. Dat bleek optimistisch, maar de vonk was aangestoken.

Historische context: 1956

De oprichters van de Dartmouth-conferentie, onder wie John McCarthy en Marvin Minsky, verwachtten dat het probleem van kunstmatige intelligentie binnen een zomer "grotendeels opgelost" zou kunnen worden. Ruim zeventig jaar later zijn we nog steeds bezig. Dat zegt iets over de complexiteit van intelligentie, maar ook over hoeveel er sindsdien is bereikt.

De eerste decennia van AI waren gevuld met hoge verwachtingen en pijnlijke teleurstellingen. Computers werden wel beter in schaak spelen en wiskundige problemen oplossen, maar de "echte wereld" bleek veel weerbarstiger dan verwacht.

De logica-school: AI als rekenaar met regels

De eerste generatie AI-systemen werkte met logica: als dit, dan dat. Wetenschappers bouwden expertsystemen: programma's gevuld met de kennis van specialisten, omgezet in regels.

Voorbeeld: MYCIN (1970s)

MYCIN was een van de eerste succesvolle AI-systemen in de zorg. Het kon infectieuze ziekten diagnosticeren en antibiotica aanbevelen, op basis van circa 600 regels die experts hadden ingebracht. In tests presteerde MYCIN beter dan veel artsen. Toch werd het nooit breed ingevoerd, mede omdat artsen wantrouwend stonden tegenover een systeem dat niet kon uitleggen hoe het tot zijn conclusies kwam.

Dit wantrouwen was niet onterecht. Expertsystemen waren breekbaar: buiten de regels wisten ze niets. En naarmate de regels complexer werden, werden ze ook moeilijker te onderhouden en te begrijpen.

Kernpunt: de grens van regels

Regelgebaseerde systemen zijn transparant en voorspelbaar, maar star. Ze falen op situaties die niet in de regels staan. Precies dit probleem leidde tot de zoektocht naar een andere aanpak.

De kansrekening komt erbij

In de jaren tachtig en negentig kregen statistiek en kansrekening een grotere rol in AI. In plaats van harde regels werkten systemen nu met waarschijnlijkheden: hoe groot is de kans dat dit symptoom wijst op die diagnose?

Dit heet Bayesiaans redeneren, naar de 18e-eeuwse wiskundige Thomas Bayes. De kern: je begint met een verwachting (a priori) en past die aan op basis van nieuwe informatie. Dat doet een ervaren zorgverlener ook: je hebt een beginvermoeden en bijstelt dat als je meer weet.

Vergelijking: diagnostisch redeneren

Een bewoner komt binnen met koorts. Kans op een simpele verkoudheid: hoog. Als er ook verwardheid bij komt, past die kans zich aan. Als er bovendien een catheter aanwezig is, past die zich opnieuw aan. Zo werkt ook een Bayesiaans AI-systeem: het herberekent voortdurend de waarschijnlijkheid op basis van steeds meer informatie.

Bayesiaanse systemen worden nog steeds gebruikt in de zorg, onder andere in diagnostische ondersteuningssystemen die artsen helpen bij het interpreteren van symptoomcombinaties.

Het data-tijdperk: neurale netwerken en taalmodellen

Vanaf de jaren 2010 versnelde de ontwikkeling sterk. Drie dingen kwamen samen: enorme hoeveelheden digitale data, goedkopere rekenkracht en verbeterde algoritmen. Hierdoor konden neurale netwerken eindelijk op grote schaal worden getraind.

Neurale netwerken zijn losjes gebaseerd op hoe hersencellen werken: lagen van berekeningen die input verwerken en patronen leren herkennen. Met genoeg data en rekenkracht bleek dit verbluffend effectief.

Technische context: grote taalmodellen

Systemen zoals ChatGPT en Gemini zijn Large Language Models (LLMs): neurale netwerken getraind op miljarden teksten. Ze leren welke woorden en zinnen statistisch bij elkaar horen. Het resultaat klinkt vloeiend en begrijpelijk, maar het systeem heeft geen begrip van wat het zegt. Het berekent wat het meest waarschijnlijke volgende woord is, keer op keer.

Dit verklaart zowel de indrukwekkende als de gevaarlijke eigenschappen van moderne AI: het kan prachtige teksten produceren, maar het kan ook volkomen zelfverzekerd onjuiste informatie geven, omdat het niet weet wat het niet weet.

Beperkingen voor de zorg

Grote taalmodellen zijn getraind op algemene teksten van het internet, niet specifiek op zorgdata. Ze kennen geen richtlijnen, protocollen of regionale verschillen in de Nederlandse zorg. Gebruik ze als schrijfhulp of informatiebron, maar vertrouw nooit blind op medische informatie die ze geven zonder die te controleren bij een erkende bron.

AI-systemen kunnen worden misleid via zogenoemde adversarial aanvallen. Dit zijn ingenieus aangepaste inputs die een AI op het verkeerde been zetten, terwijl een mens niets vreemds zou zien.

Een klassiek voorbeeld: een afbeelding van een stopbord met een subtiel patroon erop, onzichtbaar voor mensen, dat een autonome auto herkent als "rijbaan vrij". Of een zorgvuldig geformuleerde prompt die een AI-assistent ertoe brengt adviezen te geven die buiten zijn richtlijnen vallen.

Voor de praktijk in de zorg betekent dit: wees alert op AI-uitkomsten die er "te mooi uitzien" of die sterk afwijken van wat je zelf zou verwachten. Een AI kan overtuigend zijn en toch fundamenteel fout zitten.

Van regels naar patronen: een verschuiving met gevolgen

De verschuiving van regelgebaseerde systemen naar data-gedreven AI heeft grote voordelen gebracht. Systemen zijn flexibeler, krachtiger en in staat om complexe taken te doen die met regels onmogelijk waren. Maar er zijn ook consequenties.

Bij regelgebaseerde systemen kon je precies nagaan waarom een systeem een bepaald antwoord gaf: "Regel 347 zegt dat bij symptoom X en symptoom Y de kans op diagnose Z groot is." Bij een neuraal netwerk is dat niet meer mogelijk. Het systeem heeft miljoenen parameters en niemand kan precies zeggen welke combinatie van patronen tot een bepaald advies heeft geleid.

De kern van het verschil

Regelgebaseerde AI: transparant, maar beperkt. Data-gedreven AI: krachtig, maar een zwarte doos. Dit spanningsveld is een van de grootste uitdagingen in de inzet van AI in de zorg, en de reden waarom transparantie en uitlegbaarheid zo hoog op de agenda staan.

💭 Even nadenken
  1. Als AI leert van data. Welke data denk jij dat er over jouw werk beschikbaar is?
  2. Wat verandert er voor jou als AI niet regels volgt, maar patronen herkent?
  3. Vertrouw je een AI-systeem meer als je weet hoe het is opgebouwd? Waarom?

Test je kennis

Vraag 1 van 3
Wat is een expertsysteem?
Vraag 2 van 3
Waarom zijn grote taalmodellen zoals ChatGPT niet altijd betrouwbaar voor medische informatie?
Vraag 3 van 3
Wat is het grootste nadeel van moderne data-gedreven AI ten opzichte van regelgebaseerde systemen?

Dit neem je mee

  • 🔵AI begon in 1956 met regelgebaseerde systemen, gevuld met kennisregels van experts
  • 🔵Bayesiaans redeneren voegde kansrekening toe: AI dat waarschijnlijkheden herberekent op basis van nieuwe informatie
  • 🔵Moderne AI gebruikt neurale netwerken getraind op grote datasets, wat krachtig maar minder transparant is
  • 🔵Grote taalmodellen zijn geen medische experts: controleer altijd informatie bij erkende bronnen
  • 🔵AI kan misleid worden: een overtuigend klinkend antwoord is niet hetzelfde als een juist antwoord

Module 2 van 5. Leerroute: AI in Verdieping. AI Zorg Academy

Scroll naar boven