EvidenceHunt wil AI op een goede manier inzetten om te zorgen dat artsen en wetenschappers uit de vele bronnen snel hun informatie vinden.”
Om de mogelijkheden van het systeem te illustreren geeft Vinkers twee recente toepassingen. “Bijwerkingencentrum Lareb signaleert in de dagelijkse praktijk risico’s en bijwerkingen van geneesmiddelen. Voor een deel gebeurt dat door handmatig de medische literatuur door te spitten. We hebben daarvoor een model ontwikkeld en vervolgens aangetoond dat het betrouwbaarder was dan handmatig zoeken. Lareb maakt nu gebruikt van dit specifieke model in de praktijk. Recentelijk kregen we ook de vraag of het mogelijk is de medische literatuur te ‘ondervragen’ op niet-zinvolle behandelingen die beter gestopt kunnen worden. Dergelijke behandelingen kun je waarschijnlijk beter stoppen. Op basis van dat criterium is het mogelijk om zinnige zorg beter en sneller scherp te krijgen.”
Christiaan Vinkers
Kunstmatige Intelligentie (AI) is aan een ongekende opmars bezig, ook in de medische wereld. Zoals elke tool, is AI een gereedschap dat zijn echte waarde vooral laat zien in de concrete toepassingen. De kansen zijn enorm, maar het afbreukrisico ook. Betrokkenheid vanuit de zorg is daarom essentieel.
Tekst: Pieter Lomans • Foto: Marieke de Lorijn
oogleraar en cardioloog Folkert Asselbergs werkt aan zo’n concrete toepassing. Hij ontwikkelt met een Europese subsidie een AI-programma voor hartfalen. Wereldwijd hebben ruim 60 miljoen mensen hartfalen en dat aantal wordt alleen maar groter. Een goede individuele behandeling op maat is van groot belang, maar ook uitermate moeilijk omdat het zo’n heterogene ziekte is. Asselbergs: “Kortademig, sneller moe en eerder vocht vasthouden zijn symptomen van hartfalen, maar de onderliggende oorzaak, en daarmee ook de prognose, kan sterk verschillen. Bij de een spelen erfelijke factoren een grote rol, de ander heeft een hartaanval doorgemaakt, en weer iemand anders heeft hartfalen ontwikkeld door langdurig bestaande hoge bloeddruk; het kunnen allemaal oorzaken zijn waarom iemands hart minder bloed rondpompt en de symptomen ontstaan. Toch behandelen we alle vormen op dezelfde manier.”
Hulpmiddel voor besluitvorming
Asselbergs gebruikt AI om slimme regels (algoritmes) te ontwerpen die de enorme gegevensstroom vanuit verschillende databronnen kunnen ordenen om inzicht te krijgen in de prognose en de onderliggende oorzaken. “AI brengt de precisiegeneeskunde en data gedreven werken weer wat dichterbij. Je gaat van een gemiddelde behandeling voor een gemiddelde patiënt naar een behandeling die meer op de individuele patiënt is toegesneden. Dat is een mooi punt op de horizon.”
Een AI-programma voor hartfalen als clinical decision support tool - een middel dat de arts helpt bij zijn klinische besluitvorming – biedt grote voordelen, maar kan ook nadelig uitpakken als algoritmes niet goed zijn ontworpen. Asselbergs noemt een Amerikaans programma dat voorspelde welke patiënt een hoog risico had op een ziekenhuisopname. “Zwarte mensen hadden daar een veel lager risico dan witte mensen. Waarom? Omdat ‘zorggebruik’ in het algoritme zat en in Amerika gebruiken zwarte mensen gemiddeld minder zorg door verschillende socio-economische redenen. Met zo’n algoritme kun je eigenlijk niks in de klinische praktijk.”
Asselbergs wil daarom vooral een betróuwbare tool voor hartfalen bouwen en doet dat onder meer door niet alleen (patiënt)gegevens uit Europese landen mee te nemen. Ook ziekenhuizen, artsen en patiënten uit Peru en Tanzania zijn bij het ontwerp betrokken, waardoor het programma meer sociale en etnische verschillen en meer context bevat. “We gebruiken een vorm van federatief leren, waardoor we heel veel uiteenlopende factoren in een gezamenlijk model kunnen stoppen zonder dat de data hiervoor het ziekenhuis hoeven te verlaten om zo de privacy te waarborgen. Daar voegen we ook een zogenoemd AI-paspoort toe, dat transparant maakt waar de kennis of adviezen op zijn gebaseerd. Uiteindelijk willen we het gebruiken om clusters van patiënten te onderscheiden, die bijvoorbeeld weinig of juist intensief moeten worden behandeld. Voor een verbetering in de zorg die mogelijk ook nog goedkoper uitvalt.”
Folkert Asselbergs
Een betrouwbare chatbot
Psychiater Christiaan Vinkers (hoogleraar Stress en veerkracht) gebruikt een vorm van AI die lijkt op ChatGPT (Chat Generative Pre-trained Transformer). ChatGPT is een AI-chatbot die is getraind door grote taalmodellen. Daardoor kan ChatGPT vragen beantwoorden die klinken alsof ze door mensen zijn gegenereerd. Vinkers en collega’s ontwikkelden EvidenceHunt, een programma dat hetzelfde doet, maar dan met betrouwbare bronnen die transparant antwoord geven, zoals wetenschappelijke databases zoals PubMed en richtlijnen.
PubMed is een gratis toegankelijke databank waar vrijwel alle medische publicaties in terechtkomen, maar is niet makkelijk in gebruik. “Wij wilden die publicaties snel, transparant en betrouwbaar beschikbaar maken met AI”, zegt Vinkers, “zodat een arts heel gemakkelijk de informatie kan vinden die hij nodig heeft. Dat doe je niet door PubMed in een grabbelton te gooien, maar door een programma met algoritmes te bouwen dat met dergelijke vragen overweg kan, en transparant en betrouwbaar antwoord geeft.”
Aanvankelijk was EvidenceHunt vooral gebaseerd op PubMed, maar stap voor stap wordt het programma uitgebreid met andere medische informatie zoals (inter)nationale richtlijnen, ziekenhuisprotocollen, lopend onderzoek waarvan de resultaten binnenkort gepubliceerd worden, enzovoort. “We willen het zo inrichten dat je er uiteindelijk je eigen persoonlijke digitale boekenkast van kunt maken waarin je alles snel kunt terugvinden. Interactief, en met automatische inhoudelijke updates die je op maat kunt instellen. Er is een grote behoefte aan betrouwbare innovatie om de tsunami aan informatie behapbaar te houden.
AI-programma’s voor het herkennen van ziektes, chat-programma’s zoals ChatGPT, robotgeassisteerde operaties, nieuwe en effectievere medicijnen ontwikkelen met Big Data, de mogelijkheden buitelen over elkaar heen. Vrijwel altijd beloven dergelijke programma’s de toegankelijkheid van de zorg te vergroten, de kwaliteit te verbeteren en de kosten te verlagen, maar toch worden ze nu soms zonder veel kennis van de medische wereld door de Big Tech geïntroduceerd. In vakbladen als STAT News en The New England Journal of Medicine nemen medici stelling en stellen ze dat de beroepsgroep een veel grotere rol in de AI-ontwikkeling moet gaan spelen.
“Van oudsher liepen universiteiten en UMC’s voorop in innovatie en kennisontwikkeling en volgde de industrie met nieuwe producten, zoals bijvoorbeeld de farmaceutische industrie”, zegt Folkert Asselbergs. “Momenteel lopen we in de AI echt achterop en het zou goed zijn als universitaire instellingen waaronder Amsterdam UMC weer meer de inhoudelijke regie gaan voeren om te waarborgen dat AI op een verantwoorde en zinvolle manier wordt ingevoerd binnen de gezondheidszorg. Overigens zullen publiek-private samenwerkingen altijd noodzakelijk zijn voor een wijdverbreide succesvolle implementatie van nieuwe innovaties binnen en buiten Amsterdam UMC om de zorg op hoog niveau te kunnen blijven leveren en personeel te ontlasten.”
Corrette Ploem
Prioriteit moet bij patiënt en arts blijven
Niet elk AI-product of -programma kan overigens zomaar worden ingevoerd (zie kader), zegt Corrette Ploem, die eerder dit jaar werd benoemd tot bijzonder hoogleraar Recht, zorgtechnologie en geneeskunde aan de Faculteit der Rechtsgeleerdheid van de UvA. “Feitelijk is AI een hulpmiddel. Het kan arts én patiënt helpen door bijvoorbeeld een snellere en betere informatievoorziening. Maar net als een geneesmiddel moeten ook AI-producten voor de introductie laten zien dat ze deugdelijk en betrouwbaar zijn. Vanuit het recht kun je duidelijke kwaliteits- en veiligheidseisen formuleren. Dat zie ik ook als een belangrijke waarborg voor de introductie van nieuwe zorgtechnologie in de praktijk.”
Het recht kent een aantal thema’s die als richtlijn voor AI-introducties kunnen dienen. In haar oratie noemde Ploem naast het hierboven al genoemde kwaliteit en veiligheid van zorg ook informed consent, zeggenschap over eigen gegevens en het tegengaan van commercialisering. “Voor patiënten is het essentieel dat ze zeggenschap blijven houden over wat er met hen gebeurt”, zegt ze.
“AI kan daar een positieve rol in spelen, maar wat gebeurt er met mensen die minder goed overweg kunnen met AI-tools, zoals een smartwatch die gebruikt maakt van AI? Doordat zorgtechnologie steeds meer inzet op preventie en vroege diagnostiek bestaat de kans op ongewenste medicalisering van de samenleving en een steeds autonomere rol van de diagnostiek in het zorgproces. Het is echt zaak dat de arts, ondanks alle AI-hulp, medisch eindverantwoordelijk blijft. Dat hij de belangrijke besluiten niet overlaat aan een chatbot, maar die zelf neemt in persoonlijk overleg met de patiënt.”
“Voor patiënten is het essentieel dat ze zeggenschap blijven houden over wat er met hen gebeurt”
Corette Ploem
Sterkere positie arts
Dat AI de medische wereld snel ingrijpend zal gaan wijzigen, daarvan is vrijwel iedereen overtuigd. AI schrijft inmiddels onderzoeksartikelen, checkt medische artikelen van onderzoekers (peer review) en lijkt ook de opleiding tot arts fundamenteel te veranderen. Is straks het stellen van de juiste vragen aan ChatGPT voldoende om een goede arts te kunnen zijn? “Ik zou dat een heel gevaarlijke ontwikkeling vinden en verwacht dat ook niet”, zegt Vinkers. “Ik zie eerder een verschuiving van kennis en expertise naar meer interpretatie, de context beoordelen en kritisch nadenken. Als AI je ondersteunt, komt het aan op wat je ermee doet, hoe je de informatie weegt, en dat je AI-toepassingen gebruikt die aantoonbaar betrouwbaar zijn. AI kan je helpen om keuzes te maken, maar je moet zelf blijven nadenken. Vergelijk het met de richtlijnen die aangeven wat je kunt doen; daar zijn artsen ook niet minder van geworden. Ik zie goed geïmplementeerde AI eerder als een versterking van de positie van de arts dan als een verzwakking.” •
Christiaan Vinkers
EvidenceHunt wil AI op een goede manier inzetten om te zorgen dat artsen en wetenschappers uit de vele bronnen snel hun informatie vinden.”
Om de mogelijkheden van het systeem te illustreren geeft Vinkers twee recente toepassingen. “Bijwerkingencentrum Lareb signaleert in de dagelijkse praktijk risico’s en bijwerkingen van geneesmiddelen. Voor een deel gebeurt dat door handmatig de medische literatuur door te spitten. We hebben daarvoor een model ontwikkeld en vervolgens aangetoond dat het betrouwbaarder was dan handmatig zoeken. Lareb maakt nu gebruikt van dit specifieke model in de praktijk. Recentelijk kregen we ook de vraag of het mogelijk is de medische literatuur te ‘ondervragen’ op niet-zinvolle behandelingen die beter gestopt kunnen worden. Dergelijke behandelingen kun je waarschijnlijk beter stoppen. Op basis van dat criterium is het mogelijk om zinnige zorg beter en sneller scherp te krijgen.”
PubMed is een gratis toegankelijke databank waar vrijwel alle medische publicaties in terechtkomen, maar is niet makkelijk in gebruik. “Wij wilden die publicaties snel, transparant en betrouwbaar beschikbaar maken met AI”, zegt Vinkers, “zodat een arts heel gemakkelijk de informatie kan vinden die hij nodig heeft. Dat doe je niet door PubMed in een grabbelton te gooien, maar door een programma met algoritmes te bouwen dat met dergelijke vragen overweg kan, en transparant en betrouwbaar antwoord geeft.”
Aanvankelijk was EvidenceHunt vooral gebaseerd op PubMed, maar stap voor stap wordt het programma uitgebreid met andere medische informatie zoals (inter)nationale richtlijnen, ziekenhuisprotocollen, lopend onderzoek waarvan de resultaten binnenkort gepubliceerd worden, enzovoort. “We willen het zo inrichten dat je er uiteindelijk je eigen persoonlijke digitale boekenkast van kunt maken waarin je alles snel kunt terugvinden. Interactief, en met automatische inhoudelijke updates die je op maat kunt instellen. Er is een grote behoefte aan betrouwbare innovatie om de tsunami aan informatie behapbaar te houden.
Een betrouwbare chatbot
Psychiater Christiaan Vinkers (hoogleraar Stress en veerkracht) gebruikt een vorm van AI die lijkt op ChatGPT (Chat Generative Pre-trained Transformer). ChatGPT is een AI-chatbot die is getraind door grote taalmodellen. Daardoor kan ChatGPT vragen beantwoorden die klinken alsof ze door mensen zijn gegenereerd. Vinkers en collega’s ontwikkelden EvidenceHunt, een programma dat hetzelfde doet, maar dan met betrouwbare bronnen die transparant antwoord geven, zoals wetenschappelijke databases zoals PubMed en richtlijnen.
Asselbergs wil daarom vooral een betróuwbare tool voor hartfalen bouwen en doet dat onder meer door niet alleen (patiënt)gegevens uit Europese landen mee te nemen. Ook ziekenhuizen, artsen en patiënten uit Peru en Tanzania zijn bij het ontwerp betrokken, waardoor het programma meer sociale en etnische verschillen en meer context bevat. “We gebruiken een vorm van federatief leren, waardoor we heel veel uiteenlopende factoren in een gezamenlijk model kunnen stoppen zonder dat de data hiervoor het ziekenhuis hoeven te verlaten om zo de privacy te waarborgen. Daar voegen we ook een zogenoemd AI-paspoort toe, dat transparant maakt waar de kennis of adviezen op zijn gebaseerd. Uiteindelijk willen we het gebruiken om clusters van patiënten te onderscheiden, die bijvoorbeeld weinig of juist intensief moeten worden behandeld. Voor een verbetering in de zorg die mogelijk ook nog goedkoper uitvalt.”
oogleraar en cardioloog Folkert Asselbergs werkt aan zo’n concrete toepassing. Hij ontwikkelt met een Europese subsidie een AI-programma voor hartfalen. Wereldwijd hebben ruim 60 miljoen mensen hartfalen en dat aantal wordt alleen maar groter. Een goede individuele behandeling op maat is van groot belang, maar ook uitermate moeilijk omdat het zo’n heterogene ziekte is. Asselbergs: “Kortademig, sneller moe en eerder vocht vasthouden zijn symptomen van hartfalen, maar de onderliggende oorzaak, en daarmee ook de prognose, kan sterk verschillen. Bij de een spelen erfelijke factoren een grote rol, de ander heeft een hartaanval doorgemaakt, en weer iemand anders heeft hartfalen ontwikkeld door langdurig bestaande hoge bloeddruk; het kunnen allemaal oorzaken zijn waarom iemands hart minder bloed rondpompt en de symptomen ontstaan. Toch behandelen we alle vormen op dezelfde manier.”
Hulpmiddel voor besluitvorming
Asselbergs gebruikt AI om slimme regels (algoritmes) te ontwerpen die de enorme gegevensstroom vanuit verschillende databronnen kunnen ordenen om inzicht te krijgen in de prognose en de onderliggende oorzaken. “AI brengt de precisiegeneeskunde en data gedreven werken weer wat dichterbij. Je gaat van een gemiddelde behandeling voor een gemiddelde patiënt naar een behandeling die meer op de individuele patiënt is toegesneden. Dat is een mooi punt op de horizon.”
Een AI-programma voor hartfalen als clinical decision support tool - een middel dat de arts helpt bij zijn klinische besluitvorming – biedt grote voordelen, maar kan ook nadelig uitpakken als algoritmes niet goed zijn ontworpen. Asselbergs noemt een Amerikaans programma dat voorspelde welke patiënt een hoog risico had op een ziekenhuisopname. “Zwarte mensen hadden daar een veel lager risico dan witte mensen. Waarom? Omdat ‘zorggebruik’ in het algoritme zat en in Amerika gebruiken zwarte mensen gemiddeld minder zorg door verschillende socio-economische redenen. Met zo’n algoritme kun je eigenlijk niks in de klinische praktijk.”
Kunstmatige Intelligentie (AI) is aan een ongekende opmars bezig, ook in de medische wereld. Zoals elke tool, is AI een gereedschap dat zijn echte waarde vooral laat zien in de concrete toepassingen. De kansen zijn enorm, maar het afbreukrisico ook. Betrokkenheid vanuit de zorg is daarom essentieel.
Tekst: Pieter Lomans • Foto: Marieke de Lorijn
Folkert Asselbergs
AI-programma’s voor het herkennen van ziektes, chat-programma’s zoals ChatGPT, robotgeassisteerde operaties, nieuwe en effectievere medicijnen ontwikkelen met Big Data, de mogelijkheden buitelen over elkaar heen. Vrijwel altijd beloven dergelijke programma’s de toegankelijkheid van de zorg te vergroten, de kwaliteit te verbeteren en de kosten te verlagen, maar toch worden ze nu soms zonder veel kennis van de medische wereld door de Big Tech geïntroduceerd. In vakbladen als STAT News en The New England Journal of Medicine nemen medici stelling en stellen ze dat de beroepsgroep een veel grotere rol in de AI-ontwikkeling moet gaan spelen.
“Van oudsher liepen universiteiten en UMC’s voorop in innovatie en kennisontwikkeling en volgde de industrie met nieuwe producten, zoals bijvoorbeeld de farmaceutische industrie”, zegt Folkert Asselbergs. “Momenteel lopen we in de AI echt achterop en het zou goed zijn als universitaire instellingen waaronder Amsterdam UMC weer meer de inhoudelijke regie gaan voeren om te waarborgen dat AI op een verantwoorde en zinvolle manier wordt ingevoerd binnen de gezondheidszorg. Overigens zullen publiek-private samenwerkingen altijd noodzakelijk zijn voor een wijdverbreide succesvolle implementatie van nieuwe innovaties binnen en buiten Amsterdam UMC om de zorg op hoog niveau te kunnen blijven leveren en personeel te ontlasten.”
Sterkere positie arts
Dat AI de medische wereld snel ingrijpend zal gaan wijzigen, daarvan is vrijwel iedereen overtuigd. AI schrijft inmiddels onderzoeksartikelen, checkt medische artikelen van onderzoekers (peer review) en lijkt ook de opleiding tot arts fundamenteel te veranderen. Is straks het stellen van de juiste vragen aan ChatGPT voldoende om een goede arts te kunnen zijn? “Ik zou dat een heel gevaarlijke ontwikkeling vinden en verwacht dat ook niet”, zegt Vinkers. “Ik zie eerder een verschuiving van kennis en expertise naar meer interpretatie, de context beoordelen en kritisch nadenken. Als AI je ondersteunt, komt het aan op wat je ermee doet, hoe je de informatie weegt, en dat je AI-toepassingen gebruikt die aantoonbaar betrouwbaar zijn. AI kan je helpen om keuzes te maken, maar je moet zelf blijven nadenken. Vergelijk het met de richtlijnen die aangeven wat je kunt doen; daar zijn artsen ook niet minder van geworden. Ik zie goed geïmplementeerde AI eerder als een versterking van de positie van de arts dan als een verzwakking.” •
Corette Ploem
“Voor patiënten is het essentieel dat ze zeggenschap blijven houden over wat er met hen gebeurt”
“AI kan daar een positieve rol in spelen, maar wat gebeurt er met mensen die minder goed overweg kunnen met AI-tools, zoals een smartwatch die gebruikt maakt van AI? Doordat zorgtechnologie steeds meer inzet op preventie en vroege diagnostiek bestaat de kans op ongewenste medicalisering van de samenleving en een steeds autonomere rol van de diagnostiek in het zorgproces. Het is echt zaak dat de arts, ondanks alle AI-hulp, medisch eindverantwoordelijk blijft. Dat hij de belangrijke besluiten niet overlaat aan een chatbot, maar die zelf neemt in persoonlijk overleg met de patiënt.”
Prioriteit moet bij patiënt en arts blijven
Niet elk AI-product of -programma kan overigens zomaar worden ingevoerd (zie kader), zegt Corrette Ploem, die eerder dit jaar werd benoemd tot bijzonder hoogleraar Recht, zorgtechnologie en geneeskunde aan de Faculteit der Rechtsgeleerdheid van de UvA. “Feitelijk is AI een hulpmiddel. Het kan arts én patiënt helpen door bijvoorbeeld een snellere en betere informatievoorziening. Maar net als een geneesmiddel moeten ook AI-producten voor de introductie laten zien dat ze deugdelijk en betrouwbaar zijn. Vanuit het recht kun je duidelijke kwaliteits- en veiligheidseisen formuleren. Dat zie ik ook als een belangrijke waarborg voor de introductie van nieuwe zorgtechnologie in de praktijk.”
Het recht kent een aantal thema’s die als richtlijn voor AI-introducties kunnen dienen. In haar oratie noemde Ploem naast het hierboven al genoemde kwaliteit en veiligheid van zorg ook informed consent, zeggenschap over eigen gegevens en het tegengaan van commercialisering. “Voor patiënten is het essentieel dat ze zeggenschap blijven houden over wat er met hen gebeurt”, zegt ze.
Corrette Ploem