Opmars van AI in de zorg

Civis Mundi Digitaal #154

door Maarten Rutgers

De afgelopen jaren is duidelijk geworden dat de voortgang van kunstmatige intelligentie, verder AI, onstuitbaar is. Op het WEF in Davos van 2025 is er volop aandacht voor. Op steeds meer terreinen wordt dit ingezet, veelal zonder dat de gebruiker er weet van heeft. Ook blijven waarschuwende vingers opgestoken worden. In Civis Mundi is op verschillende manieren in meerdere artikelen (CM 39, 58, 78, 117, 123, 126, 136, 141) aandacht aan het fenomeen besteed. In het onderhavige artikel ga ik uitsluitend in op het gebruik van kunstmatige intelligentie in de zorg. De vele toepassingen in het kader van de surveillance, evenals de uitwassen van het gebruik van digitale hulpmiddelen, en de ethische aspecten ervan, zijn in de serie over dystopische romans (CM 121 t/m 126, 131, 137, 145, 146) al uitvoerig aan de orde geweest.

Het Regeerprogramma van het Kabinet Schoof gaat er in het kader van de aanpak voor de zorg ruim op in[1]. De huidige minister van VWS Fleur Agema is enthousiast en wijst er bij herhaling op dat AI vele problemen in de zorg gaat oplossen. Het zou een panacee kunnen zijn. Hoewel niet kan worden ontkend dat op veel plekken in de zorg initiatieven worden ontplooid om met behulp van AI tot vernieuwingen, verbeteringen – bij voorbeeld minder fouten maken bij diagnostiek en behandeling – en vooral minder administratiedruk te komen, zijn de resultaten nog steeds niet om over naar huis te schrijven.

De vraag is of hier wensdenken aan de orde is of feitenkennis? De reacties uit het veld zijn ambigue. Kenners van de materie vinden de minister veel te optimistisch. Ervaringsdeskundigen zijn zeer sceptisch. De huidige stand van zaken is zeker niet op alle terreinen van de zorg bemoedigend. Dit past geheel en al bij de situatie op bijna alle terreinen, waar AI een gouden toekomst wordt voorspeld.

De hoeveelheid literatuur over AI en gezondheidszorg is langzamerhand niet meer te overzien. Dit betekent enerzijds vraagtekens bij inhoud en kwaliteit van de publicaties, anderzijds beperkingen bij het bespreken van ontwikkelingen. In het onderhavige artikel ga ik dan ook slechts op enkele aspecten van het gebruik van AI in de zorg in, waarbij het vooral om de LLM’s (Large Language Models)[2] gaat.

 

Regeerprogramma

Het hoofdstuk ZORG in het Regeerprogramma start met mooie woorden: “De toegang tot zorg wordt gelijkwaardiger. Je urgentie wordt leidend. Het afwenden van onbeheersbare arbeidsmarkttekorten heeft grote prioriteit en we gaan voor een gezonder en fitter Nederland.” Er zal veel tegelijkertijd worden aangepakt. Mooie voornemens zijn het zeker, maar papier is altijd geduldig. Bij het bespreken van het tweede thema ‘Afwenden van een onbeheersbaar arbeidsmarkttekort’ zet het Kabinet in op drie terreinen. Als eerste het “halveren van de administratietijd in 2030.” Als tweede “de juiste inzet van medewerkers” en als derde “vergroten vakmanschap en werkplezier.” Geen grote nieuwigheden en al enige jaren de inzet van vele zorginstellingen. In dit artikel beperk ik mij tot het eerste punt, omdat slechts hierbij gesproken wordt over AI. Dit betekent niet dat de andere twee punten onbelangrijk zijn. Integendeel. Ook de manier waarop de regering daarmee om wil gaan, levert genoeg stof tot discussie.

Het terugdringen van administratietijd is een deel van de oplossing voor de steeds toenemende bureaucratie. Een belangrijk deel is het steeds uitdijende oerwoud aan regels, waarin vastlegging en documentatie van de processen in de zorg wordt verlangd.

In het Regeerprogramma wordt erop gewezen dat een halvering van administratietijd een teruggang betekent van 40 naar 20% van de werktijd. Hoe het in werkelijkheid gesteld is met de hoeveelheid tijd die aan administratieve taken wordt besteed is niet duidelijk. De gepresenteerde cijfers zijn allemaal schattingen op basis van eigen opgaven van een (zeer) beperkt aantal geënquêteerden[3].

Duidelijk is dat er grote onvrede heerst onder de zorgverleners. Niet voor niets verscheen in 2015 het ‘Manifest van de Bezorgde Huisarts’ Het Roer Moet Om[4], organiseerden de VvAA en de huisartsen het programma [Ont]regel de zorg, hetgeen overgenomen is door het ministerie van VWS[5], en verscheen er sindsdien enkele malen een On(t)regelmonitor[6].

Het Regeerprogramma loopt over van enthousiasme: “Revolutionair zijn de mogelijkheden die generatieve kunstmatige intelligentie (AI) in de zorg heeft.” (p. 68) Vervolgens worden enkele voorbeelden van de inzet van AI nader besproken, zoals het samenvatten van een dossier en het genereren van conceptbrieven/e-mails. Tevens wordt in één zin gemeld: “Diagnostische AI wordt van een medisch-ethisch kader voorzien.” (p. 68) Het klinkt allemaal te mooi om waar te zijn. Dat wordt door deskundigen dan ook bevestigd. Door alleen in te zetten op AI worden nuttige en haalbare andere oplossingen niet gezocht, laat staan gevonden.

Ook dient de overheid zich te realiseren dat ook bij AI de kost voor de baat uitgaat. Invoering van AI in de zorg gaat de eerste jaren gepaard met een stijging van de kosten. Wat het dan op langere termijn gaat opleveren is onduidelijk[7]. Overigens heeft de minister aangegeven dat zij mogelijkheden ziet, omdat “voor digitalisering grote potten geld beschikbaar zijn.”[8] Hierbij denkt zij (naar alle waarschijnlijkheid) alleen aan de invoeringskosten en niet eveneens aan de gebruikskosten. De drie andere kostensoorten, productiekosten, milieukosten en opportuniteitskosten zijn voor gebruikers niet (direct) zichtbaar en worden door hen dan ook niet meegenomen in hun overwegingen.[9]

 

Voorspellingen

In december 2024 publiceerde de afdeling Health van het internationale uitgeversbedrijf Wolters Kluwer een serie voorspellingen van hun bij de gezondheidszorg betrokken managers[10]. Deze zijn uitstekend op de hoogte van de ontwikkelingen op het terrein van AI voor de gezondheidszorg. Het rapport levert een fraaie opsomming van mogelijk geachte nieuwe ontwikkelingen. Sommige lijken in 2025 al realiseerbaar, andere nog niet. Het is opvallend hoe positief de managers zijn, terwijl er in veel gevallen geen enkel zicht is op realisatie van hun voorspellingen. Ook hier verwacht men veel van digitalisering bij het terugdringen van personeelstekorten, bij het voorkomen van uitval van personeel en in de ondersteuning van personeel op de werkvloer bij de uitvoering van hun taken. Kwantitatieve gegevens ontbreken. Daarnaast hoopt men kwaliteitsverbetering te zien in zorgprocessen.

Het enthousiasme waarmee aangekondigd wordt dat de administratieve lasten zullen dalen is gebaseerd op het gebruik van AI in het stroomlijnen van werkprocessen. De uitvoering is echter ingewikkeld, omdat dit verlangt dat AI gebruik kan maken van bestaande patiëntgerichte datasystemen, nog daargelaten de privacyvraagstukken.

Ook in de relevante internationale literatuur over AI in de gezondheidszorg worden veelbelovende perspectieven geboden. In hoeverre hier alleen maar sprake is van wishfull thinking blijft een open vraag. Kritische kanttekeningen zijn er te over[11].

 

Terugdringen personeelstekort

De digitalisering in de zorg schrijdt voortvarend voort. Er gebeurt van alles, zoals de mogelijkheid per e-mail met je zorgverlener te communiceren, je eigen medische dossier inzien, monitoring thuis, om enkele voorbeelden te noemen. Voordelen zijn  er zeker zijn, zoals bijvoorbeeld meer tijd voor patiënten, minder reistijd, maar onduidelijk blijft in hoeverre deze feitelijk ook minder werkdruk betekenen en bijdragen aan het oplossen van het personeelstekort.

Adviesburo SiRM deed onderzoek voor het ministerie van VWS[12]. Het onderzoek richtte zich met name op “digitale zorgtoepassingen voor diagnosestelling (software en digitale hulpmiddelen), behandeling (software en sensoren) en verpleging (sensoren en digitale hulpmiddelen).” (P. 7). Bij de juiste inzet van de middelen zou dit tot een tijdbesparing kunnen leiden in 2028, die “mits doelmatig ingezet… een mogelijke productiviteitsverbetering van 27 duizend fte” zou kunnen opleveren. Hiermee zou “ongeveer een kwart van het verwachte arbeidsmarkttekort in 2028” zijn opgelost. (p. 8). Te bedenken valt dat er enerzijds op veel meer terreinen in de zorg een digitaliseringsslag mogelijk is, anderzijds in het onderzoek slechts van een beperkte inzet van de al bestaande en te verwachten mogelijkheden sprake is. Dit zou het personeelstekort nog meer kunnen terugdringen. Daarnaast zouden er nog andere voordelen te behalen zijn.

Er kwam direct kritiek. Een van de criticasters wijst erop, dat het rapport “qua opbouw een technocratisch rapport met een beperkte en specifieke invalshoek is.” [13] Zo is er meer commentaar, waaruit afgeleid kan worden dat het veld, maar ook ter zake deskundigen, de conclusies niet overneemt. Hooguit zijn er enkele aandachtspunten die van belang kunnen zijn. De berekende besparing – zonder rekening te houden met de ermee gemoeide kosten – zijn dan ook als niet realistisch te duiden.

Gelet op de wereldwijde literatuur is het nog te vroeg om te zien of de beoogde en voorspelde oplossing voor het personeelstekort met inzet van AI er werkelijk aan komt. Harde resultaten zijn er (nog) niet. Voorlopig klagen de zorgmedewerkers (nog) over het toenemen van de werkdruk, van administratieve lasten, danwel over problemen met de digitalisering[14]. Weinig tot geen aandacht is er voor het feit dat er voor het draaiende houden van de digitale hulpmiddelen opnieuw meer personeel verlangd wordt. Nu vooral op afdelingen automatisering of ICT. Het legt in die zin geen beslag op directe zorgmedewerkers.

Ook moet niet vergeten worden dat technologische oplossingen niet zonder mensen tot stand kunnen komen. Overigens in belangrijke mate mensen buiten de zorg. Technologie zonder mensen gaat uiteindelijk niet. James Fleck, hoogleraar Technology Development, Innovation, Enterprise aan de Universiteit van Edinburgh schrijft dan ook[15]: “Zonder menselijke ondersteuning faalt technologie altijd… Deze technologieën [AI en robots] zijn in hoge mate afhankelijk zijn van menselijke betrokkenheid.”

Kortom, de inzet van AI op diverse terreinen binnen de gezondheidszorg zijn volgens nogal wat uitspraken veelbelovend. Het is voorlopig een in veel gevallen welkome ondersteuning bij beeldvormende onderzoeken[16], hoewel ook daar wel wat op af te dingen valt als je deze publicatie leest[17]. Verder wordt er volop gespeculeerd dat er een grote rol is weggelegd bij de personengerichte zorg, de zorg geheel en al toegespitst op een individuele patiënt.

 

Ethische vraagstukken

Het gebruik van AI brengt ook vragen over ethiek met zich mee[18]. Hoogleraar wijsgerige ethiek en politieke filosofie aan de Radbouduniversiteit te Nijmegen Tamar Sharon wijst al vele jaren in diverse publicaties op wat zij noemt de‘googlisering’ van gezondheidszorgonderzoek[19]. Grote dataverzamelaars als Apple, Meta, Amazon en anderen maken gebruik van deze data om activiteiten in de gezondheidszorg te ontplooien[20]. Hierbij gebruiken zij ook door hen ontwikkelde toepassingen. De ethische overwegingen bij deze handelwijze is op zijn zachtst gezegd niet hun sterkste kant.

Toch geven deze ontwikkelingen ons ook de gelegenheid opnieuw naar de normen van zorg en gezondheid te kijken en “ruimte maken voor andere morele gezichtspunten die in de googlisering van gezondheid vorm krijgen[21].”

Aan de andere kant wordt er gesproken over de morele plicht om AI op de juiste wijze – veilig, doelmatig, rechtvaardig en ethisch – in te zetten[22]. Dit klinkt als een open deur. De werkelijkheid is dat “de toepassingen van AI [in de zorg] ongelofelijk gevarieerd zijn, en het ethisch onderzoek nu moet verschuiven van AI in de gezondheidszorg in het algemeen naar AI per specifieke toepassing in een bepaald klinisch domein”, betogen Maartje Schermer, hoogleraar filosofie van de geneeskunde en bekleder van de leerstoel Health Ethics in a Technological Society aan de Erasmus Universiteit, en Laura Hartman, ‘embedded ethicus’ bij het 4D PICTURE project (https://4dpicture.eu/) met aandachtsgebied ethische aspecten van AI in de zorg[23].

Zij wijzen erop, dat veel veronderstelde voordelen niet te behalen zijn, zoals vermindering van werkdruk. Integendeel het vraagt om meer hulpverleners, in ieder geval artsen! Daarnaast gaan zij in op het feit dat het ontwerpen van digitale toepassingen mensenwerk is en derhalve onlosmakelijk samenhangt met onze waarden en hoe we er mee omgaan. De besprekingen van Guido van der Knaaps Van Aristoteles tot algoritme: Filosofie van de kunstmatige intelligentie in CM 123 en van filosoof Nick Bostroms boek Superintelligence: Paths, Dangers, Strategies, in CM 125, wijzen op vele aspecten van dit probleem.

 

Stand van zaken rond de ethiek van AI

In 2024 verschenen enkele overzichtsartikelen over de stand van zaken van de ethische aspecten van het gebruik van AI in de gezondheidszorg[24]. Hieruit komt naar voren dat de ontwikkelingen in het gebruik van AI veel sneller gaan dan de ethische afwegingen erover. Het roept de vraag op of “het niet noodzakelijk is kritisch onderzoek te doen in hoeverre het huidige experimentele gebruik van LLM’s nodig en gerechtvaardigd is… Inherent aan state-of-the-art LLM’s zijn de risico’s van biases, hallucinaties, en uitdagingen in validiteitsbeoordelingen, betrouwbaarheidstesten en reproduceerbaarheid.”[25] Waar hebben we het hier over?

Het gebruik in de directe patiëntenzorg is voorlopig nog omstreden. AI wordt meestal getraind met andere data dan in de zorg gebruikt worden. Doordat het systeem als een blackbox functioneert is het voor de gebruiker onmogelijk na te gaan of de uitkomst juist is[26]. Het resultaat is ondoorgrondelijk en leidt er derhalve per definitie toe dat de uitkomsten door de gebruiker op hun juistheid gecontroleerd moeten worden. Dit veroorzaakt tijdsverlies, dat in acute situaties ongewenst is. Niet uitgesloten is dat het onmogelijk is de juistheid van het resultaat te controleren en er teruggegrepen moet worden op andere methoden en middelen om uitspraken te kunnen doen.

Daarnaast spelen nog meer problemen. AI levert met enige regelmaat “volstrekt begrijpelijke, geloofwaardige en vertrouwenwekkende resultaten, die feitelijk onjuist zijn in de zin dat zij niet gebaseerd zijn op de data.” Dit laatste noemt men hallucinatie. Een ander probleem is dat ”AI in het algemeen niet in staat is het proces van klinisch redeneren te reproduceren.”

Ook heeft AI last van biases door de keuze van de gebruikte gezondheidszorgdatasets, die meestal tot stand gekomen zijn in Engels sprekende landen. In deze datasets zijn niet alle groepen gelijkmatig vertegenwoordigd. Veelal figureren in wetenschappelijke publicaties meer mannen dan vrouwen en ontbreken kwetsbare groepen en sommige bevolkingsgroepen. Ook data uit andere delen van de wereld ontbreken. Als laatste, de datasets zijn allemaal door menselijk handelen en de ermee gepaard gaande keuzes tot stand gekomen. Ze zijn “niet neutraal of waardevrij.”[27] Kate Crawford, gerenommeerd AI-onderzoeker, zegt in haar Atlas of AI: “Iedere dataset… bevat een wereldbeeld.”[28]

De bovenstaande uitspraken en overwegingen maken duidelijk dat het gebruik van LLM’s tot met grote onzekerheid omgeven of pertinent onjuiste resultaten of adviezen kan leiden. Dit klinkt niet vertrouwenwekkend. Een wat ouder artikel[29] heeft als deel van de titel de vraag: “Who is afraid of black box algorithms?” De principiële vraag is of resultaten van dergelijke systemen wel vertrouwd kunnen worden? Het artikel verwijst ook naar literatuur waarin de suggestie wordt gedaan dergelijke black box algoritmen derhalve uit te bannen in de gezondheidszorg. Duidelijk moet zijn dat er niet blind gevaren kan worden op de resultaten van AI, hoewel ook het tegendeel wordt beweerd19.

 

Rol professional

Ten slotte speelt ook nog de vraag hoe het gesteld is met de verantwoordelijkheid en aansprakelijkheid bij het gebruik van AI. Vooralsnog kan slechts de gebruiker verantwoordelijk en aansprakelijk zijn. De onmogelijkheid na te gaan waar en hoe binnen het AI-model tot een onjuiste conclusie is gekomen – het is immers een blackbox – “blokkeert de ontwikkeling van beschermings- en bewakingsmechanismen die deze situaties tot een minimum zouden kunnen beperken.”16

Het klinkt logisch ook de ontwikkelaars van AI-software verantwoordelijk en aansprakelijk te houden bij missers in uitkomsten. Het zou er zelfs toe kunnen leiden dat er een grotere mate van zorgvuldigheid bij het ontwerpen tot stand komt. Desondanks is hier nog een weg te gaan, niet in het minst vanwege de blackbox.8

Een probleem van andere orde is in hoeverre het uitgebreid gebruikmaken van AI ertoe zal leiden dat de kennis van de professional vermindert.[30] Hierdoor neemt het risico op fouten door het gebruik toe, daar ook de controle op de juistheid van de resultaten ernstig in het geding komt. Los daarvan is uiteindelijk de professional door deze gang van zaken niet meer in staat zonder AI het juiste te doen. Verwacht wordt dat AI nooit volledig autonoom zal functioneren in de zorg, maar alleen ondersteuning zal bieden aan de professionals. Lastig kan de situatie zijn wanneer het benutten van AI tot andere uitkomsten leidt dan de zorgprofessional die zelf volledig aan het roer zit. Dit kan ook tussen twee professionals het geval zijn. In die situatie is er dispuut mogelijk. Discussie met AI-software is een onmogelijkheid. De professional zal hier, wellicht na overleg met een collega, de definitieve keuze moeten maken. Moeilijker wordt het wanneer ook de patiënt meespreekt en deze meer vertrouwen heeft in de AI.8

 

Een enkel onopgelost probleem

Een boeiend vraagstuk is het gebruik van AI-gebaseerde hulpmiddelen die zonder bemoeienis van zorgprofessionals ingezet worden. Hier ligt de verantwoordelijkheid van het gebruik bij de gebruiker zelf. Deze kan slechts terugvallen op de fabrikant van het product bij problemen. Hier is geen sprake van regulatie. Deze markt is in handen van partijen die maar gedeeltelijk in de gezondheidszorg actief zijn of zelfs helemaal niet. Het kan zelfs leiden tot een overmatig gebruik van de gezondheidszorgfaciliteiten, doordat de uitkomsten bij gebruik aanleiding geven tot onrust en de behoefte aan zekerheid. Hoe met deze ontwikkeling omgegaan moet worden is nog onvoldoende uitgekristalliseerd. Het is te kort door de bocht de gebruiker hier volledig autonoom te zien en zodoende ook verantwoordelijk.

Anders ligt het bij monitoring onder leiding van zorgprofessionals. Daar is een ander probleem aan het ontstaan. Er worden in toenemende mate real-time data verzameld van een groter wordend aantal mensen. Enerzijds kan op grond van de analyse van deze data (wellicht) gekomen worden tot een betere inschatting van risico’s voor de gezondheid en daarmee ook betere behandelingsmogelijkheden. Anderzijds neemt de bio-surveillance toe en daarmee het risico op de door Foucault, Agamben, Juli Zeh en anderen zeer kritisch beoordeelde biopolitiek (Zie bv. mijn artikelen in CM 100, 104 en 127).

 

Ten slotte

De paarse krokodil waar niemand het over heeft, zeker de regering niet, is het milieueffect van AI doordat “LLM’s gigantische datavreters zijn” en dus een zeer groot energieverbruik hebben. Men doet alsof dat er niet is. Het is intussen duidelijk, ook aan de bouw in Nederland en daarbuiten, van grote datacenters dat zij een extreem groot beroep doen op de energieopwekking en veelal een eigen stroomopwekking realiseren. De CO2-uitstoot is navenant[31].

Het moge duidelijk zijn dat hoewel AI steeds verder doordringt in de praktijk van de zorg er meer dan genoeg vraagstukken zijn die om een oplossing vragen[32]. Het voorspellen van de toekomst is niet eenvoudig, maar het vigerende enthousiasme waarmee de inzet van AI in de zorg omgeven wordt en ons gouden bergen beloofd worden, is al te voorbarig.

 

Noten


[1]      Ministerie van Algemene Zaken: Regeerprogramma Kabinet-Schoof,13 september 2024(www.rijksoverheid.nl/regering/regeerprogramma

[2]   Large Language Models is de naam van de AI-programma’s, zoals ChatGPT.

[3]      Kleijne, I.: Administratie vergt 40 procent van tijd specialist. Medisch Contact, 18. November 2017

Value Care: Zorgmedewerkers willen administratie op z’n minst halveren. Juli 2023 (https://valuecare.nl/nieuws/2023/07/zorgmedewerkers-willen-administratie-op-zn-minst-halveren)

Kersemaker, N., Braam, G.: Meer tijd voor zorg door anders administreren. Berenschot, 5 september 2024 (www.berenschot.nl/artikelen/meer-tijd-voor-zorg)

[4]      Manifest van de bezorgde huisarts: Het roer moet om! 15 juni 2015. (https://hetroermoetom.nu/index.html)

[5]   [Ont]regel de zorg. (https://www.ordz.nl/)

[6]      VVAA.: Nationale (Ont)regelmonitor 2023: vermindering administratielast blijft achter. 18 december 2023 (https://www.vvaa.nl/nieuws-en-kennis/nieuws-en-artikelen/nationale-ontregelmonitor-2023)

[7]      Mirck, A.: ‘Agema’s AI-ambities hinderen verandering in de zorg’. DutchHealthHub, 27 september 2024 (https://www.dutchhealthhub.nl/artikelen/agemas-ai-ambities-hinderen-verandering-in-de-zorg)

[8]      Baltesen, F.: Agema: ‘Meer geld naar AI in zorg’. Skipr, 7 augustus 2024 (https://www.skipr.nl/nieuws/agema-meer-geld-voor-ai-in-de-zorg/)

[9]      Fulterer, R.: Zwei Jahre Chat-GPT: Der Hype hinterlässt ein nur mässig nützliches Werkzeug – und jede Mengen Kosten. NZZ, 25 november 2024 (https://www.nzz.ch/meinung/zwei-jahre-chat-gpt-der-hype-hinterlaesst-ein-nur-maessig-nuetzliches-werkzeug-und-jede-menge-kosten-ld.1856975)

[10]   Wolters Kluwer Health: Driving momentum in healthcare technology amid dramatic change. 17 december 2024 (www.wolterskluwer.com/en/expert-insights/driving-momentum-in-healthcare-technology-amid-dramatic-change)

[11]   Mennella., C. et al.: Ethical and regulatory challenges of AI technologies in healthcare: A narrative review. Heliyon 10(4):e26297, 29 februari 2024 (https://doi.org/10.1016/j.heliyon.2024.e26297)

[12]   SiRM: Geschat potentieel digitale zorg – Onderzoek naar opbrengsten digitalisering van zorg. Utrecht, Oktober 2023

[13]   Huijsman, J.J.: SiRM – rapport over digitalisering roept vragen op. Nieuwsbrief Zorg & innovatie. 28 maart 2024 (https://nieuwsbriefzorgeninnovatie.nl/sirm-rapport-over-digitalisering-roept-vragen-op/)

[14]   Jongsma, K.R., Sand, M. & Milota, M. Why we should not mistake accuracy of medical AI for efficiency. npj Digit. Med. 7: 57, 2024 (https://doi.org/10.1038/s41746-024-01047-2)

[15]   Fleck, J.: The Fragility of Technology. Academia Letters, Article 5275, 2022.

(www.academia.edu/81245870/The_Fragility_of_Technology)

[16]   Olawade , D.B. et al: Artificial intelligence in healthcare delivery: Prospects and pitfalls. J. Med. Surg. Public Hlth. 3:100108, 2024 (https://doi.org/10.1016/j.glmedi.2024.100108)

[17]   Hill, B.G., Koback, F.L. & Schilling, P.L. The risk of shortcutting in deep learning algorithms for medical imaging research. Sci Rep 14, 29224, 2024 (https://doi.org/10.1038/s41598-024-79838-6)

Newsroom: AI thought X-rays of your knees show if you drink beer – they don’t. 9 december 2024 (https://www.dartmouth-health.org/about/news/article/ai-thought-x-rays-your-knees-show-if-you-drink-beer-they-dont)

[18]   Ik ga hier niet in op het duidelijk gedefinieerde begrip ethische AI. Toch zijn er door diverse organisaties richtlijnen of uitgangspunten hiervoor gepubliceerd. Er bestaat de nodige discussie over. Zie bv. Jobin, A.: Ethische Künstliche Intelligenz – von Prinzipien zu Prozessen. In: Hengstschläger, M. & Rat für Forschung und Technologieentwicklung.: Digitaler Wandel und Ethik: 144-159, Ecowin Verlag, Sals bei Salzburg, 2020

[19]   Sharon, T.: The Googlization of Health Research: From disruptive innovation to disruptive ethics. Personalized Medecine 13 (6): 563-574, 2016 (doi: 10.2217/pme-2016-0057)

Sharon, T.: Beyond privacy: there are wider issues at stake over BigTech in medicine. openDemocracy, 2 februari 2022 (https://www.opendemocracy.net/en/technology-and-democracy/beyond-privacy-there-are-wider-issues-at-stake-over-big-tech-in-medicine/)

[20]   Trigt, M. van: Grote techbedrijven infiltreren in de medische sector en dat is een kwalijke zaak. Volkskrant, 1 juli 2022

[21]   Sharon, T.: De Googlisering van gezondheid. Vijandige werelden of meervoudige domeinen?Wijsgerig Perspectief op Maatschappij en Wetenschap, 59 (4): 32-41, 2019

[22]   Fuchs, T.J.: AI in Healthcare – A moral Obligation. In: Oberst, J. (Hrsg.): Frontiers of Medical Research: Artificial Intelligence: 4-5, 2023

[23]    Schermer, M. & Hartman, L.: Bij elke fase van training en inzet van een AI-model zijn menselijke waarden betrokken. Nieuwsbrief Zorg & innovatie, 17 oktober 2024 (https://nieuwsbriefzorgeninnovatie.nl/bij-elke-fase-van-training-en-inzet-van-een-ai-model-zijn-menselijke-waarden-betrokken/)

[24]   Het leek het meest relevant recente literatuur te benutten.

[25]   Haltaufderheide, J., & Ranisch, R.: The ethics of ChatGPT in medicine and healthcare: a systematic review on Large Language Models (LLMs). npj Digit. Med. 7, 183, 2024 (https://doi.org/10.1038/s41746-024-01157-x)

[26]    Marques, M., Almeida, A., Pereira, H.: The Medicine Revolution Through Artificial Intelligence: Ethical Challenges of Machine Learning Algorithms in Decision-Making. Cureus 16(9):e69405, 14 september 2024 (doi: 10.7759/cureus.69405)

[27]   Frank, A., Gleiser, M. & Thompson, E.: The Blind Spot. Why Science Cannot Ignore Human Experience. MIT Press, Cambridge (Mass.), 2024

[28]   Geciteerd in: Frank, A., Gleiser, M. & Thompson, E.: The Blind Spot. Why Science Cannot Ignore Human Experience. MIT Press, Cambridge (Mass.), 2024, P.177

[29]   Durán, J.M. & Jongsma, K.R.: Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI. J Med Ethics 47:3 29–335, 2021 (https://doi.org/10.1136/medethics-2020-106820)

[30]   Fogo, A.B., Kronbichler, A., Bajema, I.M.: AI’s Threat to the Medical Profession. JAMA 331 (6): 471-472, 2024 (doi:10.1001/jama.2024.0018)

[31]   Poel, Ph. Van de: Kabinet schrijft zorg AI voor maar vergeet de bijsluiter. DutchHealthHub, 17 september 2024 (https://www.dutchhealthhub.nl/artikelen/kabinet-schrijft-zorg-ai-voor-maar-vergeet-bijsluiter)

[32]  Bedi, S., Liu, Y. & Orr-Ewing, L., et al.: Testing and Evaluation of Health Care Applications of Large Language Models: A Systematic Review. JAMA 333(4):319–328, 2025 (doi:10.1001/jama.2024.21700)