A.I. IN DE ZORG: WAAR GAAT HET NAARTOE?

Robots die in opstand komen, mensen manipuleren, domineren en zelfs massaal uitschakelen. Dit zijn beelden die in verhaallijnen rond artificiële intelligentie (A.I.) vaak naar voor komen. ‘2001: A Space Odyssey’, ‘The Terminator’, ‘The Matrix’, en ‘Ex Machina’ zijn slechts enkele voorbeelden die in ons collectief geheugen gebrand zijn. Het is niet verwonderlijk dat de evolutie van A.I. in de zorg voor velen als schrikwekkend overkomt. Toch wordt deze innovatie een onmiskenbaar deel van de zorgpraktijk en doen we er goed aan na te denken over de ethische randvoorwaarden.

In de vorige editie werd het ADAM-project toegelicht. ADAM staat voor Advanced Data-Aided Medicine. In het onderzoeksproject wil men nagaan of data uit patiëntendossiers, artsennota’s, wearables en digitale vragenlijsten gebruikt kunnen worden als input voor voorspellende A.I.-modellen. Zo’n model zou artsen in de toekomst kunnen ondersteunen bij besluitvorming rond complexe behandelplannen.

Artificiële intelligentie verwijst naar computersystemen die zelfstandig kunnen leren, beslissingen nemen en uitvoeren (De Ketelaere, 2020). Het grote voordeel van A.I. is dat het een hulpmiddel kan zijn voor taken die ‘dangerous, dull, dirty, difficult’ zijn (de 4 D’s) en daarbij de menselijke cognitieve limieten overschrijden wat betreft snelheid, veelheid en complexiteit van dataverwerking. Dit schept het vooruitzicht op getrainde algoritmes die meer correcte en precieze voorspellingen genereren. Dergelijke verfijnde uitkomsten zijn een hefboom voor waardengedreven zorg. Tegelijk boezemt de artificiële kracht velen angst in: hoe kunnen we een technologie beheersen en controleren als we de complexiteit ervan niet eens helemaal kunnen vatten?

GARBAGE IN, GARBAGE OUT Bij gebruik van A.I. ter ondersteuning van medische besluitvorming zijn er effectief een aantal risico’s die in acht genomen moeten worden. Voor de hand liggende moeilijkheden kaderen binnen de GDPR en hebben te maken met het waarborgen van privacy en de vraag wie eigenaar is van de data. Andere vragen gaan over het risico op fouten in of door het algoritme en de vraag wie de eindverantwoordelijkheid draagt. Pierce et al (2021) waarschuwen voor de effecten van semantische verwarring in A.I. voor medische besluitvorming. Medisch jargon staat bol van vage, subjectieve termen die niet zomaar in eenduidige computertaal omgezet kunnen worden. De auteurs geven o.a. het voorbeeld van het ‘eindstadium’ in nierziekte: de precieze tijdsbepaling kan verschillen onder artsen. Wanneer een individuele arts door zijn interpretatie een suboptimale inschatting maakt, is dat mogelijk een probleem voor zijn patiënt. Echter, als de interpretatiefout ingebouwd wordt in het algoritme, zijn de problemen meteen exponentieel. Het risico op een ingebouwde bias in de data is een ander bekend probleem. Als de inputdata niet voldoende representatief zijn, en bijvoorbeeld onvoldoende data van allochtone populaties bevatten, kan dat voor de ondervertegenwoordigde patiënten misleidende resultaten geven. Het principe ‘garbage in, garbage out’ is essentieel.

COMPUTER SAYS NO Andere auteurs stellen zich de vraag of artsen niet te veel vertrouwen zullen stellen in het imponeerde computersysteem, eerder dan het als een ondersteuning voor de eigen besluitvorming te zien. De vraag rijst ook hoe A.I. de interactie met de patiënt zal beïnvloeden? Zorgt de betere en snellere besluitvorming voor meer tijd voor goede communicatie en overleg met de patiënt? Of schuilt er ook een gevaar dat er nog meer tijd zal gaan naar het opvolgen en registeren van data? Gezien de complexiteit van de materie is het overigens niet eenduidig wat en hoe we communiceren aan patiënten, willen we zijn vrijwillige en geïnformeerde toestemming borgen.

BEGELEIDINGSETHIEK Zoals vaak lopen wetgeving en regulering achter op innovatie. Op dit moment bestaat er geen juridisch kader dat randvoorwaarden en essentiële waarden borgt, al is een wetgeving voor de EU in opmaak. In 2019 publiceerde de EU ethische richtlijnen en een beoordelingslijst om A.I. innovaties tegen het licht te houden. De nadruk lag hierbij op menselijke controle en toezicht, technische robuustheid en veiligheid, privacy en databeheer, transparantie, diversiteit, non-discriminatie en rechtvaardigheid, maatschappelijk en milieu, welzijn en verantwoording. In Nederland is er veel aandacht voor ‘begeleidingsethiek’, waarbij men op zoek gaat naar verantwoorde manieren van technologiegebruik tijdens de evolutie ervan. Ook in AZ Delta vinden we het belangrijk om de discussie over ethisch gebruik van A.I. aan te wakkeren en om maatschappelijke, ethische vragen te verbinden met nieuwe technologie. Een eerste aanzet daartoe geven we op 31 januari tijdens ons symposium ‘Artificiële intelligentie in het ziekenhuis’.

“Het grote voordeel van A.I. is dat het een hulpmiddel kan zijn voor taken die ‘dangerous, dull, dirty, difficult’ zijn.”

- De Ketelaere, G.M. Mens versus machine: artificiële intelligentie ontrafeld. Pelckmans, 2020. - Pierce R, Sterckx S, Van Biesen W. A riddle, wrapped in a mystery, inside an enigma. Bioethics 2021; 1-8. - Kenniscentrum Data & Maatschappij: https://data-en-maatschappij.ai/

MEER INFO An Ravelingien Ethica AZ Delta 051 23 70 87 an.ravelingien@azdelta.be Auteur: An Ravelingien Foto: Unsplash en Shutterstock