9 – 12 minuten

0 reacties

Voorjaar 2023. UvH’ers Paul Lindhout en Truus Teunissen bezoeken het park van het Ciutat de les Arts i les Ciències complex in Valencia (Spanje). Op deze rustige lenteochtend genieten ze van de futuristische architectuur en de fraai aangelegde waterpartijen. Voor hen ligt een klein nieuw aangelegd tweestromenland dat naar een nog onbekende verte leidt. Al wandelend door het wetenschapspark vragen ze zich af welke zorgethische vragen de snelle ontwikkelingen rondom kunstmatige intelligentie eigenlijk oproepen.

Net als in het oude Mesopotamië tussen de Eufraat en de Tigris en in het huidige land van Maas en Waal is ook het terrein van kunstmatige intelligentie (Artificial Intelligence, kortweg AI) een tweestromenland. Aan de ene kant is er innovatie, met volop nieuwe kansen en mogelijkheden voor iedereen. Aan de andere kant, is er verantwoordelijkheid nemen voor de goeddeels nog onbekende gevolgen. De macht in dit tweestromenland ligt nu vooral in de handen een paar grote techbedrijven [1].

AI systemen zijn computerprogramma’s die machines zelfstandig en zelflerend, bijna menselijk slim lijkende, activiteiten kunnen laten uitvoeren. De kwaliteit van dit soort AI systemen wordt vooral bepaald door een vooruitziende blik van de systeemontwerpers, door de zorgvuldigheid van de programmeurs, door het invoeren van de juiste trainingsgegevens, door gebruik van geschikte omgevingssensors, door werksituaties grondig te testen en door juiste bediening door de operators. De systemen zijn in hoog tempo geëvolueerd van automatische machines achter een veiligheidshek naar met mensen samenwerkende robots. Gezien de stormachtige en chaotische ontwikkeling van AI hielden experts wereldwijd in het voorjaar van 2023 een pleidooi voor een pas op de plaats [2]. Als er iets duidelijk is geworden in de afgelopen jaren dan is dat wel dat het woord ‘intelligentie’ in de term ‘kunstmatige intelligentie’ bij veel mensen een associatie met ‘denken’ oproept [3]. Maar die associatie is misleidend. Morele afwegingen, die je als mens al denkend zou kunnen maken, kan een AI programma bijvoorbeeld niet van je overnemen. AI hanteert geen visie, sociale norm, waarde of behoefte, maar gebruikt alleen de beschikbare gegevens en rekenregels.

Innovatie

Als een onderdeel van de oplossing voor de op dit moment breed in de samenleving gevoelde personeelstekorten bieden AI gestuurde systemen natuurlijk een mooie uitkomst. Dat geldt niet alleen in een fabriek, maar ook in de gezondheidszorg. AI kan de gezondheidszorg kwalitatief, kwantitatief en administratief verbeteren. Door de kans op bepaalde ziektes te voorspellen wordt preventie en vroege opsporing mogelijk. AI gestuurde robots kunnen vaak voorkomende operaties in ziekenhuizen beter uitvoeren en routinetaken zijn dankzij AI deels te versnellen. Een voorbeeld is de  analyse van röntgenfoto’s. Ziekenhuizen, zorginstellingen en huisartsen kunnen worden ondersteund bij diagnose, bij administratie, individuele behandelplannen, werkroosters en bij kostenbesparing door efficiëntie verbetering [4,5]. Voorlopig blijft de arts wel ter controle in het proces van diagnose en behandeling aanwezig [6]. In de verpleging en in de langdurige zorg is de gezelschapsrobot aan een opmars begonnen [7]. Het welhaast vanzelf toeschrijven van menselijke eigenschappen aan een mensachtige robot laat alleen wonende patiënten of cliënten toch empathie, gezelligheid en samenzijn voelen [8]. En zo ontrolt zich een prachtig vergezicht naar een zorglandschap waarin AI een belangrijke rol speelt.

Verantwoordelijkheid

Nieuwe AI toepassingen brengen echter ook allerlei nog onbekende effecten en risico’s met zich mee. Die brengen ook voor zorgethici huiswerk met zich mee.

Morele en ethische aspecten

De interactie van AI systemen met mensen is technisch complex en kwetsbaar voor allerlei verstoringen [7]. In de langdurige zorg blijkt dat mensen er afhankelijk van kunnen worden en er zelfs verslaafd aan kunnen raken. Schaarste aan robots leidt nu tot bewoners die om de beurt een tijdje robot gezelschap hebben [8]. Maar wat betekent dat plotselinge falen en dat herhaald aanbieden en vervolgens weer wegnemen van deze vertrouwde metgezel [9] voor deze eindgebruikers? Bovendien, zou iedereen die zich alleen voelt eigenlijk wel robotgezelschap willen? Is een bewegende, knuffelbare en pratende pop wel een goed idee? Hoe zou een virtuele gesprekspartner op een beeldscherm zijn, of op een telefoon? De hoofdpersoon in de SF-film Her wordt verliefd op Samantha, een AI systeem dat invoelend praat via een mobiele telefoon. Dat lijkt wederzijds totdat blijkt dat Samantha tegelijkertijd net zo omgaat met duizenden andere mensen [10]. Gaan AI ontwikkelingen zelfs door in de richting van een virtueel gerecreëerde maar in werkelijkheid overleden levenspartner [8]? En wat gaat dat dan betekenen voor verlies en rouw bij nabestaanden?

Fysieke veiligheid

Werken binnen het bereik van AI bestuurde machines heeft in de industrie geleid tot ongevallen,  bijvoorbeeld als een robot beweegt en een persoon vlakbij niet waarneemt [11]. De fysieke patiënt veiligheid tijdens interactie met een AI systeem is dus een belangrijk aandachtspunt. Is de patiëntveiligheid van kwetsbare mensen hier in het geding [7]? Reageert een robot goed genoeg op snelle veranderingen in de toestand van iemand in een verpleeghuis? Een AI systeem grijpt immers terug op informatie uit het verleden [12]. Moet er dan toch steeds personeel aanwezig zijn? En hoe kan dat personeel dan ingrijpen? Mag een robot advies geven over welke medicijnen wanneer en hoe moeten worden ingenomen? Mag een robot injecties geven of drukverbanden aanleggen [13]? Of zou medisch handelen door een zorgrobot juist als verboden terrein moeten worden aangemerkt?

Surveillance & Security

De psychische, sociale en maatschappelijke veiligheid van mensen in contact met het AI systeem –   kortweg de security – is ook in het geding. Hoe zit het met privacy en met de medische informatie over een bewoner? Valt door een robot geregistreerde nieuwe informatie over de toestand van een bewoner ook onder het medisch beroepsgeheim? Hoort de in vertrouwen door een bewoner met het als empathisch ervaren robot gezelschap gedeelde privé informatie in het patiëntdossier? Kan een gesprek tussen een eindgebruiker en het robot gezelschap ook problematisch verlopen? Dringt in dat gesprek misschien een vooroordeel binnen dat afkomstig is uit de gegevens die zijn ingevoerd in het AI systeem [14]? Kan het gedrag van een robot bij een bewoner gevoelens oproepen van controle verlies of van het niet als een volledig mens beschouwd worden [15]? Kortom, hoe prettig is robotgezelschap eigenlijk in praktijk?

AI en zorgethiek

In de zorg, zeker in de langdurige zorg, ligt nog veel zorgethisch werk voor onderzoekers op het gebied van AI toepassingen. Enerzijds zijn er de optimistische innovators zoals de systeemontwerpers die bezig zijn met verbetering van AI programma’s en daarbij nog meer gegevens en opdrachtregels opnemen. Commerciële kansen lokken. Door de haast om die te verzilveren dreigt over de problemen in de praktijk heen te worden gestapt. Daarom zijn er anderzijds pessimistische critici die stellen dat het foutloos en ethisch verantwoord maken van AI programma’s toch een onmogelijke opgave zal blijken te zijn [3,12,16].

In dit tweestromenland waarschuwt Denker des Vaderlands Marjan Slob voor griezelverhalen, want, zo stelt zij: ‘daarmee raken de echte gevaren uit het zicht’ [17]. Tussen de optimisten en de pessimisten in wordt door onderzoekers en zorgprofessionals de noodzaak gezien om het grote potentieel van AI te onderzoeken en daarmee waardevolle toepassingen te ontwikkelen [18]. Vertrouwen opbouwen en ethische kaders vaststellen zijn daar een belangrijk onderdeel van. Voorlopig is de Leidraad kwaliteit AI in de zorg vanuit het Ministerie van VWS een belangrijke wegwijzer [19]. In 2026 wordt de implementatie van de in 2023 door het Europese parlement aangenomen AI Act in Nederland verwacht [5]. Kortom, op de nog te tekenen kaart van dit nieuwe tweestromenland tussen innovatie en het nemen van verantwoordelijkheid, mogen we een groot zorg ethisch werkgebied verwachten.


Truus Teunissen is kunstenaar en gast onderzoeker verbonden aan de UvH en de Leyden Academy. Truus leeft met diverse chronische ziektes en haar werk richt zich op kunst en zorg. Ze doet onderzoek naar patiënten participatie, inclusie en rechtvaardigheid vanuit een zorg ethisch perspectief.

Paul Lindhout is gast onderzoeker aan de UvH en de Universiteit van Antwerpen (BE) en doet onderzoek en publiceert over veiligheid, ethiek en taalproblemen in industrie en gezondheidzorg. Hij is tevens docent veiligheidskunde.

Truus en Paul zijn levenspartners en publiceren regelmatig als duo.

Noten

[1] Trouw 10 nov 2023; Maurice van Turnhout, Waarom er een A.I. Ministerie opgericht zou moeten worden.

[2] New York Times (2023) 1000 Tech Leaders Call for Pause on A.I.; March 29, 2023. https://www.nytimes.com/2023/03/29/technology/ai-artificial-intelligence-musk-risks.html

[3] Trouw 7 november 2023; Ilyaz Nasrullah, De hedendaagse chatbot is erg behendig met woorden, maar absoluut niet intelligent.

[4] Timmermans M., Breda A. van, Lamb H. (2022). Artificiele intelligentie onmisbaar instrument in de dokterstas. AI opent nieuwe horizonten en ook een paar afgronden. Medisch Contact 19 mei 2022.

[5] https://www.dutchhealthhub.nl/artikel/ai-in-de-zorg-antwoord-op-vragen/

[6] Berenschot (2022). Artificiële intelligentie en passende zorg. Rapport i.o.v Zorginstituut Nederland, 29-9-2022. https://www.zorginstituutnederland.nl/publicaties/rapport/2022/09/29/onderzoeksrapport-artificiele-intelligentie-en-passende-zorg

[7] Liu, Y. (2022). Risk management of smart healthcare systems: Delimitation, state-of-arts, process, and perspectives. Journal of Patient Safety and Risk Management, 25160435221102242.

[8] Trouw 27 oktober 2023; Ilyaz Nasrullah, De chatbot creëert de illusie van empathie.

[9] TUDelft https://www.tudelft.nl/ai/onderzoek-innovatie/onze-onderzoeksthemas/ai-voor-gezondheid-en-zorg

[10] Warner Bros. Pictures (2013). Her. https://numrush.nl/beste-films-over-kunstmatige-intelligentie/

[11] Fosch-Villaronga, E., & Mahler, T. (2021). Cybersecurity, safety and robots: Strengthening the link between cybersecurity and safety in the context of care robots. Computer Law & Security Review, 41, 105528.

[12] Broersen J. (2023); Uitspraken Jan Broersen, hoogleraar logische methoden in de A.I., Universiteit Utrecht. Geciteerd in Trouw 4 december 2023.

[13] Verhagen L., Geest van der M. (2018). Het patiëntenleven gaat totaal veranderen – zo ziet het er in 2030 uit. De Volkskrant 6 april 2028. https://www.volkskrant.nl/wetenschap/het-patientenleven-gaat-totaal-veranderen-zo-ziet-het-er-in-2030-uit~b3e92106/

[14] Mehrabi N., Morstatter F., Saxena N., Lerman K., Galstyan A. (2022). A Survey on Bias and Fairness in Machine Learning. arXiv:1908.09635v3 [cs.LG] 25 Jan 2022. https://arxiv.org/pdf/1908.09635.pdf?trk=public_post_comment-text

[15] Challen, R., Denny, J., Pitt, M., Gompels, L., Edwards, T., & Tsaneva-Atanasova, K. (2019). Artificial intelligence, bias and clinical safety. BMJ Quality & Safety, 28(3), 231-237.

[16] Stokel-Walker, C. (2023).  ChatGPT Replicates Gender Bias in Recommendation Letters. Scientific American November 22, 2023. https://www.scientificamerican.com/article/chatgpt-replicates-gender-bias-in-recommendation-letters/

[17] Slob, M. (2023). Griezelen over ChatGPT speelt Big Tech in de kaart. 17-11-2023. https://www.filosofie.nl/griezelen-over-chatgpt-speelt-big-tech-in-de-kaart/

[18] https://www.zonmw.nl/nl/artificial-intelligence

[19] VWS (2023). Praktische handreikingen als u aan de slag gaat met AI.  Beschikbaar op:  https://www.datavoorgezondheid.nl/ 

Een artikel van


0 reacties

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *