Ethische en maatschappelijke aspecten van de digitale verstoring van gezondheid

Auteur
Dr. Tamar Sharon
Gepubliceerd op
15-11-2020
Categorie
Columns

 

In het afgelopen decennium waren we getuige van een toenemende digitalisatie van gezondheid en medicatie, waaronder het gebruik van wearables en apps for het monitoren van gezondheid, en nieuwe vormen van telemedicatie en AI voor diagnose en behandeladvies. Deze ontwikkelingen dragen misschien wel bij aan het bevorderen van persoonlijke- en volksgezondheid, maar hun ontwrichtende aard zet ook belangrijke waarden onder druk, zoals privacy, autonomie, solidariteit, eerlijkheid, en het gemeenschappelijke goed. Om het potentieel van Digital Health te kunnen ontgrendelen moeten we op onze hoede zijn voor deze transformatieve impact en manieren zoeken om deze waarden veilig te stellen.

Digital Health: naar een persoonlijkere, preventievere, participatieve en voorspellende gezondheidszorg

Het fenomeen van digital health gaat niet alleen over het gebruik van digital tech voor gezondheid. Twee andere aspecten zijn belangrijk om te benoemen. Het eerste is datafication. Technologie zoals apps en wearables, sociale media en klantenkaarten hebben allerlei activiteiten en gedrag om kunnen zetten in kwantificeerbare data – hoeveel mensen bewegen, het ‘humeur’ van bevolkingen volgens Twitter data, consumptiepatronen, etc. Wanneer deze processen gemeten en vergeleken kunnen worden met andere soorten data, worden ze ook relevant voor de gezondheidszorg en farmaceutica. Vandaag de dag kan bijna elk soort data gezien worden als health data, of er kan gezondheidsgerelateerde informatie uit opgemaakt worden na het combineren met andere datasets. Het tweede aspect is dat veel van de traditionele toepassingen van de gezondheidszorg en farmaceutica nu op afstand gedaan kunnen worden dankzij digital tech. Het monitoren van gezondheid wordt tot op zekere hoogte door mensen zelf gedaan, middels apps en wearables, en data die relevant is voor medische research wordt buiten de kliniek en het lab verzameld met mobiele toestellen. De Apple ResearchKit software, die researchers in staat stelt om data voor klinische studies te verzamelen via iPhones, is hier een goed voorbeeld van. Sommige voordelen hiervan zijn continue dataverzameling en de mogelijkheid om grote aantallen deelnemers te rekruteren.

Er ligt veel potentieel in die ontwikkelingen om de gezondheidszorg persoonlijker, preventiever, participatiever en voorspellende te maken. Met de toenemende verzameling van gezondheidsgerelateerde data, zien sommige voorstanders het ontstaan van persoonlijke health maps voor zich. Afwijkingen van hoe ieders data eruit ziet in goede gezondheid zou kunnen wijzen op een aankomend gezondheidsprobleem, zodat ingegrepen kan worden voordat een patiënt symptomen ervaart. En virtuele medische assistanten zouden mensen gezond kunnen houden door ze gepersonaliseerde adviezen te geven, gebaseerd op hun data. Deze verhoogde betrokkenheid een deelname van burgers kan hun gevoel van autonomie en empowerment vergroten. Dit is vaak de belofte die bij mobiele gezondheids-apps komt kijken. Nog een goed voorbeeld hiervan zijn PGO’s, de persoonlijke gezondheidsomgevingen die momenteel opgezet worden, waarin burgers al hun gezondheidsdata op één plek zullen kunnen opslaan en beheren, waardoor ze controle krijgen over wie er toegang heeft tot die data.

De uitdagingen van digital health begrijpen

Ondanks dit potentieel kent digital health ook een aantal ethische en maatschappelijke uitdagingen. Bijvoorbeeld de belofte van autonomie en empowerment. Het ideaal van empowerment dat gepromoot wordt in digital health impliceert een zekere kennis van gezondheid – als een individuele verantwoordelijkheid, en vaak als een lifestyle keuze. Dat is problematisch, want we weten dat gezondheid en ziekte vaak bepaald worden door factoren die niet gecontroleerd kunnen worden, zoals genetica (aanleg voor zekere aandoeningen) en socio-economische status (junkfood is goedkoper dan biologische groenten). Gezondheid omkaderen als individuele keuze, die iedereen gelijk kan maken en waarvoor iedereen dus zelf verantwoordelijk is, is dus niet accuraat. Het kan ook schadelijke effecten hebben, zij die geen ‘goede’ keuzes maken stigmatiseren en beschuldigen, en ons gevoel van solidariteit in gezondheid vervagen. We moeten de vraag stellen of iedereen empowered wordt door verantwoordelijkheid te nemen voor hun gezondheid, en wat de effecten hiervan zouden zijn. Bijvoorbeeld: zijn mensen echt klaar voor de verantwoordelijkheden die komen kijken bij het beheren van al hun data in PGO’s? Wat voor nieuwe druk – van familieleden, of particulieren die inzage willen in PGO’s – zal naar individuen gedelegeerd worden, waar die voorheen teniet gedaan werd door regels inzake vertrouwelijkheid? Empowerment en verantwoordelijkheid kunnen prachtige idealen zijn, maar in de praktijk kunnen ze verantwoordelijkheid van overheden en zorgstelsels op de schouders van individuen plaatsen, en dat kan eigenlijk juist dis-empowering zijn.

Nog een belangrijke zorg die digital health met zich meebrengt, vooral in relatie tot voortdurende, alomtegenwoordige gezondheidsmonitoring, is privacy. We kunnen privacy zien als een soort schild of buffer, die ons beschermt van de blik van anderen, en die we nodig hebben om ons als volledig individu met een eigen identiteit te ontwikkelen. De juridisch geleerde Julie Cohen noemt privacy de ‘ademruimte’ die nodig is voor zelfontwikkeling. Maar deze ademruimte wordt nu bedreigd, door de constante verzameling van data, profilering en duwtjes die we op alle gebieden ondervinden, inclusief onze gezondheid. Gezondheidsgerelateerde data die gedeeld wordt met een app wordt bijvoorbeeld vaak gedeeld met derde partijen, waaronder adverteerders en verzekeraars. Gezondheidsgerelateerde informatie die mensen op Twitter delen wordt steeds vaker gebruikt voor medische research, bijvoorbeeld in studies over depressie. In die situaties, zelfs als mensen legaal toestemming geven voor het delen van hun data door een ‘akkoord’ vakje aan te vinken, en zelfs als de data publiek toegankelijk is zoals op Twitter, betekent het nog niet dat het in orde is om deze data te hergebruiken – zelfs al is het voor medisch onderzoek.

Om van enig nut te kunnen zijn, moeten de grote aantallen data die gegenereerd worden in digital health beheerbaar, analyseerbaar en bruikbaar zijn. Artificial Intelligence (AI) is hier heel goed in, en in het verleden hebben we veelbelovende toepassingen van AI gezien in de gezondheidszorg. Maar we hebben ook gezien dat AI systemen vatbaar zijn voor vooroordelen, en dat dit kan leiden tot discriminerende en oneerlijke resultaten. Vooroordelen kunnen AI op een paar manieren insijpelen. Ten eerste kunnen de datasets waarmee een AI getraind wordt onrepresentatief zijn voor de realiteit. Zo is bijvoorbeeld aangetoond dat het algoritme waarmee sommige melanoma apps ontwikkeld werden, getraind was met datasets waarin meer monsters van lichte huid dan donkere huid voorkwamen. In dit geval zou de app onvermijdelijk beter zijn in het herkennen van melanoma op een lichte huid. De tweede manier waarop vooroordelen erin kunnen sluipen is omdat vooroordelen in de praktijk ook bestaan. Een AI die leert van data uit de echte wereld zal bestaande vooroordelen opnemen en reproduceren. Vorig jaar kwam bijvoorbeeld naar boven dat een algoritme dat zorg toewees aan patiënten in ziekenhuizen in de VS systematisch zwarte mensen discrimineerde. Niet omdat de ontwerpers racistisch waren, maar omdat de gebruikte data vooroordelen weerspiegelde die al bestonden, namelijk dat zwarte mensen in de VS die net zo ziek zijn als witte mensen het zorgstelsel minder kosten dan hun witte medemens. In zulke gevallen kan een vooroordeel in AI al bestaande ongelijkheden in de maatschappij verergeren. Het feit dat de aanbevelingen en beslissingen die door AI gemaakt worden vaak ondoorzichtig en moeilijk uit te leggen zijn maakt deze problemen ingewikkelder, net zoals het meer vragen oproept over aansprakelijkheid en verantwoordelijkheid als er iets misgaat.

De ‘Googleisatie van gezondheid’

Een ontwikkeling die mij met name interesseert is wat ik de ‘Googlisatie van gezondheid’ noem. In de afgelopen jaren hebben alle grote tech bedrijven, zoals Apple, Alphabet, Amazon, en anderen, interesse getoond in gezondheid en farmaceutica. Hun expertise op het gebied van data verzameling, beheer en analyse maakt ze interessante partners om mee samen te werken voor data-driven gepersonaliseerde gezondheidszorg. Voorbeelden zijn onder andere Apple ResearchKit studies, of een paar van Verily’s (Alphabets biowetenschappelijke afdeling) samenwerkingen met ziekenhuizen en onderzoeksinstellingen, zoals ‘Project Baseline’ in de VS of de ‘Parkinson op Maat’ studie aan de Radboud UMC.

Deze nieuwe soorten samenwerkingen kunnen heel gunstig zijn voor medisch onderzoek en de gezondheidszorg, maar ze brengen ook risico’s met zich mee. Die hebben niet alleen te maken met gegevensbescherming en privacy, waar in veel gevallen goed mee omgegaan wordt in die samenwerkingen, maar ook met grotere vraagstukken over de toenemende macht van die bedrijven in alle facetten van de samenleving. Zullen deze bedrijven bijvoorbeeld poortwachters worden van waardevolle gezondheidsdatasets die ze mee opstellen? Welke nieuwe vooroordelen zullen er in research geïntroduceerd worden door het gebruik van technologieën, zoals iPhones, die alleen door bepaalde socio-economische delen van de bevolking gebruikt worden? Welke rol zullen deze bedrijven, die al zoveel macht hebben in andere delen van de samenleving, op zich nemen in het bepalen van onderzoeksagenda’s en het verstrekken van gezondheidsdiensten? Deze vragen hebben te maken met gezondheids- en medisch onderzoek als een gemeenschappelijk goed, en moeten overwogen worden wanneer onderzoekers en overheden deze samenwerkingen nastreven.

De toekomst van digital health

We zien technologie vaak als een neutraal gereedschap, waarmee we van tevoren gedefinieerde functies vervullen. Maar technologieën hebben altijd een groter transformatief potentieel. Met hun intrede in een domein als gezondheid en farmaceutica veranderen ze verhoudingen tussen dokters en patiënten, herverdelen ze verantwoordelijkheden, en vormen ze een uitdaging voor sommige van onze meest fundamentele waarden. Om die reden moeten ze niet alleen beoordeeld worden op het gebied van nauwkeurigheid, efficiëntie of werkzaamheid. We moeten juist op onze hoede zijn voor hoe ze waarden zoals autonomie, solidariteit, privacy, eerlijkheid en het gemeenschappelijk goed kunnen ondermijnen, en nieuwe kaders ontwikkelen voor de klinische praktijk, het ontwerp en de regulering van technologie, die ervoor kunnen zorgen dat die waarden niet verhandeld worden – zelfs voor een betere gezondheid.

 

Dr. Tamar Sharon

Dr. Tamar Sharon is universitair hoofddocent in philosophy of technology aan de Radboud Universiteit Nijmegen, waar ze de interdisciplinaire iHub for Security, Privacy and Data Governance mede beheert. Ze studeerde geschiedenis en politicologie aan de Paris Jussieu en Tel Aviv University, en heeft een PhD in interdisciplinaire studies van de Bar Ilan Universiteit in Israel (2011). Haar research onderzoekt de impact van nieuwe en opkomende technologieën op het gebied van gezondheid, met eerdere onderzoeksprojecten over human enhancement, ‘healthy citizenship’ en self-quantification. Haar huidige project onderzoekt de ‘Googlisatie van gezondheid’ – de recente beweging van grote tech bedrijven naar de gebieden van gezondheid en medische research – en wat dit betekent voor het gemeenschappelijk goed. Tamar is een lid van de WHO European Advisory Committee on Health Research en de Young Academy of Europe.