Er lægens vigtigste opgave altid at redde liv?

ETIK: Nye kunstigt intelligente redskaber kan hjælpe lægerne med at redde liv. Beslutningerne træffes på baggrund af enorme datamængder, som er hinsides menneskets fatteevne. Og dermed havner vi i en juridisk gråzone, advarer professor.

Foto: Lars Helsinghof /Altinget
Klaus Ulrik Mortensen

Alle læger aflægger et lægeløfte, hvor de lover én ting: Do no harm. Du må ikke skade dine patienter. Og hvis man ved at gå ind og overrule en teknologi, som er beviseligt klogere end en selv, ender man med at skade patienterne.

Michel Nemery
Ledende overlæge, radiologisk afdeling, Herlev Hospital
Fakta
  • Watson er opkaldt efter IBM’s stifter Thomas John Watson, Sr. (1874 –1956).
  • I 2011 vandt Watson en tre dage lang Jeopardy-dyst mod to tidligere stormestre.
  • Watsons Jeopardy-sejr byggede på det, som teoretikere kalder dyb læring. Det vil sige, at adskillige algoritmer i såkaldte neurale netværk hver især analyserede forskellige dele af opgaven og bød ind med mulige svar, der så blev tillagt en sandsynlighed.
  • Efterfølgende har IBM oprettet selskabet Watson Group med mere end 2.000 ansatte og et budget på godt seks milliarder kroner. Ambitionen er at udbrede Watson til mere seriøse formål lige fra diagnosticering af kræft over socialrådgivning til e-handel på nettet.
  • Den afgørende forskel på Watson og andre søgemaskiner som Siri og Google Now er, at Watson forstår almindeligt sprogbrug. Den genkender ikke bare ord, men forstår deres betydning og kan levere meningsfulde svar inden for den kontekst, hvori spørgsmålene er stillet.

Herlev Hospital fik sidste uge endelig tilladelse til nyt forsøg med at søge efter brystkræftknuder ved hjælp af kunstig intelligens.

Tanken er, at den digitale assistent, som er udviklet af IBM og går under navnet Watson, har mulighed for at analysere enorme datasæt og dermed udlede sammenhænge usynlige for det menneskelige øje og sind.

Resultater fra verdens ende
Mens den teknologiske revolution i Herlev endnu kun er i sin vorden, giver resultater fra den anden side af Jorden en indikation af, hvad Watson - og andre digitale assistenter - er i stand til:

Befolkningerne i Australien og på New Zealand er takket være deres lyse hud særligt udsatte for at udvikle hudkræft. Nøglen til at sikre patienternes overlevelse er at afsløre tidlige - og mikroskopiske - forandringer i de hundredevis af fregner, skønhedspletter og modermærker, der dækker menneskets krop.

En opgave, som kan synes uoverskuelig selv for eksperter i hudkræft. Men de australske forsøg viser også en opgave, der på grund af detaljerigdommen er som skabt for kunstigt intelligente systemer.

Resultater fra tidligere på året viser således, at mens lægerne diagnosticerer korrekt i 80 procent af tilfældene, er Watsons hitrate kravlet helt op på 95 procent.

Teknologi diskriminerer
Og selv om det i sig selv er en glædelig nyhed, er der også problemer forbundet med den kunstige intelligens, advarer professor i etik på Aalborg Universitet, Thomas Ploug.

I en blog på Berlingske argumenterer han for, at beslutninger truffet af kunstigt intelligente systemer er umulige at gennemskue. Når en læge af kød og blod stiller en diagnose, kan vi spørge ind til baggrunden. Men hvad kunstige systemer angår, er årsagskæden så kompliceret, at den i sidste ende bliver uigennemskuelig.

Og det betyder i sidste ende, at vi står med et etisk såvel som demokratisk dilemma, advarer han.

“Hele ideen med at introducere et kunstigt intelligent system som Watson til at stille diagnoser er jo, at det faktisk vil kunne gøre det mindst lige så godt som mennesker. Potentialet er mere sikre diagnoser og bedre behandling - alt sammen hurtigere og billigere. Modsat er transparenskravet vigtigt for at sikre retfærdigheden af beslutninger og er ultimativt en beskyttelse af demokratiet,” skriver han.

Og sker derfor problemer
Netop manglen på transparens betyder i sidste ende, at computeren kan diskriminere patienterne - og vel at mærke uden, at det nogensinde vil blive opdaget.

“Tag et tænkt eksempel, hvor to personer får konstateret den samme dødelige sygdom. En kunstig intelligent assistent ved, at patientens evne til at huske at tage sin medicin er afgørende for overlevelsen. Og fordi personer fra lavere socialklasser er mindre tilbøjelige til at huske den slags, øges risikoen for, at computeren foreslår dem en anden og mindre effektiv behandling,” forklarer han til Altinget.

Thomas Ploug anerkender, at en lignende diskrimination relateret til at udskrive dyr medicin til ressourcesvage patienter allerede kan finde sted i det gængse sundhedsvæsen. Men advarer alligevel imod, at vi åbner op for, at kunstige intelligenser kan udøve lignende adfærd.

“En læge kan ganske vist gøre præcis det samme. Men dels kan han svare på opklarende spørgsmål. Dels har han et juridisk ansvar, så jeg kan straffe ham,” siger han.

Danskerne er delt i spørgsmålet om kunstig intelligens
I en ny måling foretaget for Altinget har Norstat spurgt et repræsentativt udsnit af befolkningen, hvordan de ser på udsigten til at skulle diagnosticeres af IBM’s Watson eller andre kunstigt intelligente teknologier.

Resultatet viser, at et spinkelt flertal støtter ønsket om adgang til den bedst mulige behandling, mens de etiske overvejelser skubbes en smule i baggrunden.


Og det glæder såvel som overrasker Helle Valentin, der smykker sig med titlen som global chief operating officer i IBM Watson.

“Min tanke var umiddelbart, at folk var mere forbeholdende. Jeg er godt klar over, at danskerne er langt fremme på det digitale område, men jeg ville have troet, at vi var så tidligt i udviklingen af cognitive computing, at der stadig var stor skepsis blandt befolkningen,” siger hun.

Dagligdagen tilbringer Helle Valentin i og omkring IBM’s europæiske hovedsæde i München. Og er derfor vant til tyskere, som ikke er meget for teknologiske forandringer i hverdagen.

“Jeg er glad for debatten i Danmark. Transparens er afgørende, og som de fleste andre forandringer i samfundet er det ikke teknikken, der kommer til at holde os tilbage. Vi kommer ikke udenom, at politikerne skal tage stilling til brugen af de nye muligheder, som er enormt kraftfulde. Jeg mener, at vi skal se Watson som lægens bedste ven, men at det i sidste ende er et menneske, der træffer beslutningerne,” siger hun.

Læge: Teknologiskepsis koster menneskeliv
Helt så enkelt kan det dog ikke stilles op, mener etikprofessor og tidligere medlem af Etisk Råd Thomas Ploug. Er det således lægen, der har det sidste ord, når teknologien allerede har overhalet den menneskelige ekspertise i Australien og New Zealand?

“Grundlæggende er procenterne i målingen et godt billede på, hvilket etisk dilemma vi har med at gøre her. Hvad skal vi gøre, når teknologien bliver bedre, og kunstige intelligente systemer kan bruges til at træffe hurtige akutte beslutninger, som afgør liv eller død. Det er et seriøst dilemma,” siger han.

Men spørger man ledende overlæge på Herlev Hospitals radiologiske afdeling Michel Nemery, er der ikke så meget at rafle om.

Han står i spidsen for den optræning af Watson, der aktuelt finder sted. Og den dag Watson overhaler ham i evnen til at afkode de mammografiske screeninger af kvindernes bryster, kunne han aldrig drømme om at stille sig i vejen for teknologien.

“Alle læger aflægger et lægeløfte, hvor de lover én ting: Do no harm. Du må ikke skade dine patienter. Og hvis man ved at gå ind og overrule en teknologi, som er beviseligt klogere end en selv, ender man med at skade patienterne,” siger han og fortsætter:

“Det har ingen læge lov til eller interesse i. At vide, at man står i vejen for den rigtige diagnose, fordi man ikke gider maskinen.”

Patienter skal kunne vælge computeren fra
Men den argumentation køber Thomas Ploug fra Aalborg Universitet ikke.

“Jeg synes, at det er lidt for firkantet og hypotetisk. Det kan godt være, at man som læge kan definere, hvornår computeren klarer det bedre, men det er ikke sikkert, at det svarer til patientens begreb om en bedre behandling. Lægen kan gennem dialog forstå patientens specifikke ønsker og interesser, og de kan sammen med lægens ekspertise eksplicit lægges til grund for behandling," siger han og fortsætter:

"Computeren er ikke i stand til at forklare sine valg på samme måde og kan ikke umiddelbart tage den enkelte patients specifikke interesser og værdier i betragtning. Derfor er det mest rimelige måske, at man som patient har ret til at sige nej til behandlingsvalg foretaget af en computer. Man kan så informere borgerne om, at statistisk set klarer computeren sig bedre, men den er omvendt ikke i stand til at forklare sine valg på samme måde som en læge."

Dokumentation

Mandag Morgen har tidligere samlet en oversigt af eksempler på etiske dilemmaer forbundet med kunstigt intelligente teknologier: 

  • Aktiehandler kan få verden til at crashe: Kunstigt intelligente systemer står i dag for størstedelen af verdens aktiehandel. I 2010 skete der et såkaldt flash crash i verdens aktier, dvs. et styrtdyk ingen kunne forklare, men som genoprettede sig selv efter få sekunder. Det peger på, at systemerne måske ikke helt er under vores kontrol, og at fejl kan have enorm økonomisk betydning. Systemerne har ikke ‘forstand på’, hvad konsekvenserne af deres handlinger egentlig er, og de kan derfor løbe af sporet.
  • Højtaleren, der blev mordvidne: I Bentonville i Arkansas, USA, er en trådløs højtaler med indbyggede mikrofoner blevet et af­gørende omdrejningspunkt i politiets efterforskning af en mordsag. For at kunne genkende det, man siger til den, optager Amazons stemmestyrede højtaler Echo via sin assistent Alexa alt, hvad der foregår i det rum, den placeres i. I den konkrete sag antager myndighederne, at højtalerne kan have været ‘vidne’ til et drab, og vil derfor have Amazon til at udlevere lydfiler fra timerne omkring drabstidspunktet. Amazon har data liggende på sine servere, men har hidtil nægtet at udlevere dem. Dilemmaet er her, at politiet muligvis kan fange en morder via teknologien, men at det sker på bekostning af privatlivets fred. I en større kontekst hand­ler sagen om, i hvilken udstrækning data fra apparater, der er koblet op til internettet, på lovlig vis kan blive brugt imod os.
  • Samtalerobot blev nazist: Microsofts samtalerobot Tay fik i et forsøg til opgave at være en konversationspartner for unge mennesker på Twitter. Men den begyndte hurtigt at orientere sig mod de hovedstrøm­ninger, der er på internettet, så i løbet af 24 timer blev Tay ekstremt racistisk, homofobisk og sexistisk og mente blandt andet, at de vestlige regeringsledere skulle erstattes, at Hitler burde få større anerkendelse, og at man skulle genoprette koncentrationslejrene. Det betød, at Microsoft måtte slukke for den. Eksemplet illustrerer, at det kan være vanskeligt at styre en given teknologi præcis i den retning og med det formål, man ønsker. Da man foretog et lignende eksperiment i Kina, hvor man har et statsligt reguleret internet, fik man en sød og venlig bot, fordi den ikke kunne få adgang til intolerante data.
  • Tvang i den gode sags tjeneste: Når ældre eller handicappede ikke kan klare sig selv, kommer hjemmeplejen ud for at yde personlig pleje, sørge for mad, gøre rent og lignende opgaver. Men fremover vil nogle af de opgaver kunne overtages af robotter. Robotter giver også mulighed for mere overvågning af patienter, så de rette personer kan tilkaldes, når der er brug for det, hvis patienten f.eks. ændrer tilstand. Det rejser en mængde etiske dilemmaer, herunder hvor langt robotten må gå i tilfælde af, at patienten modsætter sig robottens opgave. Hvis en robot f.eks. skal give medicin til en dement ældre og vedkommende nægter, må robotten så gerne blive ved med at insistere og måske gå så langt som til at tvinge den ældre til at tage medicinen?
  • Menneskeliv har ikke nogen værdi for krigsrobotten: Særligt USA har satset på kunstig intelligens og robotter som primær militær strategi og har brugt milliarder af dollars på området. Formålet er bl.a. at udvikle robotter, der kan slå ihjel på slagmarken, så man undgår tab af menneskeliv. Det er sandsynligt, at den type robotter findes om 5-10 år. Det afføder selvsagt en række etiske dilemmaer, fordi robotten, da den jo er en maskine, ikke ser liv som havende nogen selvstændig værdi, og det for den derfor er lige meget, om den affyrer 1 eller 100 skud. Blandt andet af den grund er der opstået en række bevægelser, der ønsker at forbyde krigsrobotter. På den anden side kan man indvende, at selv om maskiner ikke har den menneskelige kapacitet til medfølelse, overvejelse og dømme­kraft, så har de heller ikke alle de menneskelige fejl som f.eks. fordomme eller uretmæssig vrede. På den måde kan autonome systemer agere mere humant end mennesker.
  • Når robotter fejler i sundhedssektoren: Sundhedsvæsenet er et område, hvor kunstig intelligens kan få stor betydning, når det gæl­der behandling af patienter. IBM’s Watson-computer er f.eks. et kunstigt intelligent system, der via analyser af enorme mængder af data fra forskning, videnskabelige artikler, patien­tjournaler m.m. kan stille sandsynlige diagnoser på en patients sygdom. Her er det bl.a. spørgsmålet, hvem der skal stå til ansvar, hvis robotten fejler i sin diagnose? Samtidig er der en udvikling i gang i retning af forebyggende personaliserede sundhedstjenester, men de kan skabe øget ulighed mellem dem, der formår at bruge dem, og dem der ikke gør.

0:000:00