Kokemukseni lääketieteen alalta auttaa minua erottamaan aidon innovaation hienovaraisesta uudelleenluokittelusta, joka perustavanlaatuisesti muuttaa käytäntöjä näyttäen kuitenkin muuttumattomana. Tekoäly on viime aikoina herättänyt huomattavaa huomiota, mukaan lukien laajalti levinnyt väite, jonka mukaan tekoälyllä on "laillinen oikeus harjoittaa lääkärintoimintaa" Yhdysvalloissa. Kirjaimellisesti tulkittuna tämä väite on epätarkka. Yksikään lääketieteellinen lautakunta ei ole myöntänyt koneelle toimilupaa. Yksikään algoritmi ei ole vannonut valaa, ottanut luottamusvelvollisuutta tai ottanut henkilökohtaista vastuuta potilaille aiheutuneista vahingoista. Yksikään robottilääkäri ei avaa klinikkaa, laskuta vakuutusyhtiöitä tai seiso hoitovirhevalamiehistön edessä.
Tämän havainnon tarkastelu kuitenkin jättää huomiotta laajemman ongelman. Vastuun oikeudellisia käsitteitä ollaan parhaillaan määrittelemässä uudelleen, usein ilman julkista tietoisuutta.
Merkittävä muutos on käynnissä, ja se oikeuttaa enemmän kuin refleksinomaisen hylkäämisen tai kritiikittömän teknologisen innostuksen. Nykyinen kehitys ei ole tekoälyn lisensointia lääkärinä, vaan pikemminkin lääketieteen ydinrajan asteittaista murenemista: kliinisen harkinnan ja ihmisen vastuullisuuden välisen sisäisen yhteyden. Kliininen harkinta edellyttää tietoon perustuvien päätösten tekemistä, jotka on räätälöity kunkin potilaan ainutlaatuisiin tarpeisiin ja olosuhteisiin, ja se vaatii empatiaa, intuitiota ja syvällistä ymmärrystä lääketieteellisestä etiikasta.
Ihmisen vastuulla tarkoitetaan terveydenhuollon tarjoajien vastuuta näistä päätöksistä ja niiden tuloksista. Tämä rapautuminen ei ole dramaattisen lainsäädännön tai julkisen keskustelun tulosta, vaan sitä tapahtuu hiljaa pilottihankkeiden, sääntelyn uudelleentulkintojen ja vastuuta tarkoituksella hämärtävän kielenkäytön kautta. Kun tämä raja hämärtyy, lääketiede muuttuu tavoilla, joita on vaikea peruuttaa.
Pääasiallinen huolenaihe ei ole se, pystyykö tekoäly uusimaan reseptejä tai havaitsemaan poikkeavia laboratoriotuloksia. Lääketieteessä on pitkään käytetty työkaluja, ja terveydenhuollon tarjoajat yleensä ottavat mielellään vastaan apua, joka vähentää hallinnollisia tehtäviä tai parantaa hahmontunnistusta. Todellinen kysymys on, voidaanko lääketieteellistä harkintaa – oikeiden toimien, potilaiden ja riskien määrittämistä – pitää tietokoneella luotuna tuloksena, joka on erillään moraalisesta vastuusta. Historiallisesti pyrkimykset irrottaa harkinta vastuusta ovat usein aiheuttaneet vahinkoa ottamatta vastuuta.
Viimeaikaiset kehitysaskeleet selventävät nykyisen hämmennyksen syitä. Useissa osavaltioissa rajoitetut pilottihankkeet sallivat nyt tekoälypohjaisten järjestelmien avustaa vakaiden kroonisten sairauksien reseptien uusimisessa tarkasti määriteltyjen protokollien mukaisesti. Liittovaltion tasolla lainsäädäntöehdotuksessa on pohdittu, voitaisiinko tekoälyä pitää "ammatinharjoittajana" tiettyihin lakisääteisiin tarkoituksiin, edellyttäen että sitä säännellään asianmukaisesti. Nämä aloitteet esitetään tyypillisesti pragmaattisina vastauksina lääkäripulaan, lääkkeiden saatavuuden viivästymiseen ja hallinnolliseen tehottomuuteen. Vaikka mikään aloite ei nimenomaisesti nimeä tekoälyä lääkäriksi, ne yhdessä normalisoivat huolestuttavamman lähtökohdan, jonka mukaan lääketieteellisiä toimia voi tapahtua ilman selvästi tunnistettavaa ihmispäätöksentekijää.
Käytännössä tämä ero on perustavanlaatuinen. Lääketiedettä ei määrittele tehtävien mekaaninen suorittaminen, vaan vastuun jakaminen epäsuotuisten tulosten yhteydessä. Reseptin kirjoittaminen on suoraviivaista; vastuun ottaminen sen seurauksista – erityisesti kun otetaan huomioon liitännäissairaudet, sosiaalinen konteksti, potilaan arvot tai puutteelliset tiedot – on paljon monimutkaisempaa. Koko urani ajan tämä vastuu on jatkuvasti ollut ihmisellä, jota voidaan kyseenalaistaa, haastaa, korjata ja pitää vastuullisena. Kun tohtori Smith tekee virheen, perhe tietää, kehen ottaa yhteyttä, mikä varmistaa suoran yhteyden ihmisen vastuuseen. Mikään algoritmi, olipa se kuinka hienostunut tahansa, ei voi täyttää tätä roolia.
Ensisijainen riski ei ole teknologinen, vaan sääntelyyn liittyvä ja filosofinen. Tämä siirtymä edustaa siirtymistä hyveetiikasta prosessualismiin. Kun lainsäätäjät ja instituutiot määrittelevät lääketieteellisen päätöksenteon uudelleen järjestelmien eikä henkilökohtaisten tekojen funktiona, lääketieteen moraalinen viitekehys muuttuu. Vastuu hämärtyy, vahinkojen osoittaminen on vaikeampaa ja vastuu siirtyy lääkäreiltä prosesseille, harkinnasta protokollan noudattamiseen. Kun virheitä väistämättä tapahtuu, vallitsevaksi selitykseksi tulee, että "järjestelmä noudatti vakiintuneita ohjeita". Tämän siirtymän tunnustaminen selventää siirtymistä yksilöllisestä eettisestä päätöksenteosta mekaaniseen menettelytapojen noudattamiseen.
Tämä huoli ei ole teoreettinen. Nykyaikainen terveydenhuolto kohtaa jo haasteita, jotka liittyvät laimentuneeseen vastuuseen. Olen havainnut, kuinka algoritmien ohjaamien päätösten vahingoittamat potilaat eksyvät hallintohenkilöstön, toimittajien ja läpinäkymättömien mallien joukkoon, eikä peruskysymykseen ole selkeää vastausta: kuka teki tämän päätöksen? Tekoäly kiihdyttää tätä ongelmaa merkittävästi. Algoritmi ei voi tarjota moraalisia selityksiä, harjoittaa omantunnonpidätystä, kieltäytyä toimista eettisten huolenaiheiden vuoksi tai myöntää virhettä potilaalle tai perheelle.
Tekoälyn autonomian lisäämisen kannattajat mainitsevat usein tehokkuuden perusteluna. Klinikat ovat ylikuormitettuja, lääkärit kokevat loppuunpalamista ja potilaat odottavat usein kuukausia hoitoa, jonka pitäisi kestää vain minuutteja. Nämä huolenaiheet ovat oikeutettuja, ja jokainen rehellinen kliinikko tunnistaa ne. Pelkkä tehokkuus ei kuitenkaan oikeuta lääketieteen eettisen perustan muuttamista. Nopeuteen ja skaalautuvuuteen optimoidut järjestelmät uhraavat usein vivahteita, harkintavaltaa ja yksilön arvokkuutta. Historiallisesti lääketiede on vastustanut tätä taipumusta korostamalla, että hoito on pohjimmiltaan suhde eikä tapahtuma.
Tekoäly uhkaa kääntää tämän suhteen päälaelleen. Kun hoitoa tarjoavat järjestelmät yksilöiden sijaan, potilas ei ole enää sidoksissa kliinikon kanssa, vaan hänestä tulee osa työnkulkua. Lääkäri ottaa koneellisen valvojan roolin tai, mikä vielä huolestuttavampaa, toimii oikeudellisena puskurina, joka kattaa vastuun päätöksistä, joita hän ei ole itse tehnyt. Ajan myötä kliininen harkintakyky antaa tilaa protokollan noudattamiselle, ja moraalinen toimijuus vähitellen vähenee.
Tekoäly tuo mukanaan myös hienovaraisemman ja vaarallisemman ongelman: epävarmuuden peittämisen. Lääketiede elää epäselvyydessä. Todisteet perustuvat todennäköisyyksiin. Ohjeet ovat alustavia. Potilaat harvoin tulevat hoitoon puhtaina tietojoukkoina. Kliinikot on koulutettu paitsi toimimaan, myös epäröimään – tunnistamaan, milloin tieto on riittämätöntä, milloin interventio voi aiheuttaa enemmän haittaa kuin hyötyä tai milloin oikea toimintatapa on odottaa. Kuvittele tilanne, jossa tekoäly suosittelee kotiuttamista, mutta potilaan puoliso vaikuttaa pelokkaalta, mikä korostaa algoritmisen päätöksenteon ja ihmisen intuition välistä jännitettä. Tällainen tosielämän kitka korostaa epäselvyyden panoksia.
Tekoälyjärjestelmät eivät koe epävarmuutta; ne tuottavat tuloksia. Virheellisinä ne tekevät sen usein perusteettomalla varmuudella. Tämä ominaisuus ei ole ohjelmointivirhe, vaan tilastollisen mallinnuksen luontainen piirre. Toisin kuin kokeneet lääkärit, jotka ilmaisevat avoimesti epäilyksiään, suuret kielimallit ja koneoppimisjärjestelmät eivät pysty tunnistamaan omia rajoituksiaan. Ne tuottavat uskottavia vastauksia, vaikka dataa ei olisi riittävästi. Lääketieteessä uskottavuus ilman perusteluja voi olla vaarallista.
Kun nämä järjestelmät integroidaan kliinisiin työnkulkuihin aiemmin, niiden tuotokset vaikuttavat yhä enemmän myöhempiin päätöksiin. Ajan myötä lääkärit saattavat alkaa luottaa suosituksiin, ei niiden pätevyyden, vaan niiden normalisoitumisen vuoksi. Arvostelukyky siirtyy vähitellen aktiivisesta päättelystä passiiviseen hyväksymiseen. Tällaisissa olosuhteissa "ihminen mukana" toimii lähinnä symbolisena suojana.
Tekoälyn puolestapuhujat väittävät usein, että tekoäly vain "lisää" kliinikoiden osaamista korvaamisen sijaan. Tämä varmuus on kuitenkin hatara. Kun tekoäly osoittaa tehokkuusetuja, taloudelliset ja institutionaaliset paineet yleensä lisäävät autonomiaa. Jos järjestelmä pystyy turvallisesti uusimaan reseptejä, se voi pian saada luvan aloittaa niiden kirjoittamisen. Jos se pystyy diagnosoimaan tarkasti yleisiä sairauksia, lääkärintarkastuksen tarve kyseenalaistetaan. Jos se suoriutuu kontrolloiduissa vertailuarvoissa ihmisiä paremmin, ihmisen vaihtelun sietokyky vähenee.
Näiden trendien vuoksi erityisten suojatoimien toteuttaminen on välttämätöntä. Esimerkiksi pakolliset ristiriita-auditoinnit 5 prosentissa tekoälypohjaisista päätöksistä voisivat toimia konkreettisena tarkastuksena, joka varmistaisi tekoälyn suositusten ja ihmisen kliinisen harkinnan välisen yhdenmukaisuuden ja tarjoaisi samalla sääntelyviranomaisille ja sairaaloiden hallituksille toimintasuosituksia tekoälyn integroinnin seurantaan.
Näitä kysymyksiä ei ole esitetty pahantahtoisesti; ne nousevat esiin luonnostaan kustannusten hillitsemiseen ja skaalautuvuuteen keskittyvissä järjestelmissä. Ne kuitenkin viittaavat tulevaisuuteen, jossa ihmisen harkinnasta tulee poikkeus eikä normi. Tällaisessa skenaariossa resursseja omaavat yksilöt saavat edelleen ihmisen hoitoa, kun taas toisia ohjataan automatisoitujen prosessien kautta. Kaksiportainen lääketiede ei synny ideologiasta, vaan optimoinnista.
Erityisen epävarman tämän hetken tekee selkeiden vastuulinjojen puuttuminen. Kun tekoälyyn perustuva päätös vahingoittaa potilasta, kuka on vastuussa? Valvooko kliinikko nimellisesti järjestelmää? Laitos, joka otti sen käyttöön? Toimittaja, joka koulutti mallin? Sääntelyviranomainen, joka hyväksyi sen käytön? Ilman selkeitä vastauksia vastuu haihtuu. Ja kun vastuu haihtuu, luottamus seuraa pian perässä.
Lääketiede on pohjimmiltaan riippuvainen luottamuksesta. Potilaat antavat kehonsa, pelkonsa ja usein myös henkensä lääkäreiden käsiin. Tätä luottamusta ei voida siirtää algoritmille, olipa se kuinka hienostunut tahansa. Se perustuu varmuuteen siitä, että läsnä on ihminen – joku, joka kykenee kuuntelemaan, sopeutumaan ja olemaan vastuussa teoistaan.
Tekoälyn täydellinen hylkääminen on tarpeetonta. Harkokkaasti käytettynä tekoäly voi vähentää toimistotyötä, tunnistaa ihmisen havaitsemattomia kaavoja ja tukea kliinistä päätöksentekoa. Se voi antaa lääkäreille mahdollisuuden omistaa enemmän aikaa potilashoitoon hallinnollisten tehtävien sijaan. Tämän tulevaisuuden toteuttaminen edellyttää kuitenkin selkeää sitoutumista ihmisen vastuun säilyttämiseen lääketieteellisen käytännön ytimessä.
”Ihmisyhteyden” on merkittävä enemmän kuin symbolista valvontaa. Sen tulisi edellyttää, että tietty henkilö on vastuussa jokaisesta lääketieteellisestä päätöksestä, ymmärtää sen perustelut ja säilyttää sekä vallan että velvollisuuden ohittaa algoritmiset suositukset. Sen on myös sisällettävä läpinäkyvyys, selitettävyys ja potilaan tietoon perustuva suostumus sekä sitoutuminen investoimaan ihmislääkäreihin sen sijaan, että heidät korvattaisiin tekoälyllä.
Ensisijainen riski ei ole tekoälyn liiallinen voima, vaan pikemminkin instituutioiden halukkuus luopua vastuusta. Tehokkuuden ja innovaatioiden tavoittelussa on vaarana, että lääketieteestä tulee teknisesti edistynyt, hallinnollisesti virtaviivaistettu ala, jolta kuitenkin puuttuu moraalinen substanssi.
Pohtiessamme tulevaisuutta on olennaista kysyä: Millaisen parantajan näemme potilaan vuoteen vierellä vuonna 2035? Tämä kysymys vaatii kollektiivista moraalista mielikuvitusta, joka rohkaisee meitä muokkaamaan tulevaisuutta, jossa ihmisen vastuu ja myötätuntoinen hoito pysyvät lääketieteellisen käytännön ytimessä. Kollektiivisen toimijuuden mobilisointi on ratkaisevan tärkeää sen varmistamiseksi, että tekoälyn edistysaskeleet vahvistavat näitä perusarvoja eivätkä heikennä niitä.
Tekoälyllä ei ole ollut lisenssiä lääketieteen harjoittamiseen. Mutta lääketiedettä suunnitellaan hiljaisesti uudelleen sellaisten järjestelmien ympärille, joilla ei ole moraalista painoarvoa. Jos tämä prosessi jatkuu hallitsemattomasti, saatamme jonain päivänä huomata, että lääkäriä ei ole korvannut kone, vaan protokollalla – ja että kun vahinko tapahtuu, ei ole ketään jäljellä vastaamassa siitä.
Se ei olisi edistystä. Se olisi luopumista vallasta.
-
Joseph Varon, lääketieteen tohtori on tehohoidon lääkäri, professori ja Independent Medical Alliancen puheenjohtaja. Hän on kirjoittanut yli 980 vertaisarvioitua julkaisua ja toimii Journal of Independent Medicine -lehden päätoimittajana.
Katso kaikki viestit