Ennen koronaa olisin kuvaillut itseäni teknologiaoptimistiksi. Uudet teknologiat tulevat lähes aina liioiteltujen pelkojen keskellä. Rautateiden oletettiin aiheuttavan henkisiä romahduksia, polkupyörien uskottiin tekevän naiset hedelmättömiksi tai hulluiksi, ja varhaista sähköä syytettiin kaikesta moraalisesta rappeutumisesta fyysiseen romahdukseen. Ajan myötä nämä pelot hälvenivät, yhteiskunnat sopeutuivat ja elintaso nousi. Kaava oli niin tuttu, että tekoäly näytti todennäköisesti seuraavan sitä: häiritsevä, joskus väärinkäytetty, mutta lopulta hallittavissa.
Covid-vuodet horjuttivat tuota luottamusta – ei siksi, että teknologia petti, vaan koska instituutiot pettivät.
Suuressa osassa maailmaa hallitukset ja asiantuntijaelimet vastasivat epävarmuuteen ennennäkemättömillä sosiaalisilla ja biolääketieteellisillä interventioilla, jotka oli perusteltu pahimman mahdollisen skenaarion malleilla ja pantu täytäntöön huomattavan varmasti. Kilpailevia hypoteeseja sivuutettiin keskustelun sijaan. Hätätoimenpiteet kovettuivat pitkän aikavälin politiikaksi. Kun todisteet muuttuivat, virheiden myöntäminen oli harvinaista ja vastuuseen joutuminen vielä harvinaisempaa. Kokemus paljasti syvemmän ongelman kuin mikään yksittäinen poliittinen virhe: nykyaikaiset instituutiot näyttävät olevan huonosti varustautuneita hallitsemaan epävarmuutta ilman liioittelua.
Tuo oppitunti painaa nyt voimakkaasti tekoälyä koskevissa keskusteluissa.
Tekoälyn riskijako
Yleisesti ottaen huoli kehittyneestä tekoälystä jakautuu kahteen leiriin. Yksi ryhmä – johon kuuluvat ajattelijat kuten Eliezer Yudkowsky ja Nate Soares – väittää, että riittävän kehittynyt tekoäly on jo lähtökohtaisesti katastrofaalisen vaarallinen. Heidän tarkoituksellisen jyrkässä sanamuodossaan Jos joku rakentaa sen, kaikki kuolevatOngelma ei ole huonot aikomukset, vaan kannustimet: kilpailu varmistaa, että joku oikoo mutkia, ja kun järjestelmä karkaa merkityksellisestä kontrollista, aikomuksilla ei ole enää merkitystä.
Toinen leiri, johon kuuluvat muun muassa Stuart Russell, Nick Bostrom ja Max Tegmark, suhtautuu myös tekoälyyn liittyvään riskiin vakavasti, mutta on optimistisempi sen suhteen, että yhdenmukaistaminen, huolellinen hallinta ja asteittainen käyttöönotto voivat pitää järjestelmät ihmisen hallinnassa.
Eroavaisuuksistaan huolimatta molemmat leirit ovat yhtä mieltä yhdestä johtopäätöksestä: rajoittamaton tekoälyn kehitys on vaarallista ja jonkinlainen valvonta, koordinointi tai rajoitukset ovat välttämättömiä. Näkemyseroja ovat toteutettavuuden ja kiireellisyyden osalta. Harvoin kuitenkin tarkastellaan sitä, soveltuvatko instituutiot, joiden odotetaan tarjoavan rajoituksia, itse rooliin.
Covid antaa aihetta epäilyksiin.
Covid ei ollut pelkkä kansanterveyskriisi; se oli elävä kokeilu asiantuntijoiden johtamasta hallinnosta epävarmuuden vallitessa. Puutteellisen datan edessä viranomaiset valitsivat toistuvasti maksimaalisia interventioita, joita perusteltiin spekulatiivisilla haitoilla. Eriävää mielipidettä pidettiin usein moraalisena epäonnistumisena pikemminkin kuin tieteellisenä välttämättömyytenä. Politiikkaa ei puolustettu läpinäkyvän kustannus-hyötyanalyysin avulla, vaan vetoamalla auktoriteettiin ja pelkäämällä hypoteettisia tulevaisuuksia.
Tämä kaava on tärkeä, koska se paljastaa, miten modernit instituutiot käyttäytyvät, kun panokset muotoillaan eksistentiaalisiksi. Kannustimet siirtyvät kohti päättäväisyyttä, narratiivista kontrollia ja moraalista varmuutta. Virheiden korjaaminen tulee maineen kannalta kallista. Varotoimenpide lakkaa olemasta työkalu ja siitä tulee oppi.
Opetus ei ole se, että asiantuntijat olisivat ainutlaatuisen virheellisiä. Vaan se, että instituutiot palkitsevat liiallisen itsevarmuuden paljon luotettavammin kuin nöyryyden, varsinkin kun politiikka, rahoitus ja yleinen pelko kohtaavat. Kun poikkeuksellisia valtuuksia vaaditaan turvallisuuden nimissä, niistä harvoin luovutaan vapaaehtoisesti.
Juuri nämä dynamiikat ovat nyt nähtävissä tekoälyn valvontaa koskevissa keskusteluissa.
"Entä jos" -kone
Toistuva perustelu laajalle valtion interventiolle on hypoteettinen paha toimija: Entä jos terroristi rakentaa tämän? Entä jos roistovaltio tekee sen? Tästä lähtökohdasta kumpuaa argumentti, että hallitusten on toimittava ennaltaehkäisevästi, laajamittaisesti ja usein salassa katastrofien estämiseksi.
Covid-aikana samankaltainen logiikka oikeutti laajoja biolääketieteellisiä tutkimusohjelmia, hätälupia ja sosiaalista sääntelyä. Päättely oli kehämäinen: koska jokin vaarallinen ehkä Jos näin käy, valtion on ryhdyttävä poikkeuksellisiin toimiin nyt – toimiin, joihin itsessään liittyi merkittäviä, huonosti ymmärrettyjä riskejä.
Tekoälyn hallintaa kehitetään yhä useammin samalla tavalla. Vaarana ei ole ainoastaan se, että tekoälyjärjestelmät saattavat käyttäytyä arvaamattomasti, vaan myös se, että pelko tästä mahdollisuudesta oikeuttaa pysyvän hätätilanteiden hallinnan – keskitetyn hallinnan laskennan, tutkimuksen ja tiedonkulun yli – sillä perusteella, että vaihtoehtoa ei ole.
Yksityinen riski, julkinen riski
Yksi näissä keskusteluissa aliarvostettu ero on yksityisten toimijoiden luomien riskien ja valtion vallan luomien riskien välillä. Yksityisiä yrityksiä rajoittavat – epätäydellisesti, mutta merkityksellisesti – vastuu, kilpailu, maine ja markkinakuri. Nämä rajoitukset eivät poista vahinkoja, mutta ne luovat takaisinkytkentäsilmukoita.
Hallitukset toimivat eri tavalla. Kun valtiot toimivat katastrofien ehkäisyn nimissä, palaute heikkenee. Epäonnistumiset voidaan luokitella uudelleen välttämättömyyksiksi. Kustannukset voidaan ulkoistaa. Salassapitoa voidaan perustella turvallisuudella. Hypoteettiset tulevaisuuden haitat muuttuvat nykyhetken poliittisiksi vipuvarsiksi.
Useat tekoälyajattelijat myöntävät tämän epäsuorasti. Bostrom on varoittanut "lukkiutumisvaikutuksista" – ei pelkästään tekoälyjärjestelmistä, vaan myös paniikin hetkinä luoduista hallintorakenteista. Anthony Aguirren kehotus globaaliin pidättyvyyteen on loogisesti johdonmukainen, mutta se perustuu kansainvälisiin koordinointielimiin, joiden viimeaikainen maine nöyryydessä ja virheiden korjaamisessa on heikko. Jopa maltillisemmat ehdotukset olettavat sääntelyviranomaisten kykenevän vastustamaan politisoitumista ja tehtävän laajenemista.
Covid ei anna meille juurikaan syytä luottaa tuohon oletukseen.
Valvonnan paradoksi
Tämä johtaa huolestuttavaan paradoksiin tekoälykeskustelun ytimessä. Jos joku aidosti uskoo, että kehittynyttä tekoälyä on rajoitettava, hidastettava tai pysäytettävä, hallituksilla ja kansainvälisillä instituutioilla on todennäköisimmin valta tehdä niin. Silti juuri näiden toimijoiden viimeaikainen toiminta antaa vähiten luottamusta kyseisen vallan hillittyyn ja palautuvaan käyttöön.
Hätätilanteiden rajaaminen on hankalaa. Hypoteettisten riskien hallintaan hankittu valta yleensä säilyy ja laajenee. Instituutiot harvoin vähättelevät omaa merkitystään. Tekoälyn yhteydessä tämä nostaa esiin mahdollisuuden, että tekoälyriskiin reagointi juurruttaa hauraita, politisoituja valvontajärjestelmiä, joita on vaikeampi purkaa kuin mitään yksittäistä teknologiaa.
Vaarana ei siis ole ainoastaan se, että tekoäly karkaa ihmisen kontrollista, vaan se, että tekoälyn pelko kiihdyttää vallan keskittymistä instituutioihin, joiden on jo nyt osoitettu olevan hitaita myöntämään virheitä ja vihamielisiä toisinajattelua kohtaan.
Todellisen riskin uudelleenarviointi
Tämä ei ole argumentti tekoälyyn liittyvän itsetyytyväisyyden puolesta eikä kiistä sitä, että tehokkaat teknologiat voivat aiheuttaa todellista haittaa. Se on argumentti näkökulman laajentamisen puolesta. Institutionaalinen epäonnistuminen on itsessään eksistentiaalinen muuttuja. Järjestelmä, joka olettaa hyväntahtoisen ja itseään korjaavan hallinnon, ei ole sen turvallisempi kuin sellainen, joka olettaa hyväntahtoisen ja linjassa olevan superälyn.
Ennen koronaa oli järkevää selittää suurin osa teknologisesta pessimismistä ihmisen negatiivisuusvinoumalla – taipumuksella uskoa, että sukupolvemme haasteet ovat ainutlaatuisen hallitsemattomia. Covidin jälkeen skeptisyys näyttää vähemmän vinoumalta ja enemmän kokemukselta.
Tekoälykeskustelun keskeinen kysymys ei siis ole pelkästään se, voidaanko koneet sovittaa yhteen inhimillisten arvojen kanssa, vaan se, voidaanko nykyaikaisiin instituutioihin luottaa epävarmuuden hallinnassa sitä pahentamatta. Jos tämä luottamus on heikentynyt – ja Covid-pandemia antaa ymmärtää niin – niin vaatimukset laaja-alaisesta tekoälyn valvonnasta ansaitsevat vähintään yhtä paljon tarkastelua kuin väitteet teknologisesta väistämättömyydestä.
Suurin riski ei ehkä ole tekoälyn liian voimakas vaikutus, mutta tuo pelko oikeuttaa kontrollin muotoja, joiden kanssa myöhemmin huomaamme olevan paljon vaikeampia elää – tai joilta on vaikeampi paeta.
-
Roger Bate on Brownstone-stipendiaatti, vanhempi stipendiaatti International Center for Law and Economicsissa (tammikuu 2023 - nykyhetki), Africa Fighting Malaria -järjestön hallituksen jäsen (syyskuu 2000 - nykyhetki) ja stipendiaatti Institute of Economic Affairsissa (tammikuu 2000 - nykyhetki).
Katso kaikki viestit