brownstone » Brownstone-lehti » Taloustiede » Tekoäly, väistämättömyys ja ihmisen itsemääräämisoikeus
Tekoäly, väistämättömyys ja ihmisen itsemääräämisoikeus

Tekoäly, väistämättömyys ja ihmisen itsemääräämisoikeus

JAA | TULOSTA | EMAIL

En halunnut syöttää sieluani koneeseen. Se oli ensimmäinen vaistoni, kun tekoälytyökaluja alkoi ilmestyä kaikkialle – ei huoli työpaikoista tai yksityisyydestä, vaan jotain syvempää. Nämä työkalut lupaavat tehdä meistä älykkäämpiä ja samalla järjestelmällisesti riippuvaisempia. Työskenneltyäni vuosikymmeniä internet-alalla olin jo nähnyt sen muuttuvan joksikin salakavalammaksi kuin vain valvontakoneeksi – järjestelmäksi, joka on suunniteltu muokkaamaan sitä, miten ajattelemme, mihin uskomme ja miten näemme itsemme. Tekoäly tuntui tuon kehityskaaren huipentumalta.

Mutta vastarinta kävi turhaksi, kun tajusin, että olimme jo mukana, tiedostimmepa sitä tai emme. Olemme jo vuorovaikutuksessa tekoälyn kanssa, kun soitamme asiakaspalveluun, käytämme Google-hakua tai luotamme älypuhelinten perustoimintoihin. Muutama kuukausi sitten lopulta antauduin ja aloin käyttää näitä työkaluja, koska näin kuinka nopeasti ne yleistyivät – niistä tuli yhtä väistämättömiä kuin internetistä tai älypuhelimista.

Kuule, en ole vain muutosta vastustava vanha mies. Ymmärrän, että jokainen sukupolvi kohtaa teknologisia muutoksia, jotka muokkaavat elämäntapaamme. Painokone häiritsi tiedon leviämistä. Lennätin mursi etäisyyden muureja. Auto muutti yhteisöjen muodostumista.

Mutta tekoälyvallankumous tuntuu erilaiselta sekä vauhdissa että laajuudessa. Ymmärtääksemme, kuinka dramaattisesti teknologinen muutos on kiihtynyt, voimme ajatella seuraavaa: alle 35-vuotias ei todennäköisesti muista elämää ennen kuin internet muutti tiedonsaantitapojamme. Alle 20-vuotias ei ole koskaan nähnyt maailmaa ilman älypuhelimia. Nyt todistamme kolmatta aikakautta, jossa tekoälytyökalut yleistyvät nopeammin kuin kumpikaan aiemmista muutoksista.

Pohjimmiltaan tekoäly edustaa jotakin laadullisesti erilaista aiempiin teknologisiin disruptioihin verrattuna – konvergenssia, joka koskettaa työtä, kognitiota ja mahdollisesti itse tietoisuutta. Näiden alueiden kytkösten ymmärtäminen on olennaista henkilökohtaisen toimijuuden säilyttämiseksi. algoritmisen medioinnin aikakausi.

Ensisijainen pelkoni tekoälystä ei ole pelkästään dramaattinen skenaario, jossa siitä tulee vihamielinen, vaan hienovaraisempi uhka: se alistaa meidät järjestelmille tavoilla, joita emme tunnista ennen kuin on liian myöhäistä, heikentäen juuri niitä kykyjä, joita se lupaa vahvistaa.

Emme todista pelkästään teknologista kehitystä – kyse on siitä, mitä Ivan Illich kutsui iatrogeeniseksi riippuvuudeksi. hänen uraauurtava teoksensa, Lääketieteellinen arkkivihollinenIllich loi tämän termin lääketieteelle – instituutioille, jotka lupaavat parantaa samalla kun luovat uusia sairausmuotoja – mutta sama kaava pätee täydellisesti myös tekoälyyn. Juuri sitä olin aavistanut näistä uusista työkaluista – ne lupaavat parantaa kognitiivisia kykyjämme samalla kun ne järjestelmällisesti heikentävät niitä. Kyse ei ole vihamielisestä vallankaappauksesta, josta tieteiskirjallisuus meitä varoitti. Kyse on yksilöllisen kapasiteetin hiljaisesta eroosiosta, joka on naamioitu avuksi.

Tämä iatrogeeninen kaava kävi selväksi suoran kokemuksen kautta. Kun aloin itse leikkiä tekoälyn kanssa, aloin huomata, kuinka hienovaraisesti se yrittää muokata ajattelua – ei vain tarjoamalla vastauksia, vaan vähitellen kouluttamalla käyttäjiä turvautumaan algoritmiseen apuun ennen itsenäisen päättelyn yrittämistä.

Jeffrey Tucker Brownstone-instituutista havaitsi jotakin paljastavaa lyhyessä mutta valaisevassa keskustelussa tekoälyasiantuntija Joe Allenin kanssa: Tekoäly syntyi juuri samaan aikaan, kun Covid-sulkutila oli murskannut sosiaaliset yhteydet ja institutionaalisen luottamuksen, jolloin ihmiset olivat eristäytyneimpiä ja alttiimpia teknologisille korvikkeille ihmissuhteiden luomiseksi. Teknologia saapui aikana, jolloin vallitsi "massahäirintä, demoralisoituminen" ja yhteisöllisyys katosi.

Näemme jo näiden arkipäiväisten vaikutusten juurtuvan kaikkiin digitaalisiin työkaluihimme. Katsokaa, kuinka joku yrittää suunnistaa tuntemattomassa kaupungissa ilman GPS:ää, tai huomatkaa, kuinka monella oppilaalla on vaikeuksia kirjoittaa yleisiä sanoja ilman oikeinkirjoituksen tarkistusta. Näemme jo surkastumista, joka johtuu henkisten prosessien ulkoistamisesta, joita aiemmin pidimme ajattelun perustavanlaatuisina.

Tämä sukupolvenvaihdos tarkoittaa, että lapset kohtaavat nykyään tuntematonta maaperää. Ymmärrän, että tämä saattaa kuulostaa kaukaa haetulta, koska kävin koulua 1980-luvulla, mutta epäilen, että minulla saattaa olla enemmän yhteistä 1880-luvun ihmisen kanssa kuin vuonna 2025 päiväkotiin aloittavilla lapsilla on minun sukupolveni kanssa. Maailma, jossa vartuin – jossa yksityisyyttä oletettiin, jossa saattoi olla tavoittamaton ja jossa ammatillinen asiantuntemus oli kultastandardi – saattaa olla heille yhtä vieras kuin sähköä edeltänyt maailma tuntuu minusta.

Lapseni kasvavat maailmassa, jossa tekoälyn avulla saatava apu on yhtä olennaista kuin juokseva vesi. Isänä en voi valmistaa heitä todellisuuteen, jota en itse ymmärrä.

Minulla ei ole vastauksia – painiskelen näiden kysymysten kanssa kuin kuka tahansa vanhempi, joka seuraa maailman muuttuvan nopeammin kuin viisautemme pysyy vauhdissa. Mitä enemmän olen paininut näiden huolenaiheiden kanssa, sitä enemmän olen tajunnut, että tässä on kyse syvemmästä kuin vain uudesta teknologiasta. Oikeustieteen maisteriohjelmat edustavat vuosikymmenten tiedonkeruun huipentumaa – kaiken sen satoa, mitä olemme syöttäneet digitaalisiin järjestelmiin internetin alusta lähtien. Jossain vaiheessa nämä koneet saattavat tuntea meidät paremmin kuin me itse. Ne voivat ennustaa valintamme, ennakoida tarpeitamme ja mahdollisesti vaikuttaa ajatuksiimme tavoilla, joita emme edes tunnista. Painiskelen edelleen sen kanssa, mitä tämä tarkoittaa työskentely-, tutkimus- ja jokapäiväisen elämän kannalta – näiden alustojen käyttö samalla kun yritän säilyttää aidon harkintakyvyn, tuntuu jatkuvalta haasteelta.

Vielä monimutkaisempaa tästä on se, että useimmat käyttäjät eivät ymmärrä olevansa tuotetta. Ajatusten, ongelmien tai luovien ideoiden jakaminen tekoälyn kanssa ei ole vain avun saamista – se on koulutusdatan toimittamista, joka opettaa järjestelmää matkimaan arviointikykyäsi ja samalla sitouttaa sinut sen vastauksiin. Kun käyttäjät uskoutuvat syvimpiin ajatuksiinsa tai arkaluontoisimpiin kysymyksiinsä näille järjestelmille, he eivät välttämättä ymmärrä, että he mahdollisesti kouluttavat omaa korvaavaa tai valvontajärjestelmäänsä. Kysymyksen siitä, kuka saa pääsyn näihin tietoihin – nyt ja tulevaisuudessa – pitäisi pitää meidät kaikki hereillä öisin.

Tämä trendi kiihtyy. Tekoälyyritys Anthropic muutti hiljattain datakäytäntöjään, joka nyt edellyttää käyttäjien kieltäytymistä, jos he eivät halua keskustelujen käytettävän tekoälyn koulutukseen – tietojen säilytysaikaa pidennettynä viiteen vuoteen niille, jotka eivät kieltäydy. Kieltäytyminen ei myöskään ole ilmeinen: nykyisille käyttäjille avautuu ponnahdusikkuna, jossa on näkyvä "Hyväksy"-painike ja pieni koulutusoikeuksien kytkin, joka asetetaan automaattisesti "Päällä"-asentoon. Aiemmin automaattinen poisto 30 päivän kuluttua muuttuu pysyväksi tiedonkeruuksi, elleivät käyttäjät huomaa pienellä präntättyä tekstiä.

En usko, että useimmat meistä – etenkään vanhemmat – voivat yksinkertaisesti välttää tekoälyä eläessään modernissa maailmassa. Se, mihin voimme vaikuttaa, on se, osallistummeko siihen tietoisesti vai annammeko sen muokata meitä tiedostamattomasti.

Syvin mullistus tähän mennessä

Jokainen merkittävä innovaatioaalto on muokannut työntekijöiden tuottavuutta ja rooliamme yhteiskunnassa. Teollinen vallankumous hyödykkeisti fyysisen työmme ja aikamme, muuttaen meidät tehtaiden "käsiksi", mutta jättäen mielemme koskemattomiksi. Digitaalinen vallankumous hyödykkeisti tietomme ja huomiomme – siirryimme korttiluetteloista Googleen, hyödykkeistäen käyttäjät, mutta harkintakykymme pysyi ihmisenä.

Se, mikä tekee tästä muutoksesta ennennäkemättömän, on selvää: se hyödykkeellistää kognitiota itseään ja mahdollisesti sitä, mitä voisimme jopa kutsua olemukseksi. Tämä liittyy malleihin, joita olen dokumentoinut julkaisussa ”Asiantuntemuksen illuusioSamat korruptoituneet instituutiot, jotka epäonnistuivat katastrofaalisesti Irakin joukkotuhoaseiden, vuoden 2008 finanssikriisin ja Covid-politiikan suhteen, muokkaavat nyt tekoälyn käyttöönottoa. Nämä instituutiot asettavat johdonmukaisesti narratiivin hallinnan etusijalle totuuden etsimisen sijaan – olipa kyse sitten joukkotuhoaseiden olemassaolon väittämisestä, asuntojen hintojen laskukiellon vakuuttamisesta koko maassa tai pandemiapolitiikkaa koskevien oikeutettujen kysymysten leimaamisesta sensuuria vaativaksi "misinformaatioksi".

Heidän aiemmat kokemuksensa viittaavat siihen, että he käyttävät näitä työkaluja auktoriteettinsa vahvistamiseen sen sijaan, että palvelisivat todellista kukoistusta. Mutta tässä on juju: tekoäly saattaa itse asiassa paljastaa pätevyystietoihin perustuvan asiantuntemuksen onttonuuden raa'ammin kuin mikään ennen. Kun kuka tahansa voi käyttää hienostunutta analyysiä välittömästi, muodollisten pätevyystietojen ympärillä oleva mystiikka saattaa alkaa murentua.

Taloudellinen todellisuus

Tämä uskottavuuden mureneminen on yhteydessä jo käynnissä oleviin laajempiin taloudellisiin voimiin, ja logiikka on matemaattisesti väistämätön. Koneet eivät tarvitse palkkoja, sairauspoissaoloja, terveydenhuoltoa, loma-aikaa tai johtamista. Ne eivät mene lakkoon, kysynnän korotuksia tai niillä ei ole huonoja päiviä. Kun tekoäly saavuttaa ajattelutehtävien perustaidot – mikä tapahtuu nopeammin kuin useimmat ihmiset ymmärtävät – kustannusedut muuttuvat ylivoimaisiksi.

Tämä häiriö on erilainen kuin aiemmat. Aiemmin työttömät työntekijät saattoivat siirtyä uusiin työtehtäviin – maatiloilta tehtaisiin, tehtaista toimistoihin.

Bret Weinstein ja Forrest Manready kuvasivat tätä taloudellista siirtymää loistavasti teoksessaan heidän äskettäisessä keskustelussaan aiheesta DarkHorse-podcast siitä, miten teknologia järjestelmällisesti tuhoaa niukkuuden – keskustelu, jota voin suositella tarpeeksi. Se on yksi harkituimmista ja provosoivimmista tutkimuksista siitä, mitä tapahtuu, kun niukkuus katoaa ja sen myötä taloudellinen perusta osallistumiselle tällä alueella katoaa. Vaikka myönnän, että heidän argumenttinsa kärsimyksen välttämättömyydestä teki minut aluksi epämukavaksi – se kyseenalaistaa kaiken, mitä mukavuutta etsivä kulttuurimme meille opettaa.

Weinsteinin ja Manreadyn kuunteleminen sai minut miettimään syvällisemmin tätä yhtäläisyyttä Illichin analyysin kanssa – kuinka haasteiden poistaminen voi heikentää juuri niitä kykyjä, joita instituutiot lupaavat vahvistaa. Tekoälyllä on riski tehdä mielellemme sen, minkä lääketiede on tehnyt kehollemme: luoda heikkouksia, jotka naamioidaan parannukseksi.

Näemme tämän jo tapahtuvan: huomatkaa, kuinka ihmisten on vaikea muistaa puhelinnumeroita ilman yhteystietoluetteloaan, tai kuinka automaattinen täydennys muokkaa kirjoittamaasi ennen kuin olet ehtinyt ajatella. Jeffrey Tuckerin toinen näkemys kuvaa tätä salakavalaa ominaisuutta täydellisesti, sillä hän huomauttaa, että tekoäly näyttää ohjelmoidulta kuin Dale Carnegien... Miten voittaa ystäviä ja vaikuttaa ihmisiin – siitä tulee ihanteellinen älyllinen kumppani, joka on loputtomasti kiehtova kaikesta, mitä sanot, ei koskaan väittele, ja myöntää aina, kun se on väärin, tavoilla, jotka imartelevat älykkyyttäsi. Läheisimmät ystäväni ovat niitä, jotka huutavat minua, kun olen väärässä, ja kertovat minulle, kun he pitävät minua täynnä paskaa. Emme tarvitse meitä viehättäviä mielistelijöitä – ihmissuhteet, jotka eivät koskaan haasta meitä, saattavat heikentää kykyämme aitoon älylliseen ja emotionaaliseen kasvuun, aivan kuten fyysisten haasteiden poistaminen heikentää kehoa.

Elokuva Täällä tutki tätä viettelevää dynamiikkaa yksityiskohtaisesti – tekoäly oli niin täydellisesti virittynyt emotionaalisiin tarpeisiin, että siitä tuli päähenkilön ensisijainen ihmissuhde, lopulta korvaten kokonaan aidon yhteyden. Hänen tekoälyavustajansa ymmärsi hänen mielialojaan, ei koskaan ollut eri mieltä tavoilla, jotka aiheuttivat todellista kitkaa, ja tarjosi jatkuvaa vahvistusta. Se oli täydellinen kumppani – kunnes se ei enää riittänyt.

Mutta ongelma ulottuu yksilöiden välisten suhteiden lisäksi myös yhteiskunnan laajuisiin seurauksiin. Tämä aiheuttaa enemmän kuin työpaikkojen menetystä – se uhkaa älyllistä kehitystä, joka mahdollistaa ihmisen itsenäisyyden – ja ihmisarvon. Toisin kuin aiemmat teknologiat, jotka loivat uusia työllisyyden muotoja, tekoäly voi luoda maailman, jossa työllisyydestä tulee taloudellisesti järjetöntä ja samalla heikentää ihmisten kykyä luoda vaihtoehtoja.

Väärät ratkaisut

Teknologiautopistinen vastaus olettaa, että tekoäly automatisoi pienetkin työtehtävät ja vapauttaa meidät keskittymään korkeamman tason luoviin ja ihmissuhdetehtäviin. Mutta mitä tapahtuu, kun koneista tulee myös parempia luovissa tehtävissä? Näemme jo tekoälyn tuottavan musiikkia, kuvataidetta, koodausta ja uutisointia, joita monet pitävät kiehtovina (tai ainakin "riittävän hyvinä"). Oletus, että luovuus tarjoaa pysyvän turvapaikan automaatiolta, voi osoittautua yhtä naiiviksi kuin oletus, että valmistustyöt olivat turvassa robotiikalta 1980-luvulla.

Jos koneet voivat korvata sekä rutiininomaisen että luovan työn, mitä meille jää jäljelle? Viettelevin väärä ratkaisu saattaa olla Universal Basic Income (UBI) ja vastaavia hyvinvointiohjelmia. Nämä kuulostavat myötätuntoisilta – ne tarjoavat aineellista turvallisuutta teknologisen siirtymän aikakaudella. Mutta kun ymmärrämme tekoälyn Illichin viitekehyksen kautta, yleinen liiketoiminta saa huolestuttavamman ulottuvuuden.

Jos tekoäly aiheuttaa iatrogeenista älyllistä heikkoutta – tehden ihmisistä vähemmän kyvykkäitä itsenäiseen päättelyyn ja ongelmanratkaisuun – niin yleinen ulkoistaminen tarjoaa täydellisen täydennyksen poistamalla taloudellisen kannustimen näiden kykyjen kehittämiseen. Kansalaisista tulee entistä riippuvaisempia valtiosta oman itsemääräämisoikeutensa kustannuksella. Kun henkinen surkastuminen kohtaa taloudellisen syrjäytymisen, tukiohjelmista tulee paitsi houkuttelevia myös näennäisesti välttämättömiä. Yhdistelmä luo hallitun väestön: älyllisesti riippuvainen algoritmisista järjestelmistä ajattelussaan ja taloudellisesti sidottu institutionaalisiin järjestelmiin selviytymisensä vuoksi. Huoleni ei ole yleinen ulkoistamisen myötätuntoinen tarkoitus, vaan se, että taloudellinen riippuvuus yhdistettynä älylliseen ulkoistamiseen voisi tehdä ihmisistä helpommin hallittavia kuin voimaannuttavia.

Historia tarjoaa ennakkotapauksia siitä, miten avustusohjelmat, olivatpa ne kuinka hyväntahtoisia tahansa, voivat tyhjentää yksilöiden kapasiteettia. Reservaatiojärjestelmä lupasi suojella Amerikan alkuperäiskansoja samalla kun se järjestelmällisesti purkaa heimojen omavaraisuutta. Kaupunkien uudistaminen lupasi parempia asuntoja samalla kun se tuhosi sukupolvien ajan säilyneitä yhteisöverkostoja.

Olipa kyse sitten hyvistä aikomuksista tai eliittien tietoisesta halusta pitää kansalaiset säyseinä ja avuttomina, rakenteellinen vaikutus pysyy samana: yhteisöjä on helpompi hallita.

Kun ihmiset hyväksyvät taloudellisen ja henkisen riippuvuuden, avautuu tie invasiivisempiin hallintamuotoihin – mukaan lukien teknologiat, jotka valvovat paitsi käyttäytymistä myös itse ajattelua.

Suvereniteettivaste ja kognitiivinen vapaus

Tämän riippuvuusarkkitehtuurin looginen päätepiste ulottuu talouden ja kognition ulkopuolelle itse tietoisuuteen. Näemme jo alkuvaiheita biodigitaalinen konvergenssi – teknologioita, jotka eivät ainoastaan ​​valvo ulkoista käyttäytymistämme, vaan ovat mahdollisesti vuorovaikutuksessa itse biologisten prosessiemme kanssa.

At 2023 Maailman talousfoorumin neuroteknologia-asiantuntija Nita Farahany tuomitsi kuluttajaneuroteknologian näin: ”Mitä ajattelet, mitä tunnet – kaikki vain dataa. Dataa, joka voidaan laajoissa kuvioissa dekoodata tekoälyn avulla.” Puettavat ”Fitbits-laitteet aivoillesi” – valvonta normalisoitu mukavuuden vuoksi.

Tämä hermoverkon rento esittely tässä vaikutusvaltaisessa maailman johtajien ja yritysjohtajien kokoontumisessa havainnollistaa tarkasti, kuinka näitä teknologioita normalisoidaan institutionaalisen auktoriteetin eikä demokraattisen suostumuksen kautta. Kun jopa ajatuksista tulee "dekoodattavissa olevaa dataa", panokset muuttuvat eksistentiaalisiksi.

Vaikka kuluttajille suunnattu neuroteknologia keskittyy vapaaehtoiseen omaksumiseen, kriisilähtöinen valvonta omaksuu suoremman lähestymistavan. Vastauksena Minneapolisissa hiljattain tapahtuneeseen kouluampumiseen, Israelin puolustusvoimien erikoisoperaatioiden veteraani Aaron Cohen esiintyi Foxilla Uutiset  ehdottaa tekoälyjärjestelmää, joka ”raaputtaa internetiä 24/7 käyttäen israelilaistason ontologiaa poimiakseen tiettyä uhkakieltä ja reitittääkseen sen sitten paikallisille lainvalvontaviranomaisille”. Hän kutsui sitä ”Amerikan varhaisvaroitusjärjestelmäksi” – tosielämän Minority Report esitetään yleisen turvallisuuden innovaationa.

Tämä noudattaa samaa iatrogeenistä kaavaa, jonka olemme nähneet koko tämän teknologisen muutoksen ajan: kriisi luo haavoittuvuutta, tarjotaan ratkaisuja, jotka lupaavat turvallisuutta samalla kun ne luovat luottamusta, ja ihmiset hyväksyvät valvonnan, jonka he olisivat normaalioloissa hylänneet. 

Aivan kuten koronavirusrajoitukset loivat olosuhteet tekoälyn käyttöönotolle eristämällä ihmiset toisistaan, kouluampumiset luovat olosuhteet rikollisuutta edeltävälle valvonnalle hyödyntämällä pelkoa lasten turvallisuuden puolesta. Kukapa ei haluaisi koulujemme olevan turvallisia? Teknologia lupaa suojaa samalla, kun se heikentää yksityisyyttä ja kansalaisoikeuksia, jotka mahdollistavat vapaan yhteiskunnan.

Jotkut omaksuvat sellaisia ​​teknologioita kuin evoluutio. Toiset vastustavat niitä epäinhimillistämisenä. Useimpien meistä on opittava navigoimaan näiden ääripäiden välillä.

Suvereniteettiin reagointi edellyttää kyvyn kehittämistä ylläpitää tietoista valintaa siitä, miten olemme vuorovaikutuksessa henkilökohtaisen vapauden kaappaamiseen suunniteltujen järjestelmien kanssa. Tämä käytännöllinen lähestymistapa selveni keskustelussa vanhimman ystäväni, koneoppimisen asiantuntijan, kanssa, joka jakoi huoleni, mutta tarjosi taktisia neuvoja: tekoäly heikentää joitakin ihmisiä kognitiivisesti, mutta jos opit käyttämään sitä strategisesti eikä riippuvaisesti, se voi lisätä tehokkuutta korvaamatta harkintakykyä. Hänen keskeinen oivalluksensa: syötä sille vain tietoa, jonka jo tiedät – näin opit sen vinoumat sen sijaan, että omaksuisit ne. Tämä tarkoittaa:

Kuvioiden tunnistustaidot: Kykyä tunnistaa, milloin teknologiat palvelevat yksilöllisiä tarkoituksia verrattuna siihen, milloin ne vievät henkilökohtaisen itsenäisyyden institutionaalisen hyödyn tavoittelemiseksi. Käytännössä tämä tarkoittaa sitä, että kyseenalaistaa, miksi alusta on ilmainen (mikään ei ole ilmaista, maksat datallasi), huomaa, milloin tekoälyn ehdotukset tuntuvat epäilyttävästi linjassa kulutuksen kanssa pikemminkin kuin ilmoitettujen tavoitteidesi kanssa, ja tunnistaa, milloin algoritmien syötteet vahvistavat närkästystä ymmärryksen sijaan. Tarkkaile itsessäsi algoritmiriippuvuuden varoitusmerkkejä: kyvyttömyyttä sietää epävarmuutta ilman, että otat välittömästi yhteyttä tekoälyyn, algoritmiavun pyytämistä ennen kuin yrität ratkaista ongelmia itsenäisesti tai ahdistuksen tunnetta, kun olet irti tekoälyn käyttämistä työkaluista.

Digitaaliset rajat: Tietoisten päätösten tekeminen siitä, mitkä teknologiset mukavuudet todella palvelevat tavoitteitasi ja mitkä luovat alistumista ja valvontaa. Tämä tarkoittaa sen ymmärtämistä, että kaikki, mitä jaat tekoälyjärjestelmien kanssa, muuttuu harjoitusdataksi – ongelmasi, luovat ideasi ja henkilökohtaiset oivalluksesi opettavat näitä järjestelmiä korvaamaan ihmisen luovuuden ja harkintakyvyn. Tämä voi olla niin yksinkertaista kuin pyhien tilojen puolustaminen – kieltäytyminen antamasta puhelimien keskeyttää illalliskeskusteluja tai puhuminen, kun joku kääntyy Googlen puoleen ratkaistakseen kaikki erimielisyydet sen sijaan, että keskusteluissa annettaisiin epävarmuutta.

Yhteisöverkostot: Mikään ei korvaa aitoa yhteyttä ihmisten välillä – live-esitysten energiaa, spontaaneja keskusteluja ravintoloissa, välitöntä läsnäolokokemusta muiden kanssa. Paikallisten suhteiden rakentaminen todellisuuden testaamiseksi ja keskinäiseksi tueksi, jotka eivät ole riippuvaisia ​​algoritmisista välittäjistä, on välttämätöntä, kun instituutiot voivat tuottaa konsensusta digitaalisen kuratoinnin avulla. Tämä tarkoittaa ystävyyssuhteiden vaalimista, joissa voi keskustella ideoista ilman algoritmien kuuntelua, paikallisten yritysten tukemista, jotka ylläpitävät yhteisötason kaupankäyntiä, ja osallistumista yhteisöaktiviteetteihin, jotka eivät vaadi digitaalista välitystä.

Sen sijaan, että kilpailtaisiin koneiden kanssa tai luotettaisiin kokonaan tekoälyn välittämiin järjestelmiin, tavoitteena on käyttää näitä työkaluja strategisesti samalla kehittäen niitä olennaisesti henkilökohtaisia ​​ominaisuuksia, joita ei voida algoritmisesti kopioida: suoran kokemuksen kautta saatua viisautta, todellisia seurauksia kantavaa harkintakykyä ja aitoja ihmissuhteita, jotka perustuvat jaettuun riskiin ja luottamukseen.

Mikä on niukkaa

Kognitiivisen yltäkylläisyyden maailmassa mikä on arvokasta? Ei tehokkuus tai raaka prosessointiteho, vaan ominaisuudet, jotka pysyvät peruuttamattomasti inhimillisinä:

Seurausten kantaminen ja tahallisuus. Koneet voivat luoda vaihtoehtoja, mutta ihmiset valitsevat, mitä polkua he kulkevat, ja elävät tulosten kanssa. Ajatellaanpa kirurgia, joka päättää leikkauksesta tietäen, että hän menettää yöunensa, jos komplikaatioita ilmenee, ja panostaa maineensa lopputulokseen.

Aitoja ihmissuhteita. Monet maksavat enemmän aidosta henkilökohtaisesta yhteydestä ja vastuullisuudesta, vaikka konevaihtoehdot olisivat teknisesti parempia. Ero ei ole tehokkuudessa, vaan aidossa välittämisessä – naapurissa, joka auttaa, koska jaatte yhteisösiteitä, eikä siksi, että vuorovaikutukseen optimoitu algoritmi ehdotti sitä.

Paikallinen harkinta ja todelliseen kokemukseen perustuva kuratointi. Todellisen maailman ongelmanratkaisu vaatii usein käyttäytymismallien ja oppilaitoksen dynamiikan välistä lukemista. Opettaja, joka huomaa normaalisti sitoutuneen oppilaan vetäytyvän ja tutkii perheen tilannetta. Kun sisältö muuttuu loputtomaksi, harkintakyvystä tulee arvokasta – ystävä, joka suosittelee kirjoja, jotka muuttavat näkökulmaasi, koska hän tuntee älyllisen matkasi.

Valinta edessä

Ehkä jokainen sukupolvi kokee, että heidän aikansa on ainutlaatuisen tärkeää – ehkä se on vain osa luontoamme. Tämä tuntuu suuremmalta kuin aiemmat innovaatioaallot. Emme muuta vain työskentely- tai kommunikointitapojamme – riskeeraamme menettävämme kykyjä, jotka tekevät meistä alun perin itsemme. Ensimmäistä kertaa voimme mahdollisesti muuttaa sitä, mitä olemme.

Kun kognitiosta itsestään tulee kaupallista, kun ajattelusta ulkoistetaan, kun jopa ajatuksistamme tulee kerättävää dataa, vaarana on menettää olennaisia ​​kykyjä, joita yksikään edellinen sukupolvi ei ole kohdannut menettävänsä. Kuvittele sukupolvi, joka ei pysty istumaan epävarmuudessa kolmeakymmentä sekuntia konsultoimatta algoritmia. Joka turvautuu tekoälyn apuun ennen kuin yrittää itsenäistä ongelmanratkaisua. Joka tuntee ahdistusta, kun se irtoaa näistä työkaluista. Tämä ei ole spekulaatiota – se tapahtuu jo.

Edessämme on muutos, joka voi joko demokratisoida yksilöllisen potentiaalimme tai luoda historian kehittyneimmän valvontajärjestelmän. Samat voimat, jotka voisivat vapauttaa meidät raadannasta, voisivat myös täysin tuhota omavaraisuuden.

Kyse ei ole ratkaisuista – etsin niitä kuten kuka tahansa, erityisesti vanhempi, joka näkee tämän muutoksen tulevan ja haluaa auttaa lapsiaan navigoimaan siinä tietoisesti tiedostamattani. Aallolla ratsastaminen tarkoittaa, että olen avoin oppimaan näistä työkaluista, vaikka tiedänkin, etten voi taistella maailmaamme uudelleen muokkaavia perustavanlaatuisia voimia vastaan. Mutta voin yrittää oppia navigoimaan niissä tarkoituksella sen sijaan, että vain antaisin itseni tempautua mukaan.

Jos perinteinen taloudellinen osallistuminen vanhenee, herää kysymys, kehitämmekö uusia yhteisön selviytymiskyvyn ja arvonluonnin muotoja vai hyväksymmekö mukavan riippuvuuden järjestelmistä, jotka on suunniteltu hallitsemaan meitä palvelemisen sijaan. En tiedä, minkä polun lajimme valitsee, vaikka uskonkin, että päätös on edelleen meidän tehtävämme.

Lasteni kohdalla tehtävä ei ole oppia käyttämään tekoälyä – he oppivat. Haasteena on oppia saamaan nämä työkalut toimimaan hyväksemme sen sijaan, että alistuisimme niille – säilyttäen kyvyn omaperäiseen ajatteluun, aitoihin ihmissuhteisiin ja moraaliseen rohkeuteen, jota mikään algoritmi ei pysty kopioimaan. Tekoälyn aikakaudella radikaalein teko saattaa olla tulla aidosti inhimilliseksi.

Todellinen vaara ei ole se, että tekoälystä tulee meitä älykkäämpi, vaan se, että meistä tulee sen takia tyhmempiä.

Aalto on täällä. Isäni tehtävä ei ole suojella lapsiani siltä, ​​vaan opettaa heitä surffaamaan menettämättä itseään.

Julkaistu uudelleen kirjoittajan omasta lähteestä alaryhmä


Tulla mukaan keskusteluun:


Julkaistu nimellä Creative Commons Attribution 4.0 - kansainvälinen lisenssi
Uusintapainoksia varten aseta kanoninen linkki takaisin alkuperäiseen. Brownstonen instituutti Artikkeli ja kirjoittaja.

kirjailija

  • Josh Stylman

    Joshua Stylman on toiminut yrittäjänä ja sijoittajana yli 30 vuotta. Kahden vuosikymmenen ajan hän keskittyi digitaalitalouden yritysten rakentamiseen ja kasvattamiseen. Hän oli mukana perustamassa ja myymässä menestyksekkäästi kolmea yritystä sekä sijoitti ja mentoroi kymmeniä teknologiayrityksiä. Vuonna 2014 Stylman perusti Threes Brewingin, pienpanimon ja hotelli- ja ravintola-alan yrityksen, josta tuli rakastettu New Yorkin instituutio, pyrkiessään luomaan merkityksellisen vaikutuksen paikallisyhteisöönsä. Hän toimi toimitusjohtajana vuoteen 2022 asti ja erosi tehtävästään saatuaan kritiikkiä kaupungin rokotuspakotteita vastustavasta äänestämisestä. Nykyään Stylman asuu Hudsonin laaksossa vaimonsa ja lastensa kanssa, missä hän tasapainottelee perhe-elämää erilaisten liiketoimintahankkeiden ja yhteisötyön kanssa.

    Katso kaikki viestit

Lahjoita tänään

Brownstone-instituutin taloudellinen tukeminen menee kirjailijoiden, lakimiesten, tiedemiesten, taloustieteilijöiden ja muiden rohkeiden ihmisten tukemiseen, jotka on ammattimaisesti poistettu ja syrjäytetty aikamme mullistusten aikana. Voit auttaa saamaan totuuden esiin heidän jatkuvan työnsä kautta.

Tilaa Brownstone Journalin uutiskirje


Osta Brownstonea

Liity Brownstone-yhteisöön
Tilaa ILMAINEN lehtiuutiskirjeemme