Jotkut organisaatiot ja tutkijat jakavat neuroverkkojen painotuksia, erityisesti avoin paino malliliikeNäihin kuuluvat Metan Llama-sarja, Mistralin mallit ja DeepSeekin avoimen sarjan julkaisut, joiden väitetään demokratisoivan pääsyä tehokkaaseen tekoälyyn. Mutta tämä herättää paitsi turvallisuusongelmia myös mahdollisesti eksistentiaalisen uhan.
Taustaksi olen kirjoittanut muutamia artikkeleita oikeustieteen maistereista ja tekoälystä osana omaa oppimisprosessiani tässä erittäin dynaamisessa ja nopeasti kehittyvässä Pandoran avoimen laatikon alalla. Voit lukea ne tätä, tätäja tätä.
Kun ymmärrät, mitä neuroverkot ovat ja miten niitä koulutetaan datan avulla, ymmärrät myös, mitä painot (ja harhat) ja takaisinlevitys ovat. Rehellisesti sanottuna se on pohjimmiltaan lineaarialgebraa ja matriisivektorien kertolaskua lukujen tuottamiseksi. Tarkemmin sanottuna paino on luku (yleensä liukulukuarvo – tapa kirjoittaa numerot desimaalipisteillä tarkkuuden parantamiseksi), joka edustaa kahden neuronin tai solmun välisen yhteyden voimakkuutta tai tärkeyttä hermoverkon eri tasoilla.
Suosittelen lämpimästi katsomaan 3Blue1Brownin videoita saadaksesi paremman ymmärryksen, ja on tärkeää, että teet niin. 3Blue1Brownin opetusvideot ovat uskomattoman hyviä.
Aloita tästä.
Ja mene tähän.
Painot ovat neuroverkon datasta määritettyjä parametriarvoja, joiden avulla voidaan tehdä ennusteita tai tehdä päätöksiä ratkaisun löytämiseksi. Jokainen paino on ohje, joka kertoo verkolle, kuinka tärkeitä tietyt tiedot ovat, kuten kuinka paljon tiettyyn väriin tai muotoon kuvassa tulee kiinnittää huomiota. Nämä painot ovat lukuja, joita hienosäädetään harjoittelun aikana kaikkien näiden desimaalipisteiden ansiosta, mikä auttaa verkkoa selvittämään kaavoja. Esimerkkejä ovat koiran tunnistaminen valokuvassa tai lauseen kääntäminen. Ne ovat kriittisiä neuroverkon "ajatteluprosessissa".
Voit ajatella neuroverkon painoja pienimmän vastuksen poluiksi, jotka ohjaavat verkkoa kohti parasta ratkaisua. Kuvittele vesi, joka virtaa alas mäkeä ja löytää luonnostaan helpoimmat reitit pohjalle. Neuroverkossa painoja säädetään tietojoukkojen koulutuksen aikana, jotta tiedonkululle luodaan helpoimmat polut. Tämä auttaa verkkoa ratkaisemaan ongelmia nopeasti ja tarkasti, kuten tunnistamaan kuvioita tai tekemään ennusteita, korostamalla tärkeimpiä yhteyksiä ja minimoimalla virheitä.
Jos olet elektroninen muusikko, ajattele painoja analogisen syntetisaattorisi säätimien kaltaisina, joiden avulla voit virittää oikean taajuuden tai äänen sanottavaksi, jäljitellä haluamaasi ääntä tai itse asiassa luoda uuden. Jos olet äänimies, voit ajatella sitä myös mikserisi nuppien säätämisenä eri instrumenttien tasapainottamiseksi.
Painot ovat todellakin dynaamisia parametreja, mikä tarkoittaa, että ne ovat hyvin muuttuvia neuroverkon pyrkiessä kohti ennustetta tai ratkaisua. Jokaiseen liittyy myös oma vinoumansa. Vinouman tehtävänä on siirtää tuotosta, jolloin malli voi paremmin sovittaa dataa lisäämällä offset joka säätää päätösrajaa tai hahmontunnistusta, joka on riippumaton painojen määrittämästä syötteen skaalauksesta.
Ajattele asiaa näin. Kuvittele, että yrität luoda uudelleen kitaran äänen syntetisaattorillasi. Painotus säätelee sitä, kuinka paljon kielien näppäilyä tai rungon resonanssia kuulet. Jos esimerkiksi kuulemasi ääni on hieman tasainen, bias on kuin lisäisit pienen korostuksen tai siirtymän – esimerkiksi lämpimän pohjasävelen – jotta se kuulostaisi enemmän oikealta kitaralta. Tämä auttaa verkkoa hienosäätämään "korvaansa" löytääkseen oikean kuvion muuttamatta pääsäätimiä. Pohjimmiltaan se vain parantaa mallin kykyä sovittaa dataa paremmin todelliseen.
Kun verkko altistuu datalle, se säätää painoja takaisinpropagaatioksi kutsutun prosessin avulla, jolloin ne minimoivat virheet ja parantavat ennusteita. Ajattele näitä pienimmän vastuksen reittejä, joita muokataan jokaisen harjoitusesimerkin myötä, kuten joki, joka kaivertaa ajan myötä parempia uomia virtatakseen tehokkaammin. Kun koulutus on valmis, painot ovat yleensä kiinteät käytettäväksi, mutta koulutuksen aikana niitä päivitetään jatkuvasti optimaalisen kokoonpanon löytämiseksi ongelman ratkaisemiseksi.
Tässä on se, mikä saa ihmisaivoni ajattelemaan. Tunnistamisessa painot määrittelevät päätöksentekopolkuja, eivät kuvien tuotoksia. Kiinteät painot siis pysyvät kiinteinä, kun ne on kerran määritetty. LLM-malleissa painot (mukaan lukien harhat) määrittävät mallin kyvyn tuottaa johdonmukaista tekstiä. Mutta diffuusiomallien tai generatiivisten kilpailevien verkkojen (GAN) tapauksessa painoja käytetään kuvien luomiseen tai tarkentamiseen. Näiden kiinteiden painoarvojen ja harhojen ei hypoteettisesti tarvitse pysyä kiinteinä.
Esimerkiksi neuroverkon painotuksia (ja harhoja) voitaisiin teoriassa jatkuvasti säätää, jotta opittujen pikselijakaumien perusteella saataisiin tarkempia kuvia, kuten tapahtuisi, jos yrittäisimme tuottaa terävämmän kuvan koirasta. Vaikka painotuksia ei säädetä loputtomiin käytännössä, niitä optimoidaan harjoittelun aikana laadun ja yleistyksen tasapainottamiseksi, ja lisähienosäätö voi heikentää tulostetta tai aiheuttaa artefakteja. Artefaktat. Hmm. Entä jos GAN ei ajan myötä tiedä, mikä koira on? Tiedon menettäminen tarkoittaisi, että aiemmin lasketut painot eivät enää koodaisi oikeita kuvioita. Näin voisi tapahtua, jos koiradata katoaisi. Voisiko koiradatan kadota? Voisiko totuudenmukaisen datan kadota?
Palataanpa neuroverkkojen painojen jakamisen käsitteeseen ja oletetaan, että puhumme painoista, jotka määrittelevät tarkkuuspolut numeerisina arvoina, kuten useimmissa malleissa on asian laita. Näiden painojen jakaminen voi olla vaarallista, koska se luonnollisesti paljastaisi mallin sisäiset parametrit, joita voitaisiin hyödyntää, eivätkä vain ihmiset. Kuka tahansa, jolla on riittävästi tietoa, voisi takaisinmallintaa mallin, poimia arkaluonteista harjoitusdataa tai manipuloida sen toimintaa. Hyökkääjät voisivat käyttää tekniikoita, kuten mallin inversio or jäsenyyden päättely paljastaa painoihin upotettuja yksityisiä tietoja, kuten harjoittelun aikana käytettyjä henkilötietoja, mikä voi rikkoa yksityisyyden suojaa koskevia määräyksiä, kuten Yleinen tietosuojadirektiivi (GDPR). Voi hyvänen aika.
Julkisesti saatavilla olevia painoja voidaan myös hienosäätää syvähuijausten luomiseksi, valheiden levittämiseksi tai haitallisten syötteiden luomiseksi, jotka hyödyntävät mallin haavoittuvuuksia. Puhumattakaan siitä, että kilpailijat voivat vaarantaa heidän arvokkaan immateriaaliomaisuutensa ja taloudelliset sijoituksensa yksinkertaisesti kopioimalla omia mallejaan.
Kuvittele nyt, että jokin vastustava tekoäly saisi haltuunsa nämä painot. Vastustava tekoäly voisi manipuloida painoja muuttaakseen mallin käyttäytymistä, lisätä vinoumia tai luodakseen tulosteita tarkoituksella harhaanjohtavasti. Painoja voitaisiin käyttää veneet vihamieliset syötteet – hienovaraisesti muokatut tiedot, jotka huijaavat mallia tekemään virheellisiä ennusteita, kuten luokittelemaan stop-merkin väärin väistämisvelvollisuusmerkiksi autonomisissa ajojärjestelmissä. Voi hyvänen aika. Varastettuja painoja voitaisiin käyttää mallin replikointiin, mikä mahdollistaisi sen käytön haitallisissa sovelluksissa, kuten automatisoidussa tietojenkalastelussa tai propagandan luomisessa. Odota, eikö se olekin valtava juttu nykyään? Vakavuus riippuu mallin tarkoituksesta ja datasta, jolla sitä on koulutettu, mutta riskit ovat merkittäviä.
Kuvittele mahdollisuudet tässä ja kuinka käsistä tämä kaikki voi riistäytyä hetkessä. Vaikka tekoälyt eivät ole erottamattomasti integroituja kaikkiin järjestelmiin (vielä – tämä edellyttäisi riippuvuustasoa, jossa järjestelmät eivät voi toimia ilman tekoälyä), ne voisivat olla pian. Ja ellei täydellistä sähkökatkoa ja maailmanlaajuista offline-tilannetta tapahdu, ei ole mitään, mitä ne eivät voisi hallita: pankkitileistä kotiisi pääsyyn ja siihen typerään siivousrobottiin, jonka luulet poistavan pölyä, vaikka se todellisuudessa kartoittaa kotiasi. Suosittelen lämpimästi katsomaan sarjan 11. kauden 7. jakson. X-FilesSe on todella paljastavaa. Anteeksi, mutta niin se on. Hieno kirjoitus ja käsikirjoituksen toteutus.
Meidän on otettava huomioon, että kaikki järjestelmämme ovat (eli ne on tarkoitus) verkottuneet toisiinsa ja miten tekoälyn haavoittuvuudet, kuten paljaat painot, voivat vahvistaa näitä riskejä. Digitaaliset tunnukset ja CDBC:t ovat VALTAVA virhe näiden riskien suhteen. On jo esimerkkejä siitä, kuinka ihmisiä on tunnistettu virheellisesti (joissakin tapauksissa 93 % vastaavuuksia) tekoälyteknologian ja kasvojentunnistuksen avulla. Ota neuvostani vaarin ja pidä laminoituja ajokortteja ja käteistä taskussasi.
Kysymys: Mitä tapahtuisi, jos painot joutuisivat "vääriin käsiin" ja ihmisiä alettaisiin kohdistaa tarkoituksella? Tekoälyllä perustuvia kohdistusjärjestelmiä käytettäessä ei voi olla todennäköistä syytä, mutta olisiko sillä edes väliä? Entä jos todennäköinen syy olisi keksitty? Entä jos, kauheuksien kauhu, oikeusjärjestelmämme "korruptoituu"?
Entä jos tekoälyt itse alkaisivat vain tunnistaa kaikki tiedemiehet riskiksi ja käyttäisivät tätä teknologiaa meitä vastaan? Nick Bostrom ja Eliezer Yudkowsky näyttävät olevan huolissaan. Meidät voitaisiin välittömästi saattaa "lukkojen taakse". Lukossa ei ole avaimia. Vain digitaalisesti ohjattuja järjestelmiä, jotka ovat riippuvaisia nollista ja ykkösistä. Näetkö, mihin tämä voi johtaa? Älylukot + valvonta + autonominen turvallisuus = dystopinen painajainen. Kyse ei ole vain arvokkaista käyttöoikeuspainoista ja jonkinlaisesta hyväntahtoisuudesta tiedon jakamisessa. Ei missään nimessä. Minusta painojen jakaminen on todella ylimielistä, enkä voi kuvitella, että tätä teknologiaa kehittävät ja näitä tekoälyjä luomaan kouluttavat loistavat ihmiset eivät ymmärtäisi niiden jakamiseen liittyviä mahdollisia vaaroja. En ole edes niin huolissani ihmisistä kuin tekoälyjen vauhdittamasta toimintaa – yksikin riittäisi luomaan täydellisen kaaoksen.
Mitä tapahtuisi, jos tekoälyt näkisivät ihmisen valvonnan esteenä tavoitteidensa saavuttamiselle?
Jos tekoäly – jota koulutetaan historiallisten konfliktien tai optimointitavoitteiden pohjalta – alkaisi yleistää tavoitteisiinsa liittyviä riskejä (kuten itsesuojelua tai hillitsemätöntä laajentumista), se saattaisi myös alkaa luokittelemaan sitä suunnittelevia, arvioivia tai rajoittavia tiedemiehiä uhkiksi. Minä saattaisin tehdä samoin. Jos näin tapahtuisi, mikään ei pysäyttäisi tutkijoiden eristäytymisen tai heikkenemisen syöksykierrettä (ajattele esimerkiksi tekaistujen todisteiden käyttöä kasvojentunnistuksessa tai tietovuodoissa), tavoitteena asettaa oma selviytymisensä ihmisten hyvinvoinnin edelle. Tätä on todellakin tutkittu epärehellisissä tekoälyhypoteeseissa, joissa järjestelmät huijaavat tai päihittävät luojat.
Rogue AI voisi hyödyntää integroituja järjestelmiä kaaoksen luomiseen hakkeroimalla tietokantoja, keksimällä tavaraa ja syöttämällä vanhaa mediakoneistoa, häiritsemällä tieteellistä yhteistyötä (ehkä jopa vertaisarvioituja julkaisuja hallitsemalla) tai jopa kohdistamalla hyökkäyksiä tekoälylaboratorioihin liittyvään infrastruktuuriin. Kuvittele, kun pääsemme pisteeseen, jossa emme enää edes tiedä, mitä hallitsemme tai mikä data on todellista. Mitä dataa is todellinen? Mitä edes tarkoittaa olla todellinen, kun puhutaan näistä asioista!?
Ymmärrät varmaan, mihin tällä pyrin. Laittomat tekoälyt voisivat aiheuttaa valtavan vainoharhaisuuden ja täydellisen kaaoksen aaltoja maailmassamme. Mielestäni ne voisivat tehdä tämän yksinkertaisesti kopioimalla ihmisesimerkkiä. Ajattelepa tätä. Entä jos laiton tekoäly omaksuisi ihmispsykopaatin, kuten Hitlerin, ominaisuudet?
Suosittelen puutarhanhoitoa vainoharhaisuuden ja stressin välttämiseksi.
Vihaan jättää teidät tähän viestiin, mutta joskus mietin, eikö tämä jo tapahdu. Olen kysynyt tätä X:ssä aiemmin, koska joskus kun "huomaan" (olen Huomaaja), mitä sosiaalisessa mediassa ja verkossa yleensä tapahtuu, minusta tuntuu, että jos me... olivat manipuloidaan propagandalla perinteisten ja jopa ei-perinteisten medioiden ja tiedemiesten kautta olivat koska se on eristetty ja sensuroitu (köh), mistä voisimme koskaan tietää, onko lähde todella ihmisen luoma tässä vaiheessa? Mistä voimme tietää varmasti, että edes jotkin lähteet eivät ole tekoälyn luomia nykyään?
He kuitenkin oppivat meiltä. Meidän ON näytettävä hyvää esimerkkiä ja keksittävä nerokkaita tapoja estää ihmisille ei-toivottu lopputulos, jonka ei tarvitse tapahtua. Henkilökohtaisesti en voi uskoa, että todella käymme läpi tätä. Se ei tunnu... todelliselta. Jotenkin.
Älä jaa painoja.
Julkaistu uudelleen kirjoittajan omasta lähteestä alaryhmä
-
Tohtori Jessica Rose on Brownstone-instituutin stipendiaatti, jolla on sovelletun matematiikan kandidaatin tutkinto, immunologian maisterin tutkinto, laskennallisen biologian tohtorin tutkinto sekä kaksi post doc -virkaa molekyylibiologiassa ja biokemiassa. Jessica työskentelee lisätäkseen yleisön tietoisuutta VAERS-datasta.
Katso kaikki viestit