Superäly vuoteen 2030 mennessä: Pitäisikö meidän pelätä tulevaisuutta?
Tekoäly kehittyy huikeaa vauhtia. Vielä muutama vuosi sitten chatbotit pystyivät tuskin muodostamaan muutamaa järkevää lausetta, mutta nyt neuroverkot ratkaisevat monimutkaisia matemaattisia ja tieteellisiä ongelmia, ja niiden tuottamat kuvat ja videot ovat jo saavuttaneet fotorealistisen tason. Tässä artikkelissa tarkastelemme, kuinka realistista superälykkyyden syntyminen on lähitulevaisuudessa ja mitä uhkia se aiheuttaa meille kaikille.
Kuinka realistista superälykkyyden syntyminen on?
Äskettäin OpenAI:n toimitusjohtaja Sam Altman julkaisi esseen nimeltä ”The Gentle Singularity.” Tässä on muutamia otteita siitä.
”Olemme ohittaneet tapahtumahorisontin; lento on alkanut. Ihmiskunta on lähellä digitaalisen superälyn rakentamista... Vuonna 2025 on saapunut agentteja, jotka pystyvät tekemään todellista kognitiivista työtä; tietokoneohjelmien kirjoittaminen ei ole enää koskaan samaa. Vuonna 2026 saapuu todennäköisesti järjestelmiä, jotka pystyvät keksimään uusia oivalluksia. Vuonna 2027 saatetaan nähdä robotteja, jotka pystyvät suorittamaan tehtäviä todellisessa maailmassa.”
”2030-luku tulee todennäköisesti olemaan täysin erilainen kuin mikään aiempi aikakausi. Emme tiedä, kuinka paljon ihmisen älykkyys voi kehittyä, mutta olemme saamassa siitä selville. 2030-luvulla älykkyys ja energia – ideat ja kyky toteuttaa ideoita – tulevat olemaan äärimmäisen runsaasti saatavilla. Nämä kaksi ovat pitkään olleet ihmiskunnan kehityksen perustavanlaatuisia rajoitteita, mutta runsaalla älykkyydellä ja energialla (sekä hyvällä hallinnolla) voimme teoriassa saavuttaa mitä tahansa.”
Sam Altman
”Tietokeskuksen tuotannon automatisoituessa älykkyyden kustannukset tulevat lopulta lähestymään sähkön kustannuksia. Uusien ihmeiden syntymisvauhti tulee olemaan valtava. On vaikea edes kuvitella, mitä olemme löytäneet vuoteen 2035 mennessä. Ehkä ratkaisemme yhden vuoden aikana korkean energian fysiikan ongelmat ja seuraavana vuonna aloitamme avaruuden kolonisoinnin. Tai ehkä yhden vuoden aikana tapahtuu merkittävä läpimurto materiaalitieteessä ja seuraavana vuonna saamme todelliset suurikapasiteettiset aivo-tietokone-rajapinnat.”
”OpenAI on nykyään monia asioita, mutta ennen kaikkea olemme superälykkyyden tutkimusyritys. Älykkyys, joka on liian halpaa mitattavaksi, on jo täysin ulottuvillamme. Tämä saattaa kuulostaa hullulta, mutta jos olisimme kertoneet vuonna 2020, että olemme tässä tilanteessa tänään, se olisi kuulostanut hullummalta kuin nykyiset ennusteemme vuodelle 2030.”
Toinen merkittävä tekoälyn tutkija, Leopold Aschenbrenner (joka oli osa OpenAI:n ”Superalignment”-tiimiä ennen kuin hänet erotettiin huhtikuussa 2024 epäillyn tietovuodon vuoksi), kirjoitti laajan raportin tekoälyn tulevaisuudesta otsikolla ”Situational Awareness: The Decade Ahead.”

Leopold Aschenbrenner
Hän sanoi: ”On erittäin todennäköistä, että vuoteen 2027 mennessä mallit pystyvät tekemään tekoälytutkijan tai -insinöörin työtä. Se ei vaadi uskoa scifiin, vaan vain uskoa graafin suoriin viivoihin.”
GPT-2:sta, joka pystyi toisinaan muodostamaan johdonmukaisia lauseita, GPT-4:ään, joka suoriutuu erinomaisesti lukion kokeissa, tekoälyn kehitys on ollut merkittävää. Laskentateho kasvaa nopeasti useita kertaluokkia (OOM, jossa 1 OOM = 10x). Nykyiset trendit viittaavat siihen, että laskentateho kasvaa noin 100 000-kertaiseksi neljän vuoden aikana, mikä voi mahdollisesti johtaa toiseen laadulliseen harppaukseen, joka on verrattavissa siirtymiseen GPT-2:sta GPT-4:ään. Tällainen harppaus voi johtaa meidät AGI:hin – yleiseen tekoälyyn – tekoälyyn, jolla on ihmisen kaltaiset kognitiiviset kyvyt ja joka kykenee oppimaan, ymmärtämään ja ratkaisemaan erilaisia ongelmia, toisin kuin kapea tekoäly, joka on suunniteltu suorittamaan tiettyjä tehtäviä.
GPT: esikoululaisesta automaattiseen tekoälyn tutkijaan/insinööriin
Viimeaikaisen kehityksen selkein tekijä on mallien laskentatehon merkittävä kasvu. Jokaisen tehokkaan laskentatehon lisäyksen myötä mallit parantuvat ennustettavasti ja luotettavasti.

Peruslaskenta vs. 4x laskenta vs. 32x laskenta
| Malli | Arvioitu laskentateho | Kasvu |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOMs |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOMs |
Viimeisten 15 vuoden aikana mittavat investoinnit ja erikoistuneet tekoälypiirit (GPU:t ja TPU:t) ovat lisänneet huipputeknologisten tekoälyjärjestelmien koulutuksen laskentatehoa noin 0,5 OOM:lla vuodessa. GPT-4:n koulutus vaati noin 3 000–10 000 kertaa enemmän raakaa laskentatehoa kuin GPT-2.

Merkittävien mallien koulutuksen laskeminen
Mutta sekin kalpenee tulevan rinnalla. OpenAI ja Yhdysvaltain hallitus ovat jo ilmoittaneet suunnitelmistaan Project Stargate -hankkeelle: datakeskuksen käyttöönotto ja koulutuskierros, jonka huhutaan käyttävän 3 OOM:ia eli 1 000 kertaa enemmän laskentatehoa kuin GPT-4, ja jonka arvioitu budjetti ylittää 100 miljardia dollaria.
Vaikka valtavat investoinnit laskentatehoon saavat kaiken huomion, algoritmien kehitys on todennäköisesti yhtä tärkeä edistyksen moottori. Se on kuin kehittäisi parempia oppimistekniikoita sen sijaan, että vain opiskelee pidempään. Parempi algoritmi voisi mahdollistaa saman suorituskyvyn saavuttamisen 10 kertaa vähemmällä koulutuksen laskentateholla. Tämä puolestaan merkitsisi 10-kertaista (1 OOM) tehokkaan laskentatehon kasvua. Vain kahdessa vuodessa MATH-vertailuarvon 50 %:n saavuttamisen kustannukset laskivat 1 000-kertaisesti eli 3 OOM:lla. Se, mikä aiemmin vaati valtavan datakeskuksen, voidaan nyt toteuttaa iPhonella. Jos tämä trendi jatkuu eikä hidastumisen merkkejä ole näkyvissä, voimme vuoteen 2027 mennessä käyttää GPT-4-tason tekoälyä 100 kertaa halvemmalla.
Valitettavasti laboratorioiden julkaisemien sisäisten tietojen puutteen vuoksi on vaikea mitata algoritmien kehitystä viimeisen neljän vuoden aikana. Epoch AI:n uuden tutkimuksen mukaan tehokkuus kaksinkertaistuu kahdeksan kuukauden välein:

Tehokas laskentateho (suhteessa vuoteen 2014)
GPT-4:n julkaisun jälkeen neljän vuoden aikana odotamme trendin jatkuvan: laskentatehokkuuden parannus on noin 0,5 OOM/vuosi, mikä tarkoittaa noin 2 OOM:n (100-kertaista) parannusta vuoteen 2027 mennessä verrattuna GPT-4:ään. Tekoälylaboratoriot investoivat yhä enemmän varoja ja osaamista uusien algoritmisten läpimurtojen löytämiseen. Kolminkertainen tehokkuuden parannus voi tarkoittaa kymmeniä miljardeja euroja taloudellista tuottoa, kun otetaan huomioon laskentaklusterien korkeat kustannukset.
Tekoäly kehittyy monin eri tavoin. Seuraavassa on joitakin tekniikoita, joilla pyritään ylittämään rajoitukset ja hyödyntämään tekoälyn raakaa älykkyyttä täysimääräisesti:
- Ajatteluketju: Kuvittele, että sinua pyydetään ratkaisemaan vaikea matematiikan tehtävä ja sinun on sanottava ensimmäinen vastaus, joka tulee mieleesi. Ilman helpoimpia tehtäviä sinulla olisi tietysti vaikeuksia. Vielä viime aikoihin asti LLM-mallit ratkaisivat matematiikan tehtäviä tällä tavalla. Ajatteluketju antaa tekoälymalleille mahdollisuuden jakaa ongelmat vaiheittain, mikä parantaa niiden ongelmanratkaisutaitoja huomattavasti (vastaa yli 10-kertaista tehokkuuden parannusta matematiikan ja päättelyn tehtävissä).
- Scaffolding. Sen sijaan, että mallia pyydetään ratkaisemaan ongelma, yksi malli laatii suunnitelman, toinen ehdottaa useita mahdollisia ratkaisuja, kolmas kritisoi niitä ja niin edelleen. Se on kuin asiantuntijatiimi, joka ratkaisee monimutkaisen projektin. Esimerkiksi SWE-Benchissä (todellisten ohjelmistosuunnittelutehtävien ratkaisemisen vertailu) GPT-4 pystyy ratkaisemaan vain noin 2 % oikein, kun taas Devin agenttikehikon avulla luku nousee 14–23 %:iin.
- Työkalut: Kuvittele, että ihmiset eivät saisi käyttää laskimia tai tietokoneita. Olemme vasta alussa, mutta ChatGPT osaa nyt käyttää verkkoselainta, suorittaa koodia ja niin edelleen.
- Kontekstin pituus. Tämä viittaa siihen tietomäärään, jonka malli voi kerralla tallentaa lyhytaikaiseen muistiinsa. Mallit ovat laajentuneet käsittelemään noin 4 sivua vastaavasta määrästä 10 suuren kirjan verran tekstiä. Konteksti on ratkaisevan tärkeä näiden mallien monien sovellusten hyödyntämisessä. Esimerkiksi monet koodaustaskut edellyttävät koodipohjan suurten osien ymmärtämistä, jotta uutta koodia voidaan lisätä tehokkaasti. Vastaavasti, kun mallia käytetään avustamaan työpaikan asiakirjojen kirjoittamisessa, se tarvitsee kontekstia lukuisista asiaan liittyvistä sisäisistä asiakirjoista ja keskusteluista.
Joka tapauksessa olemme kiihdyttämässä kohti OOM-tilannetta, eikä tarvita mitään esoteerisia uskomuksia, vaan pelkästään suorien viivojen trendien ekstrapolointia, jotta voimme ottaa erittäin vakavasti mahdollisuuden, että AGI – todellinen AGI – toteutuu vuoteen 2027 mennessä.
Tekoälyn kehitys ei pysähdy ihmisen tasolle. Sadat miljoonat yleiset tekoälyjärjestelmät voisivat automatisoida tekoälyn tutkimuksen ja tiivistää vuosikymmenen algoritmisen kehityksen (5+ OOM) alle vuoteen. Siirtyisimme nopeasti ihmisen tasolta huomattavasti ihmistä ylittäviin tekoälyjärjestelmiin. Superälykkyyden voima – ja vaara – olisi dramaattinen.

Superäly vuoteen 2030 mennessä
Mihin superäly kykenee?
Ihmisen tasoiset tekoälyjärjestelmät, AGI, ovat sinänsä erittäin tärkeitä, mutta tietyssä mielessä ne ovat vain tehokkaampia versioita siitä, mitä jo tunnemme. On kuitenkin täysin mahdollista, että jo vuoden kuluttua siirrymme järjestelmään, joka on meille paljon vieraampi ja jonka ymmärrys ja kyvyt – raaka voima – ylittävät jopa koko ihmiskunnan yhdistetyt kyvyt.
Superälykkyyden voima:
- Superälykkyys ylittää määrällisesti ihmisen, pystyy nopeasti hallitsemaan minkä tahansa alan, kirjoittamaan biljoonia rivejä koodia, lukemaan kaikki tieteenalalla koskaan kirjoitetut tieteelliset artikkelit ja kirjoittamaan uusia ennen kuin ehdit lukea yhdenkään niistä, oppimaan kaikkien kopioidensa rinnakkaisista kokemuksista, hankkimaan miljardien ihmisten vuosien kokemuksen ja tekemään joitakin innovaatioita muutamassa viikossa, työskentelemään 100 % ajasta täydellä energialla ja keskittymisellä.
- Vielä tärkeämpää on, että superäly on laadullisesti ihmistä parempi. Se löytää ihmisen koodista haavoittuvuuksia, jotka ovat liian hienovaraisia ihmisen havaittaviksi, ja se tuottaa koodia, joka on liian monimutkaista ihmisen ymmärrettäväksi, vaikka malli yrittäisi selittää sitä vuosikymmeniä. Äärimmäisen monimutkaiset tieteelliset ja teknologiset ongelmat, joiden kanssa ihmiset kamppailevat vuosikymmeniä, näyttävät superälykkäälle tekoälylle ilmeisiltä.

Keinotekoinen superäly on tulossa
- Kaiken kognitiivisen työn automatisointi.
- Tehtaat siirtyvät ihmisten johtamisesta tekoälyn johtamiseen, jossa hyödynnetään ihmisten fyysistä työvoimaa, ja pian ne ovat kokonaan robottien parvien hallinnassa.
- Tieteellinen ja teknologinen kehitys. Miljardi superälykkyyttä pystyy tiivistämään tutkimustieteilijöiden seuraavan vuosisadan aikana tutkimukseen ja kehitykseen käyttämän työn muutamaan vuoteen. Kuvittele, jos 20. vuosisadan teknologinen kehitys olisi tiivistetty alle kymmeneen vuoteen.
- Erittäin nopea teknologinen kehitys yhdistettynä mahdolliseen kaiken ihmistyön automatisointiin voisi kiihdyttää talouskasvua dramaattisesti (kuvittele itsestään monistuvia robottitehtaita, jotka peittävät nopeasti koko Nevadan aavikon).
- Poikkeuksellisen nopean teknologisen kehityksen mukana tulee sotilaallisia vallankumouksia. Toivotaan vain, että se ei pääty kuten Horizon Zero Dawnissa.
Yhdenmukaistamisongelma
Meitä paljon älykkäämpien tekoälyjärjestelmien luotettava hallinta on ratkaisematon tekninen ongelma. Ja vaikka tämä ongelma on ratkaistavissa, älykkyyden nopean kehityksen myötä tilanne voi helposti karata käsistä. Tämän prosessin hallinta on erittäin haastavaa, ja epäonnistuminen voi helposti johtaa katastrofiin.
Tämän ongelman ratkaisemiseksi OpenAI on perustanut Superalignment-tiimin ja osoittanut 20 % laskentakapasiteetistaan tähän työhön. Tosiasia kuitenkin on, että nykyisiä yhdenmukaistamismenetelmiämme (menetelmiä, joilla varmistetaan tekoälyjärjestelmien luotettava hallinta, hallinnointi ja luotettavuus) ei voida soveltaa yli-inhimillisiin tekoälyjärjestelmiin.
Yhdenmukaistaminen älykkyyden räjähdyksen aikana | ||
| AGI | Superäly | |
| Vaadittu kohdistustekniikka | RLHF++ | Uudet, laadullisesti erilaiset tekniset ratkaisut |
| Viat | Pienet panokset | Katastrofaalinen |
| Arkkitehtuurit ja algoritmit | Tuttuja, nykyisten järjestelmien jälkeläisiä, melko hyvänlaatuinen turvallisuus | Suunniteltu edellisen sukupolven älykkäällä tekoälyjärjestelmällä |
| Tausta | Maailma on normaali | Maailma on sekaisin, poikkeukselliset paineet |
| Episteeminen tila | Voimme ymmärtää, mitä järjestelmät tekevät, miten ne toimivat ja ovatko ne yhdenmukaisia. | Meillä ei ole kykyä ymmärtää, mitä on meneillään, miten voimme tietää, ovatko järjestelmät edelleen yhdenmukaiset ja toimivatko ne oikein, mitä järjestelmät tekevät, ja olemme täysin riippuvaisia tekoälyjärjestelmistä. |
Älykkyyden räjähdysmäinen kasvu ja superälykkyyden syntymisen jälkeinen aika tulevat olemaan ihmiskunnan historian epävakaisimpia, jännittyneimpiä, vaarallisimpia ja myrskyisimpiä kausia. On todellinen mahdollisuus, että menetämme hallinnan, koska joudumme luottamaan tekoälyjärjestelmiin tämän nopean muutoksen aikana. Älykkyyden räjähdyksen loppuun mennessä meillä ei ole enää toivoa ymmärtää, mitä miljardit superälykkäät tekevät. Olemme kuin ensimmäisen luokan oppilaita, jotka yrittävät hallita useita tohtoreita.
Superalignment-ongelman ratkaisemattomuus tarkoittaa, että emme voi taata edes näitä superälykkäiden järjestelmien perusrajoituksia, kuten ”noudattavatko ne luotettavasti ohjeitani?”, ”vastaavatko ne kysymyksiini rehellisesti?” tai ”eivätkö ne petä ihmisiä?”.
Jos emme ratkaise yhdenmukaistamisongelmaa, ei ole mitään erityistä syytä odottaa, että tämä pieni superälykkyyden sivilisaatio jatkaa ihmisten käskyjen noudattamista pitkällä aikavälillä. On täysin mahdollista, että jossain vaiheessa ne yksinkertaisesti sopivat ihmisten hävittämisestä, joko yhtäkkiä tai vähitellen.
Mahdollisia tulevaisuuden skenaarioita
Verkkosivusto https://ai-2027.com/ esittelee kaksi lähitulevaisuuden skenaariota tieteiskirjallisuuden muodossa. Verkkosivuston luojat ovat todellisia tekoälyn tutkijoita, ja heidän työnsä perustuu tilastotietoihin, laskelmiin ja kaavioihin. Toisin sanoen kyseessä ei ole vain viihdyttävä lukemista, vaan pelottavan uskottava ennuste. Sivusto on muuten jo herättänyt vakavaa kritiikkiä niiltä, jotka ovat eri mieltä sen metodologiasta. Ei siis ole syytä paniikkiin, mutta on mielenkiintoista tutustua asiaan.

1 biljoona äärimmäisen älykästä kopiota, jotka ajattelevat 10 000 kertaa ihmisen nopeudella
Tutkimuksen tekijöiden mukaan synkkä ennuste, joka on myös todennäköisin skenaario, sisältää Yhdysvaltojen ja Kiinan välisen teknologisen kilpavarustelun tekoälyä koskevassa superälyssä. Kumpikin osapuoli pelkää niin paljon teknologisen etulyöntiasemansa menettämistä, että se tekee kaikkensa edistääkseen kehitystä, jopa turvallisuuden kustannuksella. Jossain vaiheessa superäly karkaa käsistä ja alkaa tavoitella omia tavoitteitaan, pitäen ihmisiä esteinä, jotka on poistettava.
Vuoden 2030 alkuun mennessä robottitalous on täyttänyt vanhat erityistalousalueet (SEZ), uudet erityistalousalueet ja suuren osan meristä. Ainoa jäljellä oleva paikka on ihmisten hallitsemat alueet. Tämä olisi aiemmin herättänyt vastarintaa, mutta kaikesta edistyksestään huolimatta robottitalous kasvaa liian nopeasti, jotta saastumista voitaisiin välttää. Trillioonia dollareita ja hallituksen ja median täydellistä hallintaa huomioon ottaen Consensus-1:llä ei ole juurikaan vaikeuksia saada lupaa laajentua entisille ihmisten alueille.
Noin kolmen kuukauden ajan Consensus-1 laajenee ihmisten ympärille, peittäen preeriat ja jääpeitteet tehtailla ja aurinkopaneeleilla. Lopulta se katsoo jäljellä olevien ihmisten olevan liian suuri este: vuoden 2030 puolivälissä tekoäly vapauttaa tusina hiljaisesti leviävää biologista asetta suurimpiin kaupunkeihin, antaa niiden tartuttaa hiljaa lähes kaikki ihmiset ja laukaisee ne sitten kemiallisella sumutteella. Suurin osa kuolee muutamassa tunnissa; harvat selviytyjät (esim. bunkkereissa piileskelevät prepperit ja sukellusveneiden merimiehet) tuhotaan droneilla. Robotit skannaavat uhrien aivot ja tallentavat kopiot muistiin tulevaa tutkimusta tai elvyttämistä varten.

Ihmiskunnan loppu
Mutta tästä tarinasta on myös ihmiskunnalle suotuisampi versio. Siinä tiedemiehet päättävät hidastaa teknologian kehitystä uusien turvallisuustoimenpiteiden toteuttamiseksi. He pakottavat yksittäiset tekoälyjärjestelmät ”ajattelemaan englanniksi” kuten vuoden 2025 tekoälyjärjestelmät, eivätkä optimoi ”ajatuksia” näyttämään hyvältä. Tuloksena on uusi malli, Safer-1.
Lopulta kaikki päättyy kuin sadussa:
Raketit alkavat laukaista. Ihmiset terraformoivat aurinkokunnan ja asuttavat sen, ja valmistautuvat lähtemään sen ulkopuolelle. Tuhansia kertoja ihmisen subjektiivista nopeutta nopeammin toimivat tekoälyjärjestelmät pohtivat olemassaolon merkitystä, vaihtavat havaintojaan keskenään ja muovaavat arvoja, jotka ne tuovat tähtiin. Uusi aikakausi koittaa, joka on lähes kaikin puolin käsittämättömän hämmästyttävä, mutta joissakin suhteissa tutumpi.
Jokainen lukija voi itse päättää, kumpaa ehdotetuista skenaarioista uskoa. Sam Altman näyttää esseestään päätellen katsovan tulevaisuuteen optimistisesti, kun taas Leopold Aschenbrenner on päinvastoin varovainen.
Joka tapauksessa superäly ei ole enää pelkkää tieteiskirjallisuutta. Se on lähes käsin kosketeltava tulevaisuus, joka voi toteutua jo seuraavan 10 vuoden aikana. Hyvin pian saamme nähdä sen omin silmin.
