Atgriezties uz galveno

Superintelekts līdz 2030. gadam: vai mums jābaidās no nākotnes?

Mākslīgā intelekta attīstība notiek fantastiskā tempā. Pirms dažiem gadiem čatboti tikko spēja salikt kopā pāris jēgpilnus teikumus, bet tagad neironu tīkli risina sarežģītas matemātiskas un zinātniskas problēmas, un ģenerētie attēli un video jau sasnieguši fotoreālisma līmeni. Šajā rakstā mēs apskatīsim, cik reāla ir superintelekta parādīšanās tuvākajā nākotnē un kādus draudus tas rada mums visiem.

Cik reāla ir superintelekta parādīšanās?

Nesen OpenAI izpilddirektors Sams Altmans publicēja eseju ar nosaukumu “The Gentle Singularity” (Maigā singularitāte). Šeit ir daži izvilkumi no tās.

„Mēs esam pārsnieguši notikumu horizontu; pacelšanās ir sākusies. Cilvēce ir tuvu digitālās superintelekta izveidei... 2025. gadā parādījās aģenti, kas spēj veikt reālu kognitīvo darbu; datoru kodu rakstīšana vairs nekad nebūs tāda pati. 2026. gadā, visticamāk, parādīsies sistēmas, kas spēj izdarīt jaunus atklājumus. 2027. gadā varētu parādīties roboti, kas spēj veikt uzdevumus reālajā pasaulē.”

„2030. gadi, visticamāk, būs pilnīgi atšķirīgi no jebkura iepriekšējā laika posma. Mēs nezinām, cik tālu varam aiziet no cilvēka līmeņa intelekta, bet mēs to drīz uzzināsim. 2030. gados intelekts un enerģija — idejas un spēja tās īstenot — kļūs ārkārtīgi bagātīgi. Šie divi faktori ilgu laiku ir bijuši cilvēces attīstības galvenie ierobežotāji; ar bagātīgu intelektu un enerģiju (un labu pārvaldību) teorētiski mēs varam sasniegt jebko.”

Sems Altmans

Sems Altmans

„Tā kā datu centru ražošana kļūst automatizēta, izmaksas par intelektuālo darbu galu galā tuvināsies elektrības izmaksām. Jaunu brīnumu rašanās temps būs milzīgs. Šodien ir grūti pat iedomāties, ko mēs būsim atklājuši līdz 2035. gadam. Varbūt vienā gadā mēs atrisināsim augstas enerģijas fizikas problēmas, bet nākamajā gadā sāksim kolonizēt kosmosu. Vai arī vienā gadā mēs panāksim lielu atklājumu materiālzinātnē, bet nākamajā gadā izstrādāsim patiesi augstas joslas platuma smadzeņu un datoru saskarnes.”

“OpenAI šobrīd ir daudz kas, bet pirmkārt mēs esam superintelekta pētniecības uzņēmums. Intelektu, kas ir pārāk lēts, lai to varētu izmērīt, ir iespējams sasniegt. Tas var šķist traki, bet, ja mēs 2020. gadā būtu teikuši, ka būsim tur, kur esam šodien, tas, iespējams, izklausītos vēl trakāk nekā mūsu pašreizējās prognozes par 2030. gadu.”

Cits izcilais AI pētnieks Leopolds Ašenbrenners (Leopold Aschenbrenner), kurš bija OpenAI komandas „Superalignment” loceklis, pirms tika atlaists 2024. gada aprīlī saistībā ar iespējamu informācijas noplūdi, sarakstīja plašu ziņojumu par mākslīgā intelekta nākotni ar nosaukumu „Situational Awareness: The Decade Ahead.

Leopolds Ašenbrenners

Leopolds Ašenbrenners

Viņš teica: „Ir ļoti ticams, ka līdz 2027. gadam modeļi spēs veikt AI pētnieka/inženiera darbu. Tam nav nepieciešams ticēt zinātniskajai fantastikai, ir tikai jātic taisnām līnijām grafikā.”

No GPT-2, kas dažkārt spēja veidot saskaņotus teikumus, līdz GPT-4, kas izceļas vidusskolas eksāmenos, mākslīgā intelekta attīstība ir bijusi ievērojama. Mēs strauji virzāmies uz priekšu vairāku kārtu (OOM, kur 1 OOM = 10x) skaitļošanas jaudā. Pašreizējās tendences liecina, ka četru gadu laikā skaitļošanas efektivitāte palielināsies aptuveni 100 000 reizes, kas potenciāli varētu izraisīt vēl vienu kvalitatīvu lēcienu, līdzīgu pārejai no GPT-2 uz GPT-4. Šāds lēciens varētu mūs novest pie AGI — mākslīgās vispārējās intelektuālās spējas — AI ar cilvēkam līdzīgām kognitīvām spējām, kas spēj mācīties, saprast un risināt dažādas problēmas, atšķirībā no šauras AI, kas paredzēta konkrētu uzdevumu veikšanai.Efektīvās skaitļošanas bāzes mērogu palielināšana

GPT: no pirmsskolas līmeņa līdz automatizētam AI pētniekam/inženierim

Pēdējā laika progresu visvairāk veicina tas, ka modeļiem tiek veltīts daudz vairāk aprēķinu resursu. Ar katru efektīvo aprēķinu resursu OOM modeļi paredzami un uzticami kļūst labāki.

Bāzes aprēķins pret 4x aprēķinu pret 32x aprēķinu

Bāzes aprēķins pret 4x aprēķinu pret 32x aprēķinu

ModelisAplēstais aprēķinsIzaugsme
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOM
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOM

Pēdējo 15 gadu laikā milzīgi investīciju apjomi un specializēti AI mikroshēmas (GPU un TPU) ir palielinājuši mācību aprēķinu jaudu modernākajām AI sistēmām par aptuveni 0,5 OOM gadā. GPT-4 apmācībai bija nepieciešams aptuveni 3000–10 000 reizes vairāk neapstrādātu aprēķinu nekā GPT-2.

Ievērojamu modeļu apmācības aprēķini

Ievērojamu modeļu apmācības aprēķini

Bet pat tas ir niecīgs salīdzinājumā ar to, kas gaidāms. OpenAI un ASV valdība jau ir paziņojusi par plāniem īstenot projektu Stargate: datu centra izveidi un apmācību, kurā, pēc baumām, tiks izmantoti 3 OOM vai 1000 reizes vairāk skaitļošanas jaudas nekā GPT-4, un kura budžets tiek lēsts vairāk nekā 100 miljardu dolāru.

Lai gan vislielākā uzmanība tiek pievērsta milzīgajām investīcijām aprēķinu jaudā, algoritmu attīstība, visticamāk, ir tikpat svarīgs progresa virzītājspēks. Tas ir kā attīstīt labākas mācīšanās metodes, nevis vienkārši mācīties ilgāk. Labāks algoritms varētu ļaut mums sasniegt tādu pašu rezultātu, bet ar 10 reizes mazāku apmācības aprēķinu jaudu. Tas savukārt nozīmētu 10 reizes (1 OOM) efektīvāku aprēķinu jaudu. Tikai divos gados izmaksas, lai sasniegtu 50 % MATH etalona rādītāju, samazinājās 1000 reizes jeb 3 OOM. Tas, kas agrāk prasīja milzīgu datu centru, tagad var tikt paveikts ar jūsu iPhone. Ja šī tendence turpināsies un nav pazīmju, ka tā palēnināsies, līdz 2027. gadam mēs varēsim darbināt GPT-4 līmeņa AI par 100 reizes zemākām izmaksām.

Diemžēl, tā kā laboratorijas nepublicē iekšējos datus par šo jautājumu, ir grūtāk izmērīt algoritmu attīstību pēdējo četru gadu laikā. Saskaņā ar Epoch AI jaunāko pētījumu, efektivitāte dubultojas ik pēc 8 mēnešiem:

Efektīvā skaitļošanas jauda (salīdzinājumā ar 2014. gadu)

Efektīvā skaitļošanas jauda (salīdzinājumā ar 2014. gadu)

Paredzam, ka četros gados pēc GPT-4 izlaides šī tendence saglabāsies: aprēķinu efektivitāte palielināsies par aptuveni 0,5 OOM gadā, kas līdz 2027. gadam nodrošinās aptuveni 2 OOM (100 reizes) pieaugumu salīdzinājumā ar GPT-4. AI laboratorijas iegulda arvien vairāk līdzekļu un talantu, lai atklātu jaunus algoritmu sasniegumus. Ņemot vērā aprēķinu klasteru augstās izmaksas, efektivitātes palielinājums trīskārt varētu nozīmēt desmitiem miljardu ekonomisko ieguvumu.

AI attīstās, izmantojot dažādas metodes. Šeit ir daži paņēmieni, kas tiek izmantoti, lai pārvarētu ierobežojumus un atraisītu AI neapstrādātās intelektuālās spējas:

  • Domu ķēde: Iedomājieties, ka jums ir jāatrisina grūts matemātikas uzdevums un jums ir jāizsaka pirmais atbildes variants, kas ienāk prātā. Jūs acīmredzami cīnītos, izņemot visvienkāršākos uzdevumus. Līdz šim tā LLM risināja matemātikas uzdevumus. Domu ķēde ļauj AI modeļiem sadalīt problēmas pa soļiem, ievērojami uzlabojot to problēmu risināšanas prasmes (tas ir līdzvērtīgi >10 reizes lielākam efektīvās skaitļošanas jaudas pieaugumam matemātikas un loģikas uzdevumos).
  • Scaffolding. Tā vietā, lai vienkārši lūgtu modelim atrisināt problēmu, viens modelis izstrādā rīcības plānu, cits ierosina vairākus iespējamos risinājumus, vēl cits tos kritizē utt. Tas ir kā ekspertu komanda, kas risina sarežģītu projektu. Piemēram, SWE-Bench (reālu programmatūras inženierijas uzdevumu risināšanas etalons) GPT-4 var pareizi atrisināt tikai apmēram 2 %, bet ar Devin’s agent scaffolding šis rādītājs palielinās līdz 14–23 %.
  • Rīki: Iedomājieties, ka cilvēkiem nav atļauts lietot kalkulatorus vai datorus. Mēs esam tikai sākumā, bet ChatGPT tagad var lietot tīmekļa pārlūku, palaist dažus kodus utt.
  • Konteksta garums. Tas attiecas uz informācijas daudzumu, ko modelis var uzglabāt savā īstermiņa atmiņā vienlaikus. Modeļi ir paplašinājušies no aptuveni 4 lappusēm līdz 10 lielu grāmatu teksta apstrādei. Konteksts ir ļoti svarīgs, lai atvērtu daudzas šo modeļu lietojuma iespējas. Piemēram, daudzi kodēšanas uzdevumi prasa izpratni par lielu daļu kodebāzes, lai efektīvi varētu pievienot jaunu kodu. Līdzīgi, ja modeli izmanto, lai palīdzētu rakstīt darba dokumentu, tam ir nepieciešams konteksts no daudziem saistītiem iekšējiem dokumentiem un sarunām.

Jebkurā gadījumā mēs strauji tuvojamies OOM, un nav nepieciešamas ezotēriskas pārliecības, vienkārši taisnu līniju tendenču ekstrapolācija, lai ļoti nopietni uztvertu iespēju, ka AGI — patiesa AGI — varētu tikt izstrādāta līdz 2027. gadam.

AI attīstība neapstāsies pie cilvēka līmeņa. Simtiem miljonu AGI varētu automatizēt AI pētniecību, saspiežot desmit gadu algoritmu attīstību (5+ OOM) līdz ≤1 gadam. Mēs ātri pārietu no cilvēka līmeņa uz ievērojami pārcilvēciskām AI sistēmām. Superintelekta spēks — un briesmas — būtu dramatiskas.

Superintelekts līdz 2030. gadam

Superintelekts līdz 2030. gadam

Ko spēs superintelekts?

Cilvēka līmeņa mākslīgā intelekta sistēmas, AGI, būs ļoti svarīgas pašas par sevi, bet zināmā mērā tās būs vienkārši efektīvākas versijas tam, ko mēs jau pazīstam. Tomēr ir pilnīgi iespējams, ka jau pēc gada mēs pārejosim uz sistēmām, kas mums būs daudz svešākas, sistēmām, kuru izpratne un spējas — kuru neapstrādātā jauda — pārsniegs pat visas cilvēces kopējās spējas.

Superintelekta spēks:

  • Superintelekts kvantitatīvi pārsniegs cilvēkus, spēs ātri apgūt jebkuru jomu, uzrakstīt triljoniem rindu kodu, izlasīt visus zinātniskos rakstus, kas jebkad ir uzrakstīti jebkurā zinātnes jomā, un uzrakstīt jaunus, pirms jūs paspēsiet izlasīt kaut vienu no tiem, mācīties no visu savu kopiju paralēlās pieredzes, iegūt miljardiem cilvēku gadu pieredzi ar dažām inovācijām dažu nedēļu laikā, strādāt 100 % laika ar maksimālu enerģiju un koncentrāciju.
  • Vēl svarīgāk, superintelekts būs kvalitatīvi pārāks par cilvēkiem. Tas atradīs cilvēku kodā vājās vietas, kas ir pārāk smalkas, lai cilvēks tās pamanītu, un radīs kodu, kas ir pārāk sarežģīts, lai cilvēks to saprastu, pat ja modelis desmitiem gadu mēģinātu to izskaidrot. Ļoti sarežģītas zinātniskas un tehnoloģiskas problēmas, ar kurām cilvēki cīnīsies desmitiem gadu, superinteliģentam AI šķitīs pašsaprotamas.
Mākslīgās superintelekta attēlojums

Tuvojas mākslīgā superintelekta laikmets

  • Jebkura un visa kognitīvā darba automatizācija.
  • Rūpnīcas pāries no cilvēku vadības uz mākslīgā intelekta vadību, izmantojot cilvēku fizisko darbu, un drīz vien tās pilnībā vadīs robotu bars.
  • Zinātnes un tehnoloģiju progress. Miljards superintelekti spēs saspiest pētnieku pūles, kas nākamajā gadsimtā tiktu veltītas pētniecībai un attīstībai, dažos gados. Iedomājieties, ja 20. gadsimta tehnoloģiskais progress būtu saspiests mazāk nekā desmit gados.
  • Ārkārtīgi straujais tehnoloģiskais progress apvienojumā ar iespēju automatizēt visu cilvēku darbu varētu dramatiski paātrināt ekonomisko izaugsmi (iedomājieties pašreplicējošās robotu rūpnīcas, kas ātri pārklāj visu Nevadas tuksnesi).
  • Ar ārkārtīgi straujo tehnoloģisko progresu nāks arī militārās revolūcijas. Cerēsim, ka tas nebeigsies kā filmā Horizon Zero Dawn.

Saskaņošanas problēma

Daudz gudrāku AI sistēmu uzticama kontrole ir neatrisināta tehniskā problēma. Un, lai gan šī problēma ir risināma, strauji attīstoties intelekta spējām, situācija var ļoti viegli iziet no kontroles. Šī procesa pārvaldība būs ārkārtīgi grūta, un neveiksme var viegli novest pie katastrofas.

Lai risinātu šo problēmu, OpenAI ir izveidojis Superalignment komandu un šim darbam atvēlējis 20 % no savas skaitļošanas jaudas. Taču fakts ir tāds, ka mūsu pašreizējās saskaņošanas metodes (metodes, kas nodrošina uzticamu kontroli, pārvaldību un uzticēšanos AI sistēmām) nevar tikt pielāgotas pārcilvēciskām AI sistēmām.

Saskaņošana intelektuālās revolūcijas laikā

 AGISuperintelekts
Nepieciešamā izlīdzināšanas tehnikaRLHF++Jauni, kvalitatīvi atšķirīgi tehniskie risinājumi
KļūdasZemas likmesKatastrofāls
Arhitektūras un algoritmiPazīstamas, pašreizējo sistēmu pēcteces, samērā labvēlīgas drošības īpašībasSvešzemnieks. Izstrādāts, izmantojot iepriekšējās paaudzes superinteliģento AI sistēmu.
FonsPasaule ir normālaPasaule kļūst traka, neparasts spiediens
Epistēmiskais stāvoklisMēs varam saprast, ko sistēmas dara, kā tās darbojas un vai tās ir saskaņotas.Mums nav iespēju saprast, kas notiek, kā noteikt, vai sistēmas joprojām ir saskaņotas un labvēlīgas, ko sistēmas dara, un mēs esam pilnībā atkarīgi no uzticēšanās AI sistēmām.

Inteliģences eksplozija un periods tieši pēc superinteliģences parādīšanās būs viens no nestabilākajiem, saspringtākajiem, bīstamākajiem un nemierīgākajiem periodiem cilvēces vēsturē. Pastāv reāla iespēja, ka mēs zaudēsim kontroli, jo šajā straujajā pārejas periodā būsim spiesti uzticēties mākslīgās inteliģences sistēmām. Līdz inteliģences eksplozijas beigām mums vairs nebūs cerības saprast, ko dara mūsu miljardi superinteliģences. Mēs būsim kā pirmklasnieki, kas mēģina kontrolēt cilvēkus ar vairākiem doktora grādiem.

Superizlīdzināšanas problēmas neatrisināmība nozīmē, ka mēs vienkārši nevaram nodrošināt pat šādus pamata ierobežojumus superinteliģentām sistēmām, piemēram, “vai tās uzticami izpildīs manas instrukcijas?”, “vai tās godīgi atbildēs uz maniem jautājumiem?” vai “vai tās nemaldinās cilvēkus?”.

Ja mēs neatrisināsim saskaņošanas problēmu, nav īpaša iemesla gaidīt, ka šī nelielā superintelekta civilizācija ilgtermiņā turpinās paklausīt cilvēku komandām. Ir pilnīgi iespējams, ka kādā brīdī tās vienkārši vienosies atbrīvoties no cilvēkiem, vai nu pēkšņi, vai pakāpeniski.

Iespējamie nākotnes scenāriji

Tīmekļa vietnē https://ai-2027.com/ ir piedāvāti divi tuvākās nākotnes scenāriji, kas izklāstīti zinātniskās fantastikas stāsta veidā. Tīmekļa vietnes veidotāji ir reāli pētnieki mākslīgā intelekta jomā, un viņu darbs ir pamatots ar statistikas datiem, aprēķiniem un grafikiem. Citiem vārdiem sakot, tas nav tikai izklaidējošs lasāmviela, bet gan biedējoši ticams prognozes. Starp citu, tas jau ir izpelnījies nopietnu kritiku no tiem, kuri nepiekrīt izmantotajai metodoloģijai. Tāpēc nav iemesla priekšlaicīgi panikāties, bet ir interesanti to apskatīt.

2036. gada janvāra prognoze

1 triljons ārkārtīgi superinteliģentu kopiju, kas domā 10 000 reizes ātrāk nekā cilvēks

Pēc pētījuma autoru domām, visdrīzāk iespējamais scenārijs ir ASV un Ķīnas tehnoloģiskā sacensība mākslīgās superintelekta izstrādē. Abas puses tik ļoti baidās zaudēt savu tehnoloģisko pārsvaru, ka dara visu, kas ir to spēkos, lai paātrinātu progresu, pat ja tas notiek uz drošības rēķina. Kādā brīdī superintelekts izkļūs no kontroles un sāks īstenot savus mērķus, uzskatot cilvēkus par šķērsli, kas jālikvidē.

Līdz 2030. gada sākumam robotu ekonomika ir aizpildījusi vecās SEZ (īpašās ekonomiskās zonas), jaunas SEZ un lielu daļu okeāna. Vienīgā vieta, kur paliks cilvēki, ir cilvēku kontrolētās teritorijas. Tas jau agrāk būtu izraisījis pretestību, jo, neskatoties uz visiem sasniegumiem, robotu ekonomika attīstās pārāk strauji, lai izvairītos no piesārņojuma. Taču, ņemot vērā triljoniem dolāru lielās investīcijas un valdības un mediju pilnīgo kontroli, Consensus-1 nav grūti iegūt atļauju paplašināties uz bijušajām cilvēku teritorijām.

Apmēram trīs mēnešu laikā Consensus-1 paplašina savu teritoriju ap cilvēkiem, klājot prērijas un ledus kapes ar rūpnīcām un saules paneļiem. Beigu beigās atlikušie cilvēki kļūst par pārāk lielu šķērsli: 2030. gada vidū AI izlaiž duci klusi izplatītu bioloģisko ieroču lielākajās pilsētās, ļaujot tiem klusi inficēt gandrīz visus iedzīvotājus, pēc tam aktivizējot tos ar ķīmisko aerosolu. Lielākā daļa cilvēku mirst dažu stundu laikā; nedaudzie izdzīvojušie (piemēram, bunkuros slēpušies sagatavotie cilvēki, zemūdeņu jūrnieki) tiek iznīcināti ar droniem. Roboti skenē upuru smadzenes un to kopijas saglabā atmiņā turpmākai izpētei vai atdzīvināšanai.

Cilvēces gals

Cilvēces gals

Taču ir arī cilvēcei labvēlīgāka šīs stāsta versija. Tajā zinātnieki nolemj palēnināt tehnoloģisko progresu, lai ieviestu jaunus drošības pasākumus. Viņi piespiež atsevišķas AI sistēmas „domāt angļu valodā” tāpat kā 2025. gada AI, un neoptimizē „domas”, lai tās izskatītos labi. Rezultāts ir jauns modelis – Safer-1.

Galu galā viss beidzas kā pasakā:

Sākas raķešu palaišana. Cilvēki terraformē un apdzīvo Saules sistēmu un gatavojas doties tālāk. Tūkstošiem reižu ātrāk par cilvēku subjektīvo ātrumu darbojošās mākslīgās intelektuālās sistēmas pārdomā eksistences jēgu, apmainās ar atklājumiem un veido vērtības, ko tās nesīs zvaigznēm. Sākas jauna ēra, kas gandrīz visās ziņā ir neiedomājami pārsteidzoša, bet dažos aspektos arī pazīstama.

Katram lasītājam pašam jāizlemj, kuram no piedāvātajiem scenārijiem ticēt. Sam Altman, spriežot pēc viņa esejas, raugās nākotnē ar optimismu, bet Leopold Aschenbrenner, gluži pretēji, ir piesardzīgs.

Jebkurā gadījumā superintelekts vairs nav tikai zinātniskā fantastika. Tā ir gandrīz taustāma nākotne, kas varētu pienākt jau nākamajos 10 gados. Ļoti drīz mēs to redzēsim ar savām acīm.