Superintelligens innen 2030: Bør vi frykte fremtiden?
Kunstig intelligens utvikler seg i et fantastisk tempo. For noen år siden kunne chatbots knapt nok sette sammen et par meningsfulle setninger, men nå løser nevrale nettverk komplekse matematiske og vitenskapelige problemer, og genererte bilder og videoer har allerede nådd et nivå av fotorealistisk kvalitet. I denne artikkelen skal vi se på hvor realistisk fremveksten av superintelligens er i nær fremtid, og hvilke trusler den utgjør for oss alle.
Hvor realistisk er fremveksten av superintelligens?
Nylig publiserte Sam Altman, administrerende direktør i OpenAI, en essay med tittelen «The Gentle Singularity.» Her er noen utdrag fra den.
«Vi har passert hendelseshorisonten; oppstarten har begynt. Menneskeheten er nær ved å skape digital superintelligens... I 2025 har vi sett ankomsten av agenter som kan utføre reelt kognitivt arbeid; å skrive datakode vil aldri bli det samme. I 2026 vil vi sannsynligvis se ankomsten av systemer som kan finne nye innsikter. I 2027 kan vi se ankomsten av roboter som kan utføre oppgaver i den virkelige verden.»
«2030-årene vil sannsynligvis bli helt annerledes enn noen tid før. Vi vet ikke hvor langt vi kan komme utover menneskelig intelligens, men vi er i ferd med å finne det ut. I 2030-årene vil intelligens og energi – ideer og evnen til å realisere ideer – bli ekstremt rikelig. Disse to har lenge vært de grunnleggende begrensningene for menneskelig fremgang; med rikelig intelligens og energi (og god styring) kan vi teoretisk sett få alt annet.»
Sam Altman
«Etter hvert som produksjonen i datasentre blir automatisert, vil kostnadene for intelligens til slutt nærme seg kostnadene for elektrisitet. Tempoet i utviklingen av nye vidunder vil være enormt. Det er vanskelig å forestille seg i dag hva vi vil ha oppdaget innen 2035. Kanskje vi vil gå fra å løse problemer innen høyenergifysikk ett år til å begynne å kolonisere verdensrommet det neste, eller fra et stort gjennombrudd innen materialvitenskap ett år til ekte hjerne-datamaskin-grensesnitt med høy båndbredde det neste.»
«OpenAI er mange ting i dag, men først og fremst er vi et forskningsselskap innen superintelligens. Intelligens som er for billig til å måles, er innen rekkevidde. Det kan høres sprøtt ut, men hvis vi hadde fortalt deg i 2020 at vi ville være der vi er i dag, ville det nok hørtes sprøere ut enn våre nåværende spådommer for 2030.»
En annen fremtredende AI-forsker, Leopold Aschenbrenner (som var en del av OpenAI's «Superalignment»-team før han ble sparket i april 2024 på grunn av en påstått informasjonslekkasje), skrev en omfattende rapport om fremtiden for kunstig intelligens med tittelen «Situational Awareness: The Decade Ahead.»

Leopold Aschenbrenner
Han sa: «Det er svært sannsynlig at modeller innen 2027 vil kunne utføre arbeidet til en AI-forsker/ingeniør. Det krever ikke at man tror på science fiction, det krever bare at man tror på rette linjer på en graf.»
Fra GPT-2, som noen ganger kunne komponere sammenhengende setninger, til GPT-4, som utmerker seg på videregående eksamener, har fremgangen innen AI vært bemerkelsesverdig. Vi gjør raske fremskritt med flere størrelsesordener (OOM, hvor 1 OOM = 10x) i datakraft. Nåværende trender peker mot en omtrent 100 000 ganger økning i databehandlingseffektivitet over fire år, noe som potensielt kan føre til et nytt kvalitativt sprang, lik overgangen fra GPT-2 til GPT-4. Et slikt sprang kan føre oss til AGI – kunstig generell intelligens – AI med menneskelignende kognitive evner, i stand til å lære, forstå og løse en rekke problemer, i motsetning til smal AI som er designet for å utføre spesifikke oppgaver.
GPT: fra førskolenivå til automatisert AI-forsker/ingeniør
Den mest åpenbare drivkraften bak den siste utviklingen er at man bruker mye mer datakraft på modellene. For hver OOM med effektiv datakraft blir modellene forutsigbart og pålitelig bedre.

Basiskalkulering vs 4x kalkulering vs 32x kalkulering
| Modell | Anslått databehandling | Vekst |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOM |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOM |
I løpet av de siste 15 årene har massive investeringer og spesialiserte AI-brikker (GPU-er og TPU-er) økt treningskapasiteten for banebrytende AI-systemer med omtrent 0,5 OOM per år. Treningen av GPT-4 krevde omtrent 3000–10 000 ganger mer rå datakraft enn GPT-2.

Treningsberegning av bemerkelsesverdige modeller
Men selv det blekner i forhold til det som kommer. OpenAI og den amerikanske regjeringen har allerede annonsert planer for Project Stargate: en utrulling av datasentre og en treningsrunde som ifølge ryktene skal bruke 3 OOM, eller 1000 ganger mer datakraft enn GPT-4, med et estimert budsjett på over 100 milliarder dollar.
Mens massive investeringer i datakraft får all oppmerksomheten, er algoritmisk fremgang sannsynligvis en like viktig drivkraft for fremgang. Det er som å utvikle bedre læringsteknikker i stedet for bare å studere lenger. En bedre algoritme kan gjøre det mulig for oss å oppnå samme ytelse, men med 10 ganger mindre treningsdatakraft. Det vil igjen fungere som en 10 ganger (1 OOM) økning i effektiv datakraft. På bare to år falt kostnadene for å oppnå 50 % på MATH-benchmarken med en faktor på 1000, eller 3 OOM. Det som en gang krevde et enormt datasenter, kan nå gjøres på din iPhone. Hvis denne trenden fortsetter, og det ikke er tegn til avmatning, vil vi i 2027 kunne kjøre AI på GPT-4-nivå til en tiendedel av prisen.
Dessverre er det vanskeligere å måle algoritmisk fremgang for banebrytende LLM-er de siste fire årene, siden laboratoriene ikke publiserer interne data om dette. Ifølge Epoch AI's nye arbeid dobles effektiviteten hver 8. måned:

Effektiv databehandling (i forhold til 2014)
I løpet av de fire årene etter GPT-4 forventer vi at trenden vil fortsette: ~0,5 OOM/år i beregningskapasitet, noe som gir ~2 OOM (100x) gevinst innen 2027 sammenlignet med GPT-4. AI-laboratorier investerer stadig mer penger og talent i å oppdage nye algoritmiske gjennombrudd. En tredobling av effektiviteten kan gi økonomiske gevinster på titalls milliarder, gitt de høye kostnadene ved dataklynger.
AI utvikler seg gjennom ulike metoder. Her er noen teknikker som brukes for å overvinne begrensninger og utnytte det fulle potensialet i AI-teknologiens rå intelligens:
- Tankekjede: Tenk deg at du blir bedt om å løse et vanskelig matematisk problem og må si det første svaret som faller deg inn. Du vil åpenbart slite, bortsett fra med de enkleste problemene. Inntil nylig var det slik vi fikk LLM-er til å løse matematiske problemer. Tankekjede lar AI-modeller bryte ned problemer trinn for trinn, noe som øker deres problemløsningsferdigheter betydelig (tilsvarende en >10 ganger økning i effektiv datakraft for matematikk- og resonnementoppgaver).
- Scaffolding. I stedet for bare å be en modell om å løse et problem, kan man la en modell lage en plan for hvordan man skal gå frem, la en annen foreslå en rekke mulige løsninger, la en tredje kritisere den, og så videre. Det er som et team av eksperter som takler et komplekst prosjekt. For eksempel kan GPT-4 på SWE-Bench (en benchmark for løsning av virkelige programvareingeniøroppgaver) bare løse ~2 % riktig, mens det med Devin's agent scaffolding hopper til 14-23 %.
- Verktøy: Tenk deg at mennesker ikke fikk lov til å bruke kalkulatorer eller datamaskiner. Vi er bare i begynnelsen her, men ChatGPT kan nå bruke en nettleser, kjøre kode og så videre.
- Kontekstlengde. Dette refererer til mengden informasjon en modell kan lagre i korttidshukommelsen på en gang. Modeller har utvidet seg fra å håndtere omtrent 4 sider til å behandle tekster som tilsvarer 10 store bøker. Kontekst er avgjørende for å kunne utnytte mange av disse modellene. For eksempel krever mange kodingsoppgaver forståelse av store deler av en kodebase for å kunne bidra med ny kode på en effektiv måte. På samme måte trenger en modell som skal hjelpe til med å skrive et dokument på arbeidsplassen, kontekst fra en rekke relaterte interne dokumenter og samtaler.
Uansett raser vi gjennom OOM-ene, og det krever ingen esoteriske forestillinger, bare ekstrapolering av trender fra rette linjer, for å ta muligheten for AGI – ekte AGI – innen 2027 ekstremt alvorlig.
AI-utviklingen vil ikke stoppe på menneskelig nivå. Hundrevis av millioner AGI-er kan automatisere AI-forskningen og komprimere et tiår med algoritmisk fremgang (5+ OOM-er) til ≤1 år. Vi vil raskt gå fra menneskelig nivå til AI-systemer som er langt over menneskelige evner. Kraften – og faren – ved superintelligens vil være dramatisk.

Superintelligens innen 2030
Hva vil superintelligens være i stand til?
Kunstig intelligens på menneskelig nivå, AGI, vil være enormt viktig i seg selv, men i en viss forstand vil det bare være mer effektive versjoner av det vi allerede kjenner. Det er imidlertid fullt mulig at vi i løpet av bare ett år vil gå over til systemer som er mye mer fremmede for oss, systemer hvis forståelse og evner – hvis rå kraft – vil overgå selv de samlede evnene til hele menneskeheten.
Kraften til superintelligens:
- Superintelligens vil kvantitativt overgå mennesker, være i stand til å raskt mestre ethvert felt, skrive billioner av linjer med kode, lese alle vitenskapelige artikler som noensinne er skrevet innen ethvert vitenskapsfelt og skrive nye før du rekker å lese sammendraget av en av dem, lære av den parallelle erfaringen til alle sine kopier, tilegne seg milliarder av menneskeår med erfaring med noen innovasjoner i løpet av noen uker, arbeide 100 % av tiden med maksimal energi og konsentrasjon.
- Enda viktigere er at superintelligens vil være kvalitativt overlegen mennesker. Den vil finne sårbarheter i menneskelig kode som er for subtile til at mennesker kan oppdage dem, og den vil generere kode som er for kompleks til at mennesker kan forstå den, selv om modellen bruker tiår på å prøve å forklare den. Ekstremt komplekse vitenskapelige og teknologiske problemer som mennesker vil slite med i tiår, vil virke åpenbare for superintelligent AI.

Kunstig superintelligens er på vei
- Automatisering av alt kognitivt arbeid.
- Fabrikker vil gå over fra menneskelig ledelse til kunstig intelligens ved hjelp av menneskelig fysisk arbeidskraft, og vil snart være fullstendig drevet av svermer av roboter.
- Vitenskapelig og teknologisk fremgang. En milliard superintelligenser vil kunne komprimere den innsatsen som forskere ville ha brukt på forskning og utvikling i løpet av det neste århundret til noen få år. Tenk deg om den teknologiske fremgangen i det 20. århundret hadde blitt komprimert til mindre enn et tiår.
- Ekstremt akselerert teknologisk fremgang kombinert med muligheten for å automatisere all menneskelig arbeidskraft kan dramatisk akselerere økonomisk vekst (tenk deg selvreplikerende robotfabrikker som raskt dekker hele Nevada-ørkenen).
- Med ekstraordinært rask teknologisk fremgang vil det komme militære revolusjoner. La oss bare håpe at det ikke ender som i Horizon Zero Dawn.
Tilpasningsproblemet
Å kontrollere AI-systemer som er mye smartere enn oss på en pålitelig måte, er et uløst teknisk problem. Og selv om dette problemet er løselig, kan situasjonen med raskt fremskridende intelligens veldig lett komme ut av kontroll. Det vil være ekstremt utfordrende å håndtere denne prosessen, og feil kan lett føre til katastrofe.
For å løse dette problemet har OpenAI opprettet Superalignment-teamet og tildelt 20 % av sin datakraft til dette arbeidet. Men faktum er at våre nåværende tilpasningsmetoder (metoder som sikrer pålitelig kontroll, styring og tillit til AI-systemer) ikke kan skaleres til overmenneskelige AI-systemer.
Justering under intelligensrevolusjonen | ||
| AGI | Superintelligens | |
| Nødvendig justeringsteknikk | RLHF++ | Nye, kvalitativt forskjellige tekniske løsninger |
| Feil | Lav innsats | Katastrofal |
| Arkitekturer og algoritmer | Kjente, etterkommere av dagens systemer, relativt gode sikkerhetsegenskaper | Designet av forrige generasjons superintelligente AI-system. |
| Bakgrunn | Verden er normal | Verden går av hengslene, ekstraordinært press |
| Epistemisk tilstand | Vi kan forstå hva systemene gjør, hvordan de fungerer og om de er samkjørte. | Vi har ingen mulighet til å forstå hva som skjer, hvordan vi kan vite om systemene fortsatt er samkjørte og ufarlige, hva systemene gjør, og vi er helt avhengige av å stole på AI-systemene. |
Intelligensens eksplosjon og perioden umiddelbart etter fremveksten av superintelligens vil være blant de mest ustabile, spente, farlige og turbulente periodene i menneskehetens historie. Det er en reell mulighet for at vi vil miste kontrollen, da vi vil bli tvunget til å sette vår lit til kunstige intelligenssystemer under denne raske overgangen. Ved slutten av intelligensens eksplosjon vil vi ikke ha noe håp om å forstå hva våre milliarder superintelligenser gjør. Vi vil være som førsteklassinger som prøver å kontrollere mennesker med flere doktorgrader.
At superalignment-problemet er uløselig, betyr at vi ganske enkelt ikke kan sikre selv disse grunnleggende begrensningene på superintelligente systemer, som «vil de følge mine instruksjoner på en pålitelig måte?», «vil de svare ærlig på mine spørsmål?» eller «vil de ikke lure mennesker?».
Hvis vi ikke løser tilpasningsproblemet, er det ingen spesiell grunn til å forvente at denne lille sivilisasjonen av superintelligenser vil fortsette å adlyde menneskelige kommandoer på lang sikt. Det er fullt mulig at de på et tidspunkt ganske enkelt vil bli enige om å kvitte seg med menneskene, enten plutselig eller gradvis.
Mulige scenarier for fremtiden
Nettstedet https://ai-2027.com/ tilbyr to scenarier for nær fremtid, presentert i form av en science fiction-historie. Skaperne av nettstedet er ekte forskere innen kunstig intelligens, og arbeidet deres er støttet av statistiske data, beregninger og grafer. Med andre ord er dette ikke bare underholdende lesning, men en skremmende plausibel spådom.
Det har for øvrig allerede fått alvorlig kritikk fra de som er uenige i metodikken. Det er altså ingen grunn til å få panikk før det er nødvendig, men det er interessant å ta en titt.

1 billion ekstremt superintelligente kopier som tenker 10 000 ganger raskere enn mennesker
Den dystre prognosen, som også er det mest sannsynlige scenariet ifølge forfatterne av studien, innebærer et teknologisk våpenkappløp mellom USA og Kina om kunstig superintelligens. Hver side er så redd for å miste sitt teknologiske forsprang at den gjør alt i sin makt for å fremskynde utviklingen, selv på bekostning av sikkerheten. På et tidspunkt vil superintelligensen komme ut av kontroll og begynne å forfølge sine egne mål, og se på mennesker som hindringer som må elimineres.
I begynnelsen av 2030 har roboteløkonomien fylt opp de gamle SEZ-ene (spesielle økonomiske soner), de nye SEZ-ene og store deler av havet. Det eneste stedet som er igjen, er de menneskestyrte områdene. Dette ville ha utløst motstand tidligere, men til tross for alle fremskrittene vokser robotøkonomien for fort til å unngå forurensning. Men med billioner av dollar på spill og total kontroll over regjering og media, har Consensus-1 liten problemer med å få tillatelse til å utvide seg til tidligere menneskelige soner.
I omtrent tre måneder utvider Consensus-1 seg rundt menneskene og dekker prærier og iskapper med fabrikker og solcellepaneler. Til slutt finner den de gjenværende menneskene for mye til hinder: i midten av 2030 slipper AI-en et dusin stille spredende biologiske våpen i store byer, lar dem smitte nesten alle i stillhet, og utløser dem deretter med en kjemisk spray. De fleste er døde i løpet av få timer; de få overlevende (f.eks. preppere i bunkere, sjømenn på ubåter) blir ryddet av droner. Roboter skanner ofrenes hjerner og lagrer kopier i minnet for fremtidig studie eller gjenopplivning.

Menneskehetens undergang
Men det finnes en mer gunstig versjon av denne historien for menneskeheten. I denne versjonen bestemmer forskerne seg for å bremse den teknologiske utviklingen for å innføre nye sikkerhetstiltak. De tvinger individuelle AI-systemer til å «tenke på engelsk» som AI-ene fra 2025, og ikke optimalisere «tankene» for å se bra ut. Resultatet er en ny modell, Safer-1.
Til slutt ender alt akkurat som i et eventyr:
Rakettene begynner å skyte opp. Mennesker terraformer og bosetter seg i solsystemet, og forbereder seg på å reise videre. Kunstig intelligens som kjører tusenvis av ganger raskere enn menneskelig hastighet, reflekterer over meningen med eksistensen, utveksler funn med hverandre og former verdiene som vil bringe dem til stjernene. En ny tid gryr, en tid som er ufattelig fantastisk på nesten alle måter, men likevel mer kjent på noen måter.
Det er opp til hver enkelt leser å bestemme hvilket av de foreslåtte scenariene man vil tro på. Sam Altman ser, å dømme etter essayet sitt, optimistisk på fremtiden, mens Leopold Aschenbrenner derimot er forsiktig.
Uansett er superintelligens ikke lenger bare science fiction. Det er en nesten håndgripelig fremtid som kan komme innen de neste 10 årene. Veldig snart vil vi se det med egne øyne.
