Superintelligens år 2030: Bör vi frukta framtiden?
Artificiell intelligens utvecklas i en fantastisk takt. För några år sedan kunde chattbottar knappt sätta ihop ett par meningsfulla meningar, men nu löser neurala nätverk komplexa matematiska och vetenskapliga problem, och genererade bilder och videor har redan nått en nivå av fotorealism. I den här artikeln ska vi titta på hur realistisk framväxten av superintelligens är i en nära framtid och vilka hot den utgör för oss alla.
Hur realistisk är uppkomsten av superintelligens?
Nyligen publicerade Sam Altman, VD för OpenAI, en essä med titeln ”The Gentle Singularity.” Här är några utdrag ur den.
”Vi har passerat händelsehorisonten; starten har gått. Mänskligheten är nära att skapa digital superintelligens... 2025 har vi sett ankomsten av agenter som kan utföra verkligt kognitivt arbete; att skriva datorkod kommer aldrig att vara sig likt igen. 2026 kommer vi troligen att se ankomsten av system som kan komma fram till nya insikter. 2027 kan vi få se ankomsten av robotar som kan utföra uppgifter i den verkliga världen.”
”2030-talet kommer sannolikt att bli helt annorlunda än alla tidigare årtionden. Vi vet inte hur långt vi kan gå bortom mänsklig intelligens, men vi är på väg att ta reda på det. Under 2030-talet kommer intelligens och energi – idéer och förmågan att förverkliga idéer – att bli oerhört rikliga. Dessa två faktorer har länge varit de grundläggande begränsningarna för mänsklig utveckling, men med riklig intelligens och energi (och god styrning) kan vi teoretiskt sett få allt annat.”
Sam Altman
”I takt med att datacenterproduktionen automatiseras kommer kostnaden för intelligens så småningom att närma sig kostnaden för el. Takten i vilka nya underverk uppnås kommer att vara enorm. Det är svårt att ens föreställa sig idag vad vi kommer att ha upptäckt år 2035. Kanske kommer vi att gå från att lösa högenergifysik ett år till att påbörja kolonisering av rymden nästa år, eller från ett stort genombrott inom materialvetenskap ett år till verkliga högbandbreddsgränssnitt mellan hjärna och dator nästa år.”
”OpenAI är många saker idag, men först och främst är vi ett forskningsföretag inom superintelligens. Intelligens som är för billig för att mäta är inom räckhåll. Det kanske låter galet, men om vi hade sagt 2020 att vi skulle vara där vi är idag, hade det nog låtit galnare än våra nuvarande prognoser för 2030.”
En annan framstående AI-forskare, Leopold Aschenbrenner (som var en del av OpenAI:s ”Superalignment”-team innan han avskedades i april 2024 på grund av en påstådd informationsläcka), skrev en omfattande rapport om framtiden för artificiell intelligens med titeln ”Situational Awareness: The Decade Ahead.”

Leopold Aschenbrenner
Han sa: ”Det är mycket troligt att modeller år 2027 kommer att kunna utföra arbetet som en AI-forskare/ingenjör. Det kräver inte att man tror på science fiction, utan bara att man tror på raka linjer på ett diagram.”
Från GPT-2, som ibland kunde komponera sammanhängande meningar, till GPT-4, som utmärker sig i gymnasieprov, har framstegen inom AI varit anmärkningsvärda. Vi avancerar snabbt med flera storleksordningar (OOM, där 1 OOM = 10x) i datorkraft. Nuvarande trender pekar på en ungefär 100 000-faldig ökning av databehandlingskapaciteten under fyra år, vilket potentiellt kan leda till ytterligare ett kvalitativt språng liknande övergången från GPT-2 till GPT-4. Ett sådant språng skulle kunna leda oss till AGI – artificiell allmän intelligens – AI med människoliknande kognitiva förmågor, som kan lära sig, förstå och lösa en mängd olika problem, till skillnad från smal AI som är utformad för att utföra specifika uppgifter.
GPT: från förskolebarn till automatiserad AI-forskare/ingenjör
Den mest uppenbara drivkraften bakom de senaste framstegen är att man använder mycket mer datorkraft på modellerna. Med varje OOM effektiv datorkraft blir modellerna förutsägbart och tillförlitligt bättre.

Basberäkning vs 4x beräkning vs 32x beräkning
| Modell | Beräknad beräkningskapacitet | Tillväxt |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOM |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOM |
Under de senaste 15 åren har massiva investeringar och specialiserade AI-chip (GPU:er och TPU:er) ökat träningsberäkningskapaciteten för avancerade AI-system med cirka 0,5 OOM per år. Träningen av GPT-4 krävde cirka 3 000–10 000 gånger mer råberäkningskapacitet än GPT-2.

Träningsberäkning av viktiga modeller
Men även det bleknar i jämförelse med vad som komma skall. OpenAI och den amerikanska regeringen har redan tillkännagivit planer för Project Stargate: en datacenterutrullning plus en testkörning som enligt rykten ska använda 3 OOM, eller 1 000 gånger mer datorkraft än GPT-4, med en beräknad budget på över 100 miljarder dollar.
Medan de enorma investeringarna i datorkraft får all uppmärksamhet är algoritmiska framsteg förmodligen en lika viktig drivkraft för utvecklingen. Det är som att utveckla bättre inlärningstekniker istället för att bara studera längre. En bättre algoritm kan göra det möjligt för oss att uppnå samma prestanda men med 10 gånger mindre träningsdatorkraft. Det skulle i sin tur fungera som en 10-faldig (1 OOM) ökning av den effektiva datorkraften. På bara två år sjönk kostnaden för att uppnå 50 % på MATH-benchmark med en faktor 1 000, eller 3 OOM. Det som en gång krävde ett enormt datacenter kan nu åstadkommas på din iPhone. Om denna trend fortsätter, och det finns inga tecken på avmattning, kommer vi år 2027 att kunna köra AI på GPT-4-nivå för 100 gånger lägre kostnad.
Tyvärr är det svårare att mäta algoritmiska framsteg för banbrytande LLM under de senaste fyra åren, eftersom laboratorierna inte publicerar interna data om detta. Enligt Epoch AI:s nya arbete fördubblas effektiviteten var åttonde månad:

Effektiv beräkningskapacitet (i förhållande till 2014)
Under de fyra åren efter GPT-4 förväntar vi oss att trenden kommer att fortsätta: ~0,5 OOM/år i beräkningseffektivitet, vilket ger ~2 OOM (100x) vinster fram till 2027 jämfört med GPT-4. AI-laboratorier satsar allt mer pengar och talang på att upptäcka nya algoritmiska genombrott. En trefaldig effektivitetsökning kan innebära ekonomiska vinster på tiotals miljarder, med tanke på de höga kostnaderna för beräkningskluster.
AI utvecklas genom olika metoder. Här är några tekniker som används för att övervinna begränsningar och frigöra AI:s fulla potential:
- Tankekedja: Tänk dig att du blir ombedd att lösa en svår matematisk uppgift och måste säga det första svaret som dyker upp i huvudet. Du skulle uppenbarligen ha svårt för det, förutom de enklaste uppgifterna. Fram till nyligen var det så vi lät LLM:er lösa matematiska problem. Tankekedja låter AI-modeller bryta ner problem steg för steg, vilket avsevärt förbättrar deras problemlösningsförmåga (motsvarande en >10-faldig ökning av effektiv datorkraft för matematiska och logiska uppgifter).
- Scaffolding. Istället för att bara be en modell lösa ett problem, låter man en modell göra en plan, en annan föreslå en rad möjliga lösningar, en tredje kritisera den, och så vidare. Det är som ett team av experter som tar itu med ett komplext projekt. Till exempel kan GPT-4 på SWE-Bench (ett benchmark för att lösa verkliga programvaruutvecklingsuppgifter) bara lösa ~2 % korrekt, medan det med Devin's agent scaffolding hoppar till 14-23 %.
- Verktyg: Tänk dig om människor inte fick använda miniräknare eller datorer. Vi är bara i början, men ChatGPT kan nu använda en webbläsare, köra kod och så vidare.
- Kontextlängd. Detta avser mängden information som en modell kan lagra i sitt korttidsminne samtidigt. Modeller har utvecklats från att hantera ungefär 4 sidor till att bearbeta motsvarande 10 stora böcker. Kontext är avgörande för att kunna utnyttja många av dessa modellers tillämpningar. Många kodningsuppgifter kräver till exempel att man förstår stora delar av en kodbas för att kunna bidra med ny kod på ett effektivt sätt. På samma sätt behöver en modell som används för att hjälpa till med att skriva ett arbetsdokument kontext från ett stort antal relaterade interna dokument och konversationer.
I vilket fall som helst rusar vi genom OOM:erna, och det krävs inga esoteriska övertygelser, bara en extrapolering av raka linjer, för att ta möjligheten av AGI – äkta AGI – år 2027 på största allvar.
AI-utvecklingen kommer inte att stanna vid mänsklig nivå. Hundratals miljoner AGI:er skulle kunna automatisera AI-forskningen och komprimera ett decennium av algoritmisk utveckling (5+ OOM) till ≤1 år. Vi skulle snabbt gå från mänsklig nivå till AI-system som vida överstiger mänskliga förmågor. Kraften – och faran – med superintelligens skulle vara dramatisk.

Superintelligens år 2030
Vad kommer superintelligens att kunna göra?
Artificiella intelligenssystem på mänsklig nivå, AGI, kommer att vara oerhört viktiga i sig, men i viss mening kommer de bara att vara effektivare versioner av det vi redan känner till. Det är dock fullt möjligt att vi inom bara ett år kommer att gå över till system som är mycket mer främmande för oss, system vars förståelse och kapacitet – vars råa kraft – kommer att överträffa hela mänsklighetens samlade kapacitet.
Superintelligensens kraft:
- Superintelligens kommer att överträffa människor kvantitativt, kunna snabbt bemästra vilket område som helst, skriva biljoner rader kod, läsa alla vetenskapliga artiklar som någonsin skrivits inom något vetenskapsområde och skriva nya innan du hinner läsa sammanfattningen av en enda av dem, lära sig av alla sina kopior samtidigt, skaffa sig miljarder människors erfarenhet med vissa innovationer på bara några veckor, arbeta 100 % av tiden med maximal energi och koncentration.
- Ännu viktigare är att superintelligens kommer att vara kvalitativt överlägsen människor. Den kommer att hitta sårbarheter i mänsklig kod som är för subtila för att någon människa ska kunna upptäcka, och den kommer att generera kod som är för komplex för att någon människa ska kunna förstå, även om modellen tillbringar årtionden med att försöka förklara den. Extremt komplexa vetenskapliga och tekniska problem som människor kommer att kämpa med i årtionden kommer att verka uppenbara för superintelligent AI.

Artificiell superintelligens är på väg
- Automatisering av allt kognitivt arbete.
- Fabriker kommer att övergå från mänsklig ledning till artificiell intelligens som använder mänsklig fysisk arbetskraft, och kommer snart att drivas helt av svärmar av robotar.
- Vetenskapliga och tekniska framsteg. En miljard superintelligenser kommer att kunna komprimera det arbete som forskare skulle ha lagt ner på forskning och utveckling under det kommande århundradet till några få år. Tänk dig om 1900-talets tekniska framsteg hade komprimerats till mindre än ett decennium.
- Extremt snabba tekniska framsteg i kombination med möjligheten att automatisera allt mänskligt arbete skulle kunna påskynda den ekonomiska tillväxten dramatiskt (tänk dig självkopierande robotfabriker som snabbt täcker hela Nevadaöknen).
- Med extraordinärt snabba tekniska framsteg kommer militära revolutioner att följa. Låt oss bara hoppas att det inte slutar som i Horizon Zero Dawn.
Aligningsproblemet
Att på ett tillförlitligt sätt kontrollera AI-system som är mycket smartare än vi är ett olöst tekniskt problem. Och även om detta problem är lösbart, kan situationen mycket lätt spåra ur med snabbt framskridande intelligens. Att hantera denna process kommer att vara extremt utmanande; ett misslyckande kan lätt leda till en katastrof.
För att ta itu med detta problem har OpenAI skapat Superalignment-teamet och avsatt 20 % av sin datorkraft till detta arbete. Men faktum är att våra nuvarande anpassningsmetoder (metoder som säkerställer tillförlitlig kontroll, hantering och förtroende för AI-system) inte kan skalas upp till övermänskliga AI-system.
Anpassning under intelligens explosion | ||
| AGI | Superintelligens | |
| Nödvändig justeringsteknik | RLHF++ | Nya, kvalitativt annorlunda tekniska lösningar |
| Fel | Låga insatser | Katastrofal |
| Arkitekturer och algoritmer | Bekanta, härstammar från nuvarande system, relativt god säkerhet | Designad av föregående generations supersmarta AI-system |
| Bakgrund | Världen är normal | Världen håller på att bli galen, extraordinära påfrestningar |
| Epistemisk tillstånd | Vi kan förstå vad systemen gör, hur de fungerar och om de är samordnade. | Vi har ingen möjlighet att förstå vad som pågår, hur vi kan avgöra om systemen fortfarande är samordnade och ofarliga, vad systemen gör, och vi är helt beroende av att lita på AI-systemen. |
Intelligensens explosion och perioden omedelbart efter superintelligensens framväxt kommer att vara en av de mest instabila, spända, farliga och turbulenta perioderna i mänsklighetens historia. Det finns en reell risk att vi förlorar kontrollen, eftersom vi kommer att tvingas lägga vårt förtroende i artificiella intelligenssystem under denna snabba övergång. Vid slutet av intelligensens explosion kommer vi inte ha någon förhoppning om att förstå vad våra miljarder superintelligenser gör. Vi kommer att vara som förstaklassare som försöker kontrollera människor med flera doktorsexamina.
Det olösliga problemet med superalignment innebär att vi helt enkelt inte kan säkerställa ens dessa grundläggande begränsningar för superintelligenta system, såsom ”kommer de att följa mina instruktioner på ett tillförlitligt sätt?”, ”kommer de att svara ärligt på mina frågor?” eller ”kommer de att lura människor?”.
Om vi inte löser anpassningsproblemet finns det ingen särskild anledning att förvänta sig att denna lilla civilisation av superintelligenser kommer att fortsätta att lyda människors kommandon på lång sikt. Det är mycket möjligt att de vid någon tidpunkt helt enkelt kommer att enas om att göra sig av med människorna, antingen plötsligt eller gradvis.
Möjliga scenarier för framtiden
Webbplatsen https://ai-2027.com/ presenterar två scenarier för den närmaste framtiden i form av en science fiction-berättelse. Skaparna av webbplatsen är verkliga forskare inom artificiell intelligens, och deras arbete stöds av statistiska data, beräkningar och grafer. Med andra ord är detta inte bara underhållande läsning, utan en skrämmande trovärdig förutsägelse. Det har för övrigt redan väckt allvarlig kritik från dem som inte håller med om metodiken. Det finns alltså ingen anledning att dra förhastade slutsatser, men det är intressant att ta en titt.

1 biljon extremt intelligenta kopior som tänker 10 000 gånger snabbare än människor
Den dystra prognosen, som också är det mest troliga scenariot enligt studiens författare, innebär ett tekniskt kapplöpning mellan USA och Kina om artificiell superintelligens. Varje sida är så rädd för att förlora sitt tekniska försprång att den gör allt i sin makt för att påskynda utvecklingen, även på bekostnad av säkerheten. Vid någon tidpunkt kommer superintelligensen att spåra ur och börja sträva efter sina egna mål, och se människor som hinder som måste elimineras.
I början av 2030 har roboteekonomin fyllt de gamla SEZ (Special Economic Zones), de nya SEZ och stora delar av havet. Det enda som återstår är de områden som kontrolleras av människor. Detta skulle ha utlöst motstånd tidigare, men trots alla framsteg växer roboteekonomin för snabbt för att undvika föroreningar. Men med tanke på de biljoner dollar som står på spel och den totala kontrollen över regeringar och media har Consensus-1 inga större problem att få tillstånd att expandera till tidigare mänskliga zoner.
Under ungefär tre månader expanderar Consensus-1 runt människorna och täcker prärier och istäcken med fabriker och solpaneler. Till slut anser den att de återstående människorna är ett för stort hinder: i mitten av 2030 släpper AI:n ett dussin tyst spridande biologiska vapen i större städer, låter dem smitta nästan alla utan att det märks och aktiverar dem sedan med en kemisk spray. De flesta dör inom några timmar; de få överlevande (t.ex. preppers i bunkrar, sjömän på ubåtar) rensas bort av drönare. Robotar skannar offrens hjärnor och placerar kopior i minnet för framtida studier eller återupplivning.

Mänsklighetens undergång
Men det finns en mer gynnsam version av denna historia för mänskligheten. I den beslutar forskarna att bromsa den tekniska utvecklingen för att införa nya säkerhetsåtgärder. De tvingar enskilda AI-system att ”tänka på engelska” som AI-systemen från 2025, och optimerar inte ”tankarna” för att de ska se snygga ut. Resultatet blir en ny modell, Safer-1.
I slutändan slutar allt precis som i en saga:
Raketerna börjar skjutas upp. Människor terraformar och bosätter sig i solsystemet och förbereder sig för att resa vidare. AI som arbetar tusentals gånger snabbare än människor reflekterar över meningen med existensen, utbyter upptäckter med varandra och formar de värderingar som kommer att prägla stjärnorna. En ny era gryr, en era som är otroligt fantastisk på nästan alla sätt, men som på vissa sätt känns mer bekant.
Det är upp till varje läsare att avgöra vilket av de föreslagna scenarierna man vill tro på. Sam Altman ser, att döma av sin essä, optimistiskt på framtiden, medan Leopold Aschenbrenner tvärtom är försiktig.
I vilket fall som helst är superintelligens inte längre bara science fiction. Det är en nästan påtaglig framtid som kan komma inom de närmaste tio åren. Mycket snart kommer vi att se det med egna ögon.
