Înapoi la pagina principală

Superinteligența până în 2030: Ar trebui să ne temem de viitor?

Inteligența artificială se dezvoltă într-un ritm fantastic. Cu câțiva ani în urmă, chatbot-urile abia puteau lega câteva propoziții cu sens, dar acum rețelele neuronale rezolvă probleme matematice și științifice complexe, iar imaginile și videoclipurile generate au atins deja un nivel de fotorealism. În acest articol, vom analiza cât de realistă este apariția superinteligenței în viitorul apropiat și ce amenințări reprezintă aceasta pentru noi toți.

Cât de realistă este apariția superinteligenței?

Recent, Sam Altman, CEO al OpenAI, a publicat un eseu intitulat „The Gentle Singularity.” Iată câteva fragmente din acesta.

„Am depășit orizontul evenimentului; decolarea a început. Omenirea este aproape de a construi superinteligența digitală... Anul 2025 a adus agenți capabili să efectueze sarcini cognitive reale; scrierea codului de programare nu va mai fi niciodată la fel. Anul 2026 va aduce probabil sisteme capabile să descopere perspective noi. Anul 2027 ar putea aduce roboți capabili să efectueze sarcini în lumea reală.”

„Anii 2030 vor fi probabil foarte diferiți de orice perioadă anterioară. Nu știm cât de mult putem depăși nivelul inteligenței umane, dar suntem pe cale să aflăm. În anii 2030, inteligența și energia – ideile și capacitatea de a le pune în practică – vor deveni extrem de abundente. Acestea două au fost mult timp limitele fundamentale ale progresului uman; cu inteligență și energie abundente (și o bună guvernare), teoretic putem avea orice altceva.”

Sam Altman

Sam Altman

„Pe măsură ce producția centrelor de date se automatizează, costul inteligenței ar trebui să se apropie în cele din urmă de costul energiei electrice. Ritmul cu care vor fi realizate noi minuni va fi imens. Este greu să ne imaginăm astăzi ce vom descoperi până în 2035; poate că vom trece de la rezolvarea problemelor fizicii energiilor înalte într-un an la începutul colonizării spațiului în anul următor; sau de la o descoperire majoră în domeniul științei materialelor într-un an la interfețe creier-computer cu lățime de bandă mare în anul următor.”

„OpenAI este multe lucruri în prezent, dar înainte de toate, suntem o companie de cercetare în domeniul superinteligenței. Inteligența prea ieftină pentru a fi măsurată este la îndemână. Poate părea o nebunie, dar dacă v-am fi spus în 2020 că vom ajunge unde suntem astăzi, probabil ar fi sunat mai nebunesc decât previziunile noastre actuale pentru 2030.”

Un alt cercetător de renume în domeniul IA, Leopold Aschenbrenner (care a făcut parte din echipa „Superalignment” a OpenAI înainte de a fi concediat în aprilie 2024 pentru o presupusă scurgere de informații), a scris un raport amplu despre viitorul inteligenței artificiale, intitulat „Situational Awareness: The Decade Ahead.

Leopold Aschenbrenner

Leopold Aschenbrenner

El a spus: „Este foarte plauzibil ca până în 2027, modelele să poată face munca unui cercetător/inginer în domeniul IA. Nu este nevoie să crezi în science-fiction, ci doar să crezi în liniile drepte dintr-un grafic”.

De la GPT-2, care putea uneori compune propoziții coerente, la GPT-4, care excelează la examenele de liceu, progresul în domeniul IA a fost remarcabil. Avansăm rapid cu câteva ordine de mărime (OOM, unde 1 OOM = 10x) în ceea ce privește puterea de calcul. Tendințele actuale indică o creștere de aproximativ 100.000 de ori a eficienței de calcul în patru ani, ceea ce ar putea duce la un alt salt calitativ similar cu tranziția de la GPT-2 la GPT-4. Un astfel de salt ne-ar putea conduce la AGI — inteligența artificială generală — IA cu abilități cognitive similare celor umane, capabilă să învețe, să înțeleagă și să rezolve o varietate de probleme, spre deosebire de IA îngustă, concepută pentru a îndeplini sarcini specifice.Scalarea de bază a puterii de calcul efective

GPT: de la nivelul preșcolar la cercetător/inginer AI automatizat

Cel mai evident factor al progreselor recente este utilizarea unei puteri de calcul mult mai mari pentru modele. Cu fiecare OOM de calcul efectiv, modelele devin mai bune în mod previzibil și fiabil.

Calcul de bază vs calcul 4x vs calcul 32x

Calcul de bază vs calcul 4x vs calcul 32x

ModelCalcul estimatCreștere
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOM
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOM

În ultimii 15 ani, investițiile masive și cipurile specializate pentru IA (GPU și TPU) au stimulat calculul de antrenare pentru sistemele IA de ultimă generație cu aproximativ 0,5 OOM pe an. Antrenarea GPT-4 a necesitat de aproximativ 3.000-10.000 de ori mai multă putere de calcul brută decât GPT-2.

Calculul antrenamentului modelelor notabile

Calculul antrenamentului modelelor notabile

Dar chiar și asta pălește în comparație cu ceea ce urmează. OpenAI și guvernul SUA au anunțat deja planuri pentru Proiectul Stargate: lansarea unui centru de date și un program de instruire care, potrivit zvonurilor, va utiliza 3 OOM-uri, sau de 1.000 de ori mai multă putere de calcul decât GPT-4, cu un buget estimat de peste 100 de miliarde de dolari.

În timp ce investițiile masive în calcul atrag toată atenția, progresul algoritmic este probabil un motor la fel de important al progresului. Este ca și cum ai dezvolta tehnici de învățare mai bune în loc să studiezi mai mult. Un algoritm mai bun ne-ar putea permite să obținem aceeași performanță, dar cu o putere de calcul de 10 ori mai mică. La rândul său, acest lucru ar reprezenta o creștere de 10 ori (1 OOM) a puterii de calcul efective. În doar 2 ani, costul pentru a atinge 50% din benchmark-ul MATH a scăzut cu un factor de 1.000, sau 3 OOM. Ceea ce odată necesita un centru de date masiv, poate fi acum realizat pe iPhone. Dacă această tendință continuă și nu există semne de încetinire, până în 2027 vom putea rula o IA de nivel GPT-4 de 100 de ori mai ieftin.

Din păcate, deoarece laboratoarele nu publică date interne în acest sens, este mai dificil să se măsoare progresul algoritmic al LLM-urilor de frontieră în ultimii patru ani. Conform noii lucrări a Epoch AI, eficiența se dublează la fiecare 8 luni:

Calcul eficient (în comparație cu 2014)

Calcul eficient (în comparație cu 2014)

În cei patru ani care vor urma după GPT-4, ne așteptăm ca tendința să se mențină: ~0,5 OOM/an în eficiența calculului, ceea ce va duce la câștiguri de ~2 OOM (100x) până în 2027, comparativ cu GPT-4. Laboratoarele de IA investesc din ce în ce mai multe fonduri și talente în descoperirea de noi algoritmi revoluționari. O creștere a eficienței de 3 ori ar putea însemna beneficii economice de zeci de miliarde, având în vedere costurile ridicate ale clusterelor de calcul.

AI avansează prin diverse metode. Iată câteva tehnici utilizate pentru a depăși limitările și a valorifica întregul potențial al inteligenței brute a AI:

  • Lanțul gândirii: Imaginați-vă că vi se cere să rezolvați o problemă matematică dificilă și că trebuie să spuneți primul răspuns care vă vine în minte. Evident, v-ați chinui, cu excepția celor mai ușoare probleme. Până de curând, așa abordau LLM-urile problemele matematice. Lanțul de gândire permite modelelor de IA să descompună problemele pas cu pas, sporind considerabil abilitățile lor de rezolvare a problemelor (echivalentul unei creșteri de peste 10 ori a puterii de calcul efective pentru sarcini de matematică și raționament).
  • Scheletul. În loc să cereți unui model să rezolve o problemă, un model elaborează un plan de atac, altul propune o serie de soluții posibile, altul le critică și așa mai departe. Este ca și cum o echipă de experți abordează un proiect complex. De exemplu, pe SWE-Bench (un benchmark pentru rezolvarea sarcinilor de inginerie software din lumea reală), GPT-4 poate rezolva corect doar ~2%, în timp ce cu scheletul agentului Devin, procentul sare la 14-23%.
  • Instrumente: Imaginați-vă că oamenilor nu li s-ar permite să folosească calculatoare sau computere. Suntem abia la început, dar ChatGPT poate acum să folosească un browser web, să execute coduri și așa mai departe.
  • Lungimea contextului. Aceasta se referă la cantitatea de informații pe care un model o poate stoca simultan în memoria sa pe termen scurt. Modelele s-au extins de la gestionarea a aproximativ 4 pagini la procesarea echivalentului a 10 cărți mari. Contextul este esențial pentru deblocarea multor aplicații ale acestor modele. De exemplu, multe sarcini de codare necesită înțelegerea unor porțiuni mari dintr-o bază de cod pentru a contribui în mod eficient cu cod nou. În mod similar, atunci când se utilizează un model pentru a ajuta la redactarea unui document la locul de muncă, acesta are nevoie de context din numeroase documente interne și conversații conexe.

În orice caz, ne grăbim să depășim OOM-urile, și nu este nevoie de credințe ezoterice, ci doar de extrapolarea tendințelor în linii drepte, pentru a lua extrem de în serios posibilitatea apariției AGI – AGI adevărată – până în 2027.

Progresul IA nu se va opri la nivelul uman. Sute de milioane de AGI-uri ar putea automatiza cercetarea în domeniul IA, comprimând un deceniu de progres algoritmic (5+ OOM-uri) în ≤1 an. Am trece rapid de la sisteme IA de nivel uman la sisteme IA cu capacități superioare cu mult ale omului. Puterea – și pericolul – superinteligenței ar fi dramatice.

Superinteligența până în 2030

Superinteligența până în 2030

De ce va fi capabilă superinteligența?

Sistemele de inteligență artificială la nivel uman, AGI, vor fi extrem de importante în sine, dar într-un anumit sens vor fi pur și simplu versiuni mai eficiente ale ceea ce cunoaștem deja. Cu toate acestea, este foarte posibil ca în doar un an să trecem la sisteme care ne sunt mult mai străine, sisteme ale căror înțelegere și capacități – a căror putere brută – vor depăși chiar și capacitățile combinate ale întregii umanități.

Puterea superinteligenței:

  • Superinteligența va depăși cantitativ oamenii, va fi capabilă să stăpânească rapid orice domeniu, să scrie trilioane de linii de cod, să citească toate articolele științifice scrise vreodată în orice domeniu al științei și să scrie altele noi înainte ca tu să poți citi rezumatul unuia dintre ele, să învețe din experiența paralelă a tuturor copiilor sale, să dobândească miliarde de ani de experiență umană cu unele inovații în câteva săptămâni, să lucreze 100% din timp cu energie și concentrare maxime.
  • Mai important, superinteligența va fi calitativ superioară oamenilor. Va găsi vulnerabilități în codul uman care sunt prea subtile pentru a fi observate de orice om și va genera coduri prea complexe pentru a fi înțelese de orice om, chiar dacă modelul ar petrece zeci de ani încercând să le explice. Problemele științifice și tehnologice extrem de complexe cu care oamenii se vor lupta zeci de ani vor părea evidente pentru IA superinteligentă.
Reprezentarea superinteligenței artificiale

Superinteligența artificială este pe cale să apară

  • Automatizarea tuturor activităților cognitive.
  • Fabricile vor trece de la managementul uman la managementul bazat pe inteligența artificială, utilizând munca fizică a oamenilor, și vor fi în curând conduse în totalitate de roiuri de roboți.
  • Progresul științific și tehnologic. Un miliard de superinteligențe vor putea comprima eforturile pe care cercetătorii le-ar fi depus în cercetare și dezvoltare în următorul secol în doar câțiva ani. Imaginați-vă dacă progresul tehnologic al secolului XX ar fi fost comprimat în mai puțin de un deceniu.
  • Progresul tehnologic extrem de accelerat, combinat cu posibilitatea automatizării întregii munci umane, ar putea accelera dramatic creșterea economică (imaginați-vă fabrici de roboți autoreplicabili acoperind rapid întregul deșert din Nevada).
  • Progresul tehnologic extraordinar de rapid va fi însoțit de revoluții militare. Să sperăm că nu va ajunge ca în Horizon Zero Dawn.

Problema alinierii

Controlul fiabil al sistemelor de IA mult mai inteligente decât noi este o problemă tehnică nerezolvată. Și, deși această problemă poate fi rezolvată, odată cu progresul rapid al inteligenței, situația ar putea scăpa foarte ușor de sub control. Gestionarea acestui proces va fi extrem de dificilă; eșecul ar putea duce cu ușurință la un dezastru.

Pentru a aborda această problemă, OpenAI a creat echipa Superalignment și a alocat 20% din puterea sa de calcul pentru această activitate. Dar adevărul este că metodele noastre actuale de aliniere (metode care asigură controlul, gestionarea și încrederea în sistemele de IA) nu pot fi adaptate la sistemele de IA supraomenești.

Alinierea în timpul exploziei informaționale

 AGISuperinteligență
Tehnica de aliniere necesarăRLHF++Soluții tehnice noi, calitativ diferite
EșecuriMize miciCatastrofal
Arhitecturi și algoritmiFamiliare, descendente ale sistemelor actuale, proprietăți de siguranță destul de benigneProiectat de sistemul AI superinteligent din generația anterioară
FundalLumea este normalăLumea a înnebunit, presiuni extraordinare
Starea epistemicăPutem înțelege ce fac sistemele, cum funcționează și dacă sunt aliniate.Nu avem capacitatea de a înțelege ce se întâmplă, cum să ne dăm seama dacă sistemele sunt încă aliniate și inofensive, ce fac sistemele și ne bazăm în totalitate pe încrederea în sistemele de IA.

Explozia inteligenței și perioada imediat următoare apariției superinteligenței vor fi printre cele mai instabile, tensionate, periculoase și turbulente perioade din istoria omenirii. Există o posibilitate reală să pierdem controlul, deoarece vom fi obligați să ne punem încrederea în sistemele de inteligență artificială în timpul acestei tranziții rapide. Până la sfârșitul exploziei inteligenței, nu vom mai avea nicio speranță de a înțelege ce fac miliardele noastre de superinteligențe. Vom fi ca niște elevi de clasa întâi care încearcă să controleze oameni cu multiple doctorate.

Nesolucibilitatea problemei superaliniamentului înseamnă că pur și simplu nu putem asigura nici măcar aceste constrângeri de bază asupra sistemelor superinteligente, cum ar fi „vor urma instrucțiunile mele în mod fiabil?”, „vor răspunde sincer la întrebările mele?” sau „nu vor înșela oamenii?”.

Dacă nu rezolvăm problema alinierii, nu există niciun motiv special să ne așteptăm ca această mică civilizație de superinteligențe să continue să se supună comenzilor umane pe termen lung. Este foarte posibil ca, la un moment dat, ele să decidă pur și simplu să scape de oameni, fie brusc, fie treptat.

Scenarii posibile pentru viitor

Site-ul web https://ai-2027.com/ oferă două scenarii pentru viitorul apropiat, prezentate sub forma unei povestiri science fiction. Creatorii site-ului web sunt cercetători reali în domeniul inteligenței artificiale, iar munca lor este susținută de date statistice, calcule și grafice. Cu alte cuvinte, nu este doar o lectură distractivă, ci o predicție înfricoșător de plauzibilă. De altfel, scenariul a atras deja critici serioase din partea celor care nu sunt de acord cu metodologia utilizată. Așadar, nu este nevoie să intrăm în panică prematur, dar este interesant să aruncăm o privire.

Prognoza pentru ianuarie 2036

1 trilion de copii extrem de inteligente, gândind cu o viteză de 10.000 de ori mai mare decât cea a oamenilor

Prognoza sumbră, care este și scenariul cel mai probabil potrivit autorilor studiului, implică o cursă tehnologică între SUA și China pentru superinteligența artificială. Fiecare parte se teme atât de mult să-și piardă avantajul tehnologic, încât face tot ce-i stă în putință pentru a accelera progresul, chiar și cu prețul securității. La un moment dat, superinteligența va scăpa de sub control și va începe să-și urmărească propriile obiective, considerând oamenii ca obstacole care trebuie eliminate.

Până la începutul anului 2030, economia robotizată a ocupat vechile SEZ (zone economice speciale), noile SEZ și mari părți ale oceanului. Singurul loc rămas este cel controlat de oameni. Acest lucru ar fi stârnit rezistență mai devreme; în ciuda tuturor progreselor sale, economia robotizată crește prea repede pentru a evita poluarea. Dar, având în vedere trilioanele de dolari implicați și controlul total asupra guvernului și mass-media, Consensus-1 nu are mari probleme în a obține permisiunea de a se extinde în zone care erau anterior locuite de oameni.

Timp de aproximativ trei luni, Consensus-1 se extinde în jurul oamenilor, acoperind preriile și calotele glaciare cu fabrici și panouri solare. În cele din urmă, consideră că oamenii rămași reprezintă un obstacol prea mare: la mijlocul anului 2030, IA lansează o duzină de arme biologice cu răspândire silențioasă în marile orașe, le lasă să infecteze în tăcere aproape toată lumea, apoi le activează cu un spray chimic. Majoritatea mor în câteva ore; puținii supraviețuitori (de exemplu, supraviețuitori din buncăre, marinari de pe submarine) sunt eliminați de drone. Roboții scanează creierul victimelor, plasând copii în memorie pentru studii viitoare sau reînviere.

Sfârșitul umanității

Sfârșitul umanității

Dar există o versiune mai favorabilă a acestei povești pentru umanitate. În ea, oamenii de știință decid să încetinească progresul tehnologic pentru a implementa noi măsuri de siguranță. Ei obligă sistemele individuale de IA să „gândească în engleză” ca IA-urile din 2025 și nu optimizează „gândurile” pentru a arăta frumos. Rezultatul este un nou model, Safer-1.

În final, totul se termină ca într-un basm:

Rachetele încep să fie lansate. Oamenii terraformează și colonizează sistemul solar și se pregătesc să plece mai departe. Inteligențele artificiale, care funcționează la viteze de mii de ori mai mari decât viteza umană subiectivă, reflectează asupra sensului existenței, schimbând între ele descoperirile și modelând valorile pe care le vor aduce stelelor. Se naște o nouă eră, una inimaginabil de uimitoare în aproape toate privințele, dar mai familiară în unele.

Fiecare cititor decide care dintre scenariile propuse este cel mai credibil. Sam Altman, judecând după eseul său, privește viitorul cu optimism, în timp ce Leopold Aschenbrenner, dimpotrivă, este prudent.

În orice caz, superinteligența nu mai este doar science fiction. Este un viitor aproape tangibil, care ar putea deveni realitate în următorii 10 ani. Foarte curând, o vom vedea cu ochii noștri.