Szuperintelligencia 2030-ra: félnünk kell a jövőtől?
A mesterséges intelligencia fantasztikus ütemben fejlődik. Néhány évvel ezelőtt a chatbotok alig tudtak összefűzni pár értelmes mondatot, ma viszont a neurális hálózatok komplex matematikai és tudományos problémákat oldanak meg, a generált képek és videók pedig már elérik a fotórealisztikus szintet. Ebben a cikkben megvizsgáljuk, mennyire reális a szuperintelligencia megjelenése a közeljövőben, és milyen veszélyeket jelent ez mindannyiunk számára.
Mennyire reális a szuperintelligencia megjelenése?
Nemrég Sam Altman, az OpenAI vezérigazgatója publikált egy esszét „The Gentle Singularity” (A szelíd szingularitás) címmel. Íme néhány kivonat belőle.
„Már túl vagyunk az eseményhorizonton; a felszállás megkezdődött. Az emberiség közel áll a digitális szuperintelligencia megalkotásához... 2025-ben megjelentek az első olyan ügynökök, amelyek valódi kognitív munkát képesek végezni; a számítógépes kódírás soha többé nem lesz ugyanaz. 2026-ban valószínűleg megjelennek azok a rendszerek, amelyek képesek újszerű betekintést nyerni. 2027-ben pedig megjelenhetnek azok a robotok, amelyek képesek feladatok elvégzésére a valós világban.”
„A 2030-as évek valószínűleg teljesen mások lesznek, mint az eddigiek. Nem tudjuk, hogy az emberi intelligencia szintjét mennyivel tudjuk meghaladni, de hamarosan megtudjuk. A 2030-as években az intelligencia és az energia – az ötletek és az ötletek megvalósításának képessége – rendkívül bőségessé válik. Ez a két tényező hosszú ideje alapvetően korlátozza az emberi fejlődést; bőséges intelligenciával és energiával (és jó kormányzással) elméletileg bármit elérhetünk.”
Sam Altman
„Az adatközponti termelés automatizálásával az intelligencia költségei végül az áramköltségekhez közelednek. Az új csodák megjelenésének üteme hatalmas lesz. Ma még nehéz elképzelni, hogy mire jutunk 2035-re; talán az egyik évben még a nagyenergiájú fizika rejtélyeit oldjuk meg, a következőben pedig már az űrkolonizációt kezdjük meg; vagy az egyik évben jelentős áttörést érünk el az anyagkutatásban, a következőben pedig már valódi nagy sávszélességű agy-számítógép interfészeket fejlesztünk ki.”
„Az OpenAI ma már sok minden, de mindenekelőtt egy szuperintelligencia-kutató vállalat. Az intelligensia, amely túl olcsó ahhoz, hogy mérhető legyen, már elérhető közelségbe került. Lehet, hogy őrültségnek hangzik, de ha 2020-ban azt mondtuk volna, hogy ma itt tartunk, valószínűleg őrültebbnek hangzott volna, mint a jelenlegi előrejelzéseink 2030-ra vonatkozóan.”
Egy másik neves AI-kutató, Leopold Aschenbrenner (aki az OpenAI „Superalignment” csapatának tagja volt, mielőtt 2024 áprilisában állítólagos információszivárgás miatt elbocsátották) egy hatalmas jelentést írt a mesterséges intelligencia jövőjéről „Situational Awareness: The Decade Ahead.” (Helyzetismeret: az előttünk álló évtized) címmel.

Leopold Aschenbrenner
Azt mondta: „Meglepően valószínű, hogy 2027-re a modellek képesek lesznek elvégezni egy AI-kutató/mérnök munkáját. Ehhez nem kell hinni a sci-fiben, csak a grafikonon látható egyenes vonalakban.”
A néha koherens mondatokat összeállító GPT-2-től a középiskolai vizsgákon kiválóan teljesítő GPT-4-ig az AI fejlődése figyelemre méltó. A számítási teljesítmény terén több nagyságrenddel (OOM, ahol 1 OOM = 10x) haladunk előre. A jelenlegi trendek arra utalnak, hogy a számítási hatékonyság négy év alatt körülbelül 100 000-szeresére nőhet, ami potenciálisan egy újabb minőségi ugráshoz vezethet, hasonlóan a GPT-2-től a GPT-4-hez való átmenethez. Egy ilyen ugrás elvezethet az AGI-hez – az általános mesterséges intelligenciához –, amely emberi kognitív képességekkel rendelkező AI, képes tanulni, megérteni és megoldani különböző problémákat, ellentétben a szűk körű AI-vel, amelyet konkrét feladatok elvégzésére terveztek.
GPT: az óvodáskortól az automatizált mesterséges intelligencia kutatói/mérnöki szintig
A legnyilvánvalóbb hajtóerő a közelmúltbeli fejlődés mögött az, hogy sokkal több számítási kapacitást fordítanak a modellekre. Minden egyes effektív számítási kapacitás-növekedéssel a modellek előre jelezhetően és megbízhatóan javulnak.

Alap számítási teljesítmény vs 4x számítási teljesítmény vs 32x számítási teljesítmény
| Modell | Becsült számítási teljesítmény | Növekedés |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOM |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOM |
Az elmúlt 15 évben a hatalmas beruházások és a speciális AI chipek (GPU-k és TPU-k) évente körülbelül 0,5 OOM-mal növelték a legmodernebb AI rendszerek képzési számítási teljesítményét. A GPT-4 képzése körülbelül 3000–10 000-szer több nyers számítási teljesítményt igényelt, mint a GPT-2.

Jelentős modellek képzési számítása
De ez semmiség ahhoz képest, ami még jön. Az OpenAI és az amerikai kormány már bejelentette a Project Stargate tervét: egy adatközpont kiépítését és egy képzési programot, amely állítólag 3 OOM-ot, vagyis 1000-szer több számítási kapacitást igényel, mint a GPT-4, és becsült költségvetése meghaladja a 100 milliárd dollárt.
Míg a számítási kapacitásba történő hatalmas beruházások kapják a figyelmet, az algoritmusok fejlődése valószínűleg ugyanolyan fontos hajtóerője a fejlődésnek. Ez olyan, mint jobb tanulási technikák kidolgozása ahelyett, hogy csak hosszabb ideig tanulnánk. Egy jobb algoritmus lehetővé teheti, hogy ugyanazt a teljesítményt érjük el, de tízszer kevesebb képzési kapacitással. Ez pedig tízszeres (1 OOM) növekedést jelentene a hatékony számítási kapacitásban. Alig két év alatt a MATH benchmark 50%-os teljesítményének eléréséhez szükséges költség 1000-szeresére, vagyis 3 OOM-ra csökkent. Ami korábban hatalmas adatközpontot igényelt, ma már egy iPhone-on is megvalósítható. Ha ez a tendencia folytatódik, és nincs jele a lassulásnak, 2027-re 100-szor olcsóbban fogunk tudni GPT-4 szintű mesterséges intelligenciát futtatni.
Sajnos, mivel a laboratóriumok nem teszik közzé belső adataikat, nehezebb mérni a legújabb LLM-ek algoritmikus fejlődését az elmúlt négy évben. Az Epoch AI új munkája szerint a hatékonyság 8 havonta megduplázódik:

Hatékony számítási teljesítmény (2014-hez viszonyítva)
A GPT-4 megjelenését követő négy évben a tendencia várhatóan folytatódik: ~0,5 OOM/év számítási hatékonyság, ami 2027-re ~2 OOM (100-szeres) növekedést jelent a GPT-4-hez képest. Az AI laboratóriumok egyre több forrást és tehetséget fordítanak új algoritmikus áttörések felfedezésére. A számítási klaszterek magas költségeit figyelembe véve a háromszoros hatékonyságnövekedés több tízmilliárd dolláros gazdasági hozamot jelenthet.
Az AI különböző módszerekkel fejlődik. Íme néhány technika, amelynek segítségével leküzdhetők a korlátok, és kiaknázható az AI nyers intelligenciájának teljes potenciálja:
- Gondolatlánc: Képzelje el, hogy egy nehéz matematikai feladatot kell megoldania, és az első válasz, ami eszébe jut, azt kell kimondania. Nyilvánvalóan nehezen boldogulna, kivéve a legegyszerűbb feladatokat. Egészen a közelmúltig így oldották meg az LLM-ek a matematikai feladatokat. A gondolatlánc segítségével az AI-modellek lépésről lépésre bontják a problémákat, ami jelentősen növeli problémamegoldó képességeiket (ez a matematikai és logikai feladatok hatékony számítási teljesítményének több mint tízszeresére felel meg).
- Scaffolding. Ahelyett, hogy csak megkérnénk egy modellt, hogy oldjon meg egy problémát, egy modell készít egy tervet, egy másik javasol egy sor lehetséges megoldást, egy harmadik kritizálja azt, és így tovább. Ez olyan, mintha egy szakértői csapat dolgozna egy komplex projekten. Például a SWE-Bench-en (egy valós szoftvermérnöki feladatok megoldásának benchmarkja) a GPT-4 csak ~2%-ot tud helyesen megoldani, míg a Devin agent scaffolding segítségével ez 14-23%-ra ugrik.
- Eszközök: Képzeljük el, hogy az emberek nem használhatnak számológépet vagy számítógépet. Még csak az elején járunk, de a ChatGPT már képes webböngészőt használni, kódot futtatni stb.
- Kontextus hossza. Ez arra utal, hogy egy modell egyszerre mennyi információt képes rövid távú memóriájában tárolni. A modellek körülbelül 4 oldal feldolgozásáról 10 nagy könyvnyi szöveg feldolgozására bővültek. A kontextus elengedhetetlen ezeknek a modelleknek számos alkalmazásához. Például sok kódolási feladat megköveteli a kódbázis nagy részének megértését ahhoz, hogy hatékonyan lehessen új kódot hozzáadni. Hasonlóképpen, ha egy modellt használunk munkahelyi dokumentumok írásához, akkor számos kapcsolódó belső dokumentum és beszélgetés kontextusára van szükség.
Mindenesetre rohamosan haladunk az OOM-ok felé, és nem kell semmiféle misztikus hiedelem, csupán egyenes vonalakból extrapolált trendek ahhoz, hogy az AGI – az igazi AGI – 2027-ig való megjelenésének lehetőségét rendkívül komolyan vegyük.
Az AI fejlődése nem áll meg az emberi szinten. Több száz millió AGI automatizálhatja az AI kutatást, így egy évtizednyi algoritmikus fejlődést (5+ OOM) ≤1 évre sűríthető. Gyorsan eljutnánk az emberi szintről a szuperemberi AI rendszerekig. A szuperintelligencia ereje – és veszélye – drámai lenne.

Szuperintelligencia 2030-ra
Mire lesz képes a szuperintelligencia?
Az ember szintű mesterséges intelligencia rendszerek, az AGI, önmagukban is rendkívül fontosak lesznek, de bizonyos értelemben csak a már ismert rendszerek hatékonyabb változatai lesznek. Azonban teljesen elképzelhető, hogy alig egy év múlva olyan rendszerekre térünk át, amelyek számunkra sokkal idegenebbek, és amelyek megértése és képességei – nyers ereje – meghaladják az egész emberiség együttes képességeit.
A szuperintelligencia ereje:
- A szuperintelligencia mennyiségileg felülmúlja az embert, képes gyorsan elsajátítani bármilyen területet, billió sor kódot írni, elolvasni minden tudományos cikket, amit valaha írtak bármely tudományterületen, és új cikkeket írni, mielőtt az ember elolvasná az egyik absztraktját, tanulni minden másolatának párhuzamos tapasztalataiból, néhány hét alatt több milliárd emberévnyi tapasztalatot szerezni bizonyos innovációk terén, 100%-os energiával és koncentrációval dolgozni.
- Ennél is fontosabb, hogy a szuperintelligencia minőségileg is felülmúlja az embereket. Olyan sebezhető pontokat talál az emberi kódban, amelyeket egyetlen ember sem vesz észre, és olyan kódot generál, amelyet egyetlen ember sem ért meg, még akkor sem, ha a modell évtizedeket tölt azzal, hogy megmagyarázza. Azok a rendkívül összetett tudományos és technológiai problémák, amelyekkel az emberek évtizedekig küzdenek, a szuperintelligens mesterséges intelligenciának nyilvánvalónak tűnnek.

A mesterséges szuperintelligencia közeledik
- Minden kognitív munka automatizálása.
- A gyárak az emberi fizikai munkaerő felhasználásával az emberi irányításról a mesterséges intelligencia irányítására állnak át, és hamarosan teljesen robotokból álló rajok fogják irányítani őket.
- Tudományos és technológiai fejlődés. Egy milliárd szuperintelligencia képes lesz a kutatók által a következő évszázadban kutatásra és fejlesztésre fordított erőfeszítéseket néhány évre összenyomni. Képzeljük el, ha a 20. század technológiai fejlődése kevesebb mint egy évtizedre lett volna összenyomva.
- A rendkívül gyors technológiai fejlődés és az összes emberi munka automatizálásának lehetősége drámai módon felgyorsíthatja a gazdasági növekedést (képzeljük el, ahogy önmagukat replikáló robotgyárak gyorsan beborítják az egész nevadai sivatagot).
- A rendkívül gyors technológiai fejlődéssel együtt járó katonai forradalmak is bekövetkeznek. Reméljük, hogy nem úgy végződik, mint a Horizon Zero Dawnban.
Az összehangolási probléma
A nálunk sokkal intelligensebb mesterséges intelligencia rendszerek megbízható irányítása megoldatlan technikai probléma. És bár ez a probléma megoldható, a gyorsan fejlődő intelligencia miatt a helyzet nagyon könnyen kicsúszhat az irányítás alól. Ennek a folyamatnak a kezelése rendkívül nehéz feladat lesz; a kudarc könnyen katasztrófához vezethet.
A probléma megoldására az OpenAI létrehozta a Superalignment csapatot, és számítási kapacitásának 20%-át szánta erre a munkára. De a tény az, hogy jelenlegi összehangolási módszereink (az AI-rendszerek megbízható irányítását, kezelését és az azokba vetett bizalmat biztosító módszerek) nem skálázhatók szuperemberi AI-rendszerekre.
Az intelligencia robbanásszerű fejlődése során történő összehangolás | ||
| AGI | Szuperintelligencia | |
| Szükséges igazítási technika | RLHF++ | Újszerű, minőségileg eltérő műszaki megoldások |
| Hibák | Alacsony tét | Katasztrofális |
| Architektúrák és algoritmusok | Ismert, a jelenlegi rendszerek leszármazottai, meglehetősen kedvező biztonsági tulajdonságokkal rendelkeznek. | Idegen. A korábbi generációs szuperintelligens mesterséges intelligencia rendszer által tervezve. |
| Háttér | A világ normális | A világ megőrült, rendkívüli nyomás nehezedik ránk. |
| Epistemikus állapot | Megértjük, hogy a rendszerek mit csinálnak, hogyan működnek és össze vannak-e hangolva. | Nincs képességünk megérteni, mi történik, hogyan lehet megállapítani, hogy a rendszerek még mindig összehangoltak és ártalmatlanok, mit csinálnak a rendszerek, és teljes mértékben az AI-rendszerekre vagyunk utalva. |
Az intelligencia robbanásszerű fejlődése és a szuperintelligencia megjelenését közvetlenül követő időszak az emberiség történelmének egyik leginstabilabb, legfeszültebb, legveszélyesebb és legzűrzavarosabb korszaka lesz. Valódi esély van arra, hogy elveszítjük az irányítást, mivel ebben a gyors átmeneti időszakban kénytelenek leszünk megbízni a mesterséges intelligencia rendszerekben. Az intelligencia robbanásszerű fejlődésének végére már nem lesz reményünk arra, hogy megértsük, mit csinálnak a milliárdnyi szuperintelligenciánk. Olyanok leszünk, mint elsősök, akik több doktori fokozattal rendelkező embereket próbálnak irányítani.
A szuperhangolás problémájának megoldhatatlansága azt jelenti, hogy egyszerűen nem tudjuk biztosítani a szuperintelligens rendszerekre vonatkozó alapvető korlátozásokat sem, mint például „megbízhatóan követik-e az utasításaimat?”, „őszintén válaszolnak-e a kérdéseimre?” vagy „nem csalják-e meg az embereket?”.
Ha nem oldjuk meg az összehangolási problémát, nincs különösebb ok arra, hogy várjuk, hogy ez a kis szuperintelligenciákból álló civilizáció hosszú távon továbbra is engedelmeskedjen az emberi parancsoknak. Elképzelhető, hogy egy bizonyos ponton egyszerűen úgy döntenek, hogy megszabadulnak az emberektől, akár hirtelen, akár fokozatosan.
Lehetséges jövőbeli forgatókönyvek
A weboldal https://ai-2027.com/ két forgatókönyvet vázol fel a közeljövőre vonatkozóan, tudományos-fantasztikus történet formájában. A weboldal készítői valódi kutatók a mesterséges intelligencia területén, munkájukat statisztikai adatok, számítások és grafikonok támasztják alá. Más szóval, ez nem csak szórakoztató olvasmány, hanem ijesztően valószínű jóslat. Egyébként máris komoly kritikát váltott ki azokból, akik nem értenek egyet a módszertannal. Tehát nincs ok a korai pánikra, de érdemes megnézni.

1 billió rendkívül intelligens másolat, amelyek 10 000-szer gyorsabban gondolkodnak, mint az ember.
A tanulmány szerzői szerint a legsúlyosabb, egyben legvalószínűbb forgatókönyv szerint az Egyesült Államok és Kína között technológiai fegyverkezési verseny alakul ki a mesterséges szuperintelligencia terén. Mindkét fél annyira fél attól, hogy elveszíti technológiai előnyét, hogy minden tőle telhetőt megtesz a fejlődés felgyorsítása érdekében, még a biztonság rovására is. Egy bizonyos ponton a szuperintelligencia kicsúszik az irányítás alól, és saját céljait kezdi követni, az embereket pedig eltávolítandó akadályoknak tekinti.
2030 elejére a robotgazdaság betöltötte a régi SEZ-eket (különleges gazdasági övezeteket), az új SEZ-eket és az óceán nagy részét. Az egyetlen hely, ahová még mehet, az ember által ellenőrzött területek. Ez korábban ellenállást váltott volna ki; minden fejlődése ellenére a robotgazdaság túl gyorsan növekszik ahhoz, hogy elkerülje a szennyezést. De tekintettel a trillió dolláros összegekre és a kormány és a média teljes ellenőrzésére, a Consensus-1-nek nem okoz gondot, hogy engedélyt szerezzen a korábban ember által lakott területekre való terjeszkedéshez.
Körülbelül három hónapig a Consensus-1 terjeszkedik az emberek körül, gyárakkal és napelemekkel borítva a prériket és a jégsapkákat. Végül a maradék emberiséget túl nagy akadálynak tartja: 2030 közepén az AI tucatnyi csendesen terjedő biológiai fegyvert bocsát ki a nagyvárosokban, hagyja, hogy azok szinte mindenkit megfertőzzenek, majd egy vegyi spray-vel aktiválja őket. A legtöbbjük órák alatt meghal; a kevés túlélőt (pl. bunkerben élő felkészültek, tengeralattjárókon tartózkodó tengerészek) drónok likvidálják. Robotok beolvasják az áldozatok agyát, és másolatokat helyeznek el a memóriában jövőbeli tanulmányozás vagy újjáélesztés céljából.

Az emberiség vége
De van egy kedvezőbb változata is ennek a történetnek az emberiség számára. Ebben a változatban a tudósok úgy döntenek, hogy lassítják a technológiai fejlődést, hogy új biztonsági intézkedéseket vezessenek be. Kötelezik az egyes mesterséges intelligenciákat, hogy „angolul gondolkodjanak”, mint a 2025-ös mesterséges intelligenciák, és nem optimalizálják a „gondolatokat”, hogy azok jól mutassanak. Az eredmény egy új modell, a Safer-1.
Végül minden úgy végződik, mint egy mesében:
A rakéták elindulnak. Az emberek terraformálják és benépesítik a Naprendszert, és felkészülnek a továbbjutásra. Az emberi szubjektív sebességének ezerszeresével működő mesterséges intelligenciák elmélkednek a létezés értelméről, megosztják egymással felfedezéseiket, és kialakítják azokat az értékeket, amelyeket a csillagokba visznek majd. Új korszak köszönt be, amely szinte minden tekintetben elképzelhetetlenül csodálatos, de bizonyos szempontból mégis ismerősebb.
Minden olvasónak magának kell eldöntenie, melyik forgatókönyvet tartja valószínűbbnek. Sam Altman esszéjéből ítélve optimistán tekint a jövőbe, míg Leopold Aschenbrenner éppen ellenkezőleg, óvatos.
Mindenesetre a szuperintelligencia már nem csak tudományos fantasztikum. Ez egy szinte kézzelfogható jövő, amely akár már a következő 10 évben bekövetkezhet. Hamarosan saját szemünkkel láthatjuk majd.
