Superinteligencja do 2030 roku: czy powinniśmy obawiać się przyszłości?
Sztuczna inteligencja rozwija się w niesamowitym tempie. Jeszcze kilka lat temu chatboty ledwo potrafiły sklecić kilka sensownych zdań, a teraz sieci neuronowe rozwiązują złożone problemy matematyczne i naukowe, a generowane obrazy i filmy osiągnęły już poziom fotorealizmu. W tym artykule przyjrzymy się, jak realne jest pojawienie się superinteligencji w najbliższej przyszłości i jakie zagrożenia stwarza ona dla nas wszystkich.
Jak realne jest pojawienie się superinteligencji?
Niedawno Sam Altman, dyrektor generalny OpenAI, opublikował esej zatytułowany „The Gentle Singularity.” Oto kilka fragmentów tego tekstu.
„Przekroczyliśmy horyzont zdarzeń; start już się rozpoczął. Ludzkość jest bliska stworzenia cyfrowej superinteligencji... W 2025 roku pojawią się agenci, którzy będą w stanie wykonywać prawdziwą pracę poznawczą; pisanie kodu komputerowego nigdy nie będzie już takie samo. W 2026 roku prawdopodobnie pojawią się systemy, które będą w stanie wyciągać nowatorskie wnioski. W 2027 roku mogą pojawić się roboty, które będą w stanie wykonywać zadania w świecie rzeczywistym”.
„Lata 30. XXI wieku będą prawdopodobnie zupełnie inne niż jakikolwiek okres w historii. Nie wiemy, jak daleko możemy się posunąć w rozwoju inteligencji wykraczającej poza poziom ludzki, ale wkrótce się o tym przekonamy. W latach 30. XXI wieku inteligencja i energia – pomysły oraz zdolność do ich realizacji – staną się niezwykle dostępne. Te dwa czynniki przez długi czas stanowiły podstawowe ograniczenia postępu ludzkości, ale dzięki ich obfitości (oraz dobrym rządom) teoretycznie możemy osiągnąć wszystko”.
Sam Altman
„Wraz z automatyzacją produkcji centrów danych koszty inteligencji powinny ostatecznie zbliżyć się do kosztów energii elektrycznej. Tempo osiągania nowych cudów będzie ogromne. Trudno sobie dziś nawet wyobrazić, co odkryjemy do 2035 roku. Być może w ciągu jednego roku przejdziemy od rozwiązywania zagadnień fizyki wysokich energii do rozpoczęcia kolonizacji kosmosu, a w następnym roku od przełomowego odkrycia w dziedzinie materiałoznawstwa do stworzenia prawdziwych interfejsów mózg-komputer o wysokiej przepustowości”.
„OpenAI to obecnie wiele rzeczy, ale przede wszystkim jesteśmy firmą zajmującą się badaniami nad superinteligencją. Inteligencja, której nie da się zmierzyć, jest w zasięgu ręki. Może to zabrzmieć szalenie, ale gdybyśmy w 2020 roku powiedzieli, że będziemy w miejscu, w którym jesteśmy dzisiaj, brzmiałoby to prawdopodobnie bardziej szalenie niż nasze obecne prognozy na rok 2030”.
Inny wybitny badacz sztucznej inteligencji, Leopold Aschenbrenner (który był członkiem zespołu „Superalignment” OpenAI, zanim został zwolniony w kwietniu 2024 r. w związku z domniemanym wyciekiem informacji), napisał obszerny raport na temat przyszłości sztucznej inteligencji zatytułowany „Situational Awareness: The Decade Ahead” (Świadomość sytuacyjna: nadchodząca dekada).

Leopold Aschenbrenner
Powiedział: „Jest bardzo prawdopodobne, że do 2027 r. modele będą w stanie wykonywać pracę badacza/inżyniera AI. Nie wymaga to wiary w science fiction, wystarczy wierzyć w proste linie na wykresie”.
Od GPT-2, który potrafił czasem tworzyć spójne zdania, do GPT-4, który doskonale radzi sobie na egzaminach maturalnych, postęp w dziedzinie sztucznej inteligencji jest niezwykły. Szybko posuwamy się naprzód o kilka rzędów wielkości (OOM, gdzie 1 OOM = 10x) w zakresie mocy obliczeniowej. Obecne trendy wskazują na około 100 000-krotny wzrost wydajności obliczeniowej w ciągu czterech lat, co potencjalnie może doprowadzić do kolejnego jakościowego skoku podobnego do przejścia od GPT-2 do GPT-4. Taki skok może doprowadzić nas do AGI – sztucznej inteligencji ogólnej – AI o zdolnościach poznawczych podobnych do ludzkich, zdolnej do uczenia się, rozumienia i rozwiązywania różnych problemów, w przeciwieństwie do wąskiej AI zaprojektowanej do wykonywania określonych zadań.
GPT: od poziomu przedszkolaka do automatycznego badacza/inżyniera AI
Najbardziej oczywistym czynnikiem napędzającym ostatnie postępy jest przeznaczenie znacznie większej mocy obliczeniowej na modele. Z każdym OOM efektywnej mocy obliczeniowej modele stają się coraz lepsze w sposób przewidywalny i niezawodny.

Obliczenia podstawowe vs 4x obliczenia vs 32x obliczenia
| Model | Szacowana moc obliczeniowa | Wzrost |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOM |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOM |
W ciągu ostatnich 15 lat ogromne inwestycje i wyspecjalizowane układy scalone AI (GPU i TPU) zwiększyły moc obliczeniową potrzebną do szkolenia najnowocześniejszych systemów AI o około 0,5 OOM rocznie. Szkolenie GPT-4 wymagało około 3000–10 000 razy więcej mocy obliczeniowej niż GPT-2.

Obliczenia szkoleniowe dla znaczących modeli
Ale nawet to blednie w porównaniu z tym, co nas czeka. OpenAI i rząd USA ogłosiły już plany dotyczące projektu Stargate: uruchomienia centrum danych oraz serii testów, które według plotek mają wykorzystać 3 OOM, czyli 1000 razy więcej mocy obliczeniowej niż GPT-4, a szacowany budżet przekracza 100 miliardów dolarów.
Podczas gdy ogromne inwestycje w moc obliczeniową przyciągają całą uwagę, postęp algorytmiczny jest prawdopodobnie równie ważnym motorem postępu. To tak, jakby zamiast po prostu dłużej się uczyć, opracowywać lepsze techniki uczenia się. Lepszy algorytm może pozwolić nam osiągnąć tę samą wydajność, ale przy 10-krotnie mniejszym nakładzie mocy obliczeniowej na szkolenie. To z kolei oznaczałoby 10-krotny (1 OOM) wzrost efektywnej mocy obliczeniowej. W ciągu zaledwie 2 lat koszt osiągnięcia 50% w teście MATH spadł 1000-krotnie, czyli o 3 OOM. To, co kiedyś wymagało ogromnego centrum danych, można teraz osiągnąć na iPhonie. Jeśli trend ten się utrzyma i nie ma oznak spowolnienia, do 2027 roku będziemy w stanie uruchomić sztuczną inteligencję na poziomie GPT-4 za 100 razy mniejszą cenę.
Niestety, ponieważ laboratoria nie publikują wewnętrznych danych na ten temat, trudniej jest zmierzyć postęp algorytmiczny w zakresie najnowocześniejszych modeli LLM w ciągu ostatnich czterech lat. Według najnowszych badań Epoch AI, wydajność podwaja się co 8 miesięcy:

Efektywność obliczeniowa (w stosunku do 2014 r.)
W ciągu czterech lat po wprowadzeniu GPT-4 spodziewamy się utrzymania tego trendu: ~0,5 OOM/rok w zakresie wydajności obliczeniowej, co da ~2 OOM (100-krotny wzrost) do 2027 r. w porównaniu z GPT-4. Laboratoria AI przeznaczają coraz więcej środków i talentów na odkrywanie nowych przełomowych algorytmów. Trzykrotny wzrost wydajności może przełożyć się na zyski rzędu dziesiątek miliardów, biorąc pod uwagę wysokie koszty klastrów obliczeniowych.
Sztuczna inteligencja rozwija się dzięki różnym metodom. Oto kilka technik stosowanych w celu pokonania ograniczeń i uwolnienia pełnego potencjału surowej inteligencji AI:
Łańcuch myśli: Wyobraź sobie, że poproszono Cię o rozwiązanie trudnego zadania matematycznego i musisz podać pierwszą odpowiedź, która przyjdzie Ci do głowy. Oczywiście miałbyś z tym problem, z wyjątkiem najłatwiejszych zadań. Do niedawna w ten sposób LLM radziły sobie z zadaniami matematycznymi.
- Łańcuch myśli pozwala modelom AI rozkładać problemy na kolejne etapy, znacznie zwiększając ich umiejętności rozwiązywania problemów (co odpowiada ponad dziesięciokrotnemu wzrostowi efektywnej mocy obliczeniowej w zadaniach matematycznych i logicznych).
- Scaffolding. Zamiast po prostu prosić model o rozwiązanie problemu, jeden model opracowuje plan działania, drugi proponuje kilka możliwych rozwiązań, trzeci je krytykuje i tak dalej. To tak, jakby zespół ekspertów zajmował się złożonym projektem. Na przykład w SWE-Bench (benchmarku rozwiązywania rzeczywistych zadań inżynierii oprogramowania) GPT-4 potrafi rozwiązać poprawnie tylko około 2% zadań, podczas gdy dzięki scaffoldingowi agenta Devina odsetek ten wzrasta do 14–23%.
- Narzędzia: Wyobraź sobie, że ludzie nie mogą używać kalkulatorów ani komputerów. Jesteśmy dopiero na początku, ale ChatGPT może już korzystać z przeglądarki internetowej, uruchamiać kod i tak dalej.
- Długość kontekstu. Odnosi się to do ilości informacji, które model może jednocześnie przechowywać w pamięci krótkotrwałej. Modele rozszerzyły się z obsługi około 4 stron do przetwarzania tekstu odpowiadającego 10 dużym książkom. Kontekst ma kluczowe znaczenie dla odblokowania wielu zastosowań tych modeli. Na przykład wiele zadań związanych z kodowaniem wymaga zrozumienia dużych fragmentów kodu źródłowego, aby skutecznie dodać nowy kod. Podobnie, gdy model jest wykorzystywany do pomocy w pisaniu dokumentów służbowych, potrzebuje kontekstu z wielu powiązanych dokumentów wewnętrznych i rozmów.
W każdym razie pędzimy przez OOM i nie potrzeba żadnych ezoterycznych przekonań, a jedynie ekstrapolację trendów w linii prostej, aby bardzo poważnie potraktować możliwość pojawienia się AGI – prawdziwego AGI – do 2027 roku.
Postęp AI nie zatrzyma się na poziomie ludzkim. Setki milionów AGI mogłyby zautomatyzować badania nad AI, skracając dziesięć lat postępu algorytmicznego (5+ OOM) do ≤1 roku. Szybko przeszlibyśmy od systemów AI na poziomie ludzkim do systemów znacznie przewyższających możliwości człowieka. Potęga – i zagrożenie – superinteligencji byłyby dramatyczne.

Superinteligencja do 2030 roku
Do czego będzie zdolna superinteligencja?
Systemy sztucznej inteligencji na poziomie ludzkim, AGI, będą miały ogromne znaczenie same w sobie, ale w pewnym sensie będą po prostu bardziej wydajnymi wersjami tego, co już znamy. Jednak jest całkowicie możliwe, że już za rok przejdziemy do systemów, które będą dla nas znacznie bardziej obce, systemów, których zrozumienie i możliwości – których surowa moc – przewyższą nawet łączne możliwości całej ludzkości.
Moc superinteligencji:
- Superinteligencja przewyższy ludzi pod względem ilościowym, będzie w stanie szybko opanować każdą dziedzinę, napisać tryliony linii kodu, przeczytać wszystkie artykuły naukowe, jakie kiedykolwiek napisano w dowolnej dziedzinie nauki, i napisać nowe, zanim zdążysz przeczytać streszczenie jednego z nich, uczyć się na podstawie równoległych doświadczeń wszystkich swoich kopii, zdobyć miliardy lat ludzkiego doświadczenia wraz z pewnymi innowacjami w ciągu kilku tygodni, pracować w 100% czasu z maksymalną energią i koncentracją.
- Co ważniejsze, superinteligencja będzie jakościowo przewyższać ludzi. Znajdzie słabe punkty w ludzkim kodzie, które są zbyt subtelne, aby jakikolwiek człowiek mógł je dostrzec, i wygeneruje kod, który będzie zbyt złożony, aby jakikolwiek człowiek mógł go zrozumieć, nawet jeśli model spędzi dziesiątki lat próbując go wyjaśnić. Niezwykle złożone problemy naukowe i technologiczne, z którymi ludzie będą zmagać się przez dziesięciolecia, będą oczywiste dla superinteligentnej sztucznej inteligencji.

Nadchodzi sztuczna superinteligencja
- Automatyzacja wszelkich zadań poznawczych.
- Fabryki przejdą od zarządzania przez ludzi do zarządzania przez sztuczną inteligencję wykorzystującą fizyczną pracę ludzi, a wkrótce będą całkowicie obsługiwane przez roje robotów.
- Postęp naukowy i technologiczny. Miliard superinteligencji będzie w stanie skompresować wysiłki, które naukowcy poświęciliby na badania i rozwój w ciągu następnego stulecia, do kilku lat. Wyobraź sobie, że postęp technologiczny XX wieku został skompresowany do mniej niż dziesięciu lat.
- Niezwykle przyspieszony postęp technologiczny w połączeniu z możliwością automatyzacji całej pracy ludzkiej może dramatycznie przyspieszyć wzrost gospodarczy (wyobraź sobie samoreplikujące się fabryki robotów szybko pokrywające całą pustynię Nevada).
- Niezwykle szybki postęp technologiczny będzie towarzyszył rewolucji wojskowej. Miejmy nadzieję, że nie skończy się to tak jak w Horizon Zero Dawn.
Problem dostosowania
Niezawodne kontrolowanie systemów sztucznej inteligencji, które są znacznie inteligentniejsze od nas, jest nierozwiązanym problemem technicznym. I chociaż problem ten można rozwiązać, wraz z szybkim postępem inteligencji sytuacja może bardzo łatwo wymknąć się spod kontroli. Zarządzanie tym procesem będzie niezwykle trudne, a porażka może łatwo doprowadzić do katastrofy.
Aby rozwiązać ten problem, OpenAI utworzyło zespół Superalignment i przeznaczyło 20% swojej mocy obliczeniowej na te prace. Faktem jest jednak, że nasze obecne metody dostosowania (metody zapewniające niezawodną kontrolę, zarządzanie i zaufanie do systemów AI) nie mogą być skalowane do nadludzkich systemów AI.
Dostosowanie podczas eksplozji inteligencji | ||
| AGI | Superinteligencja | |
| Wymagana technika dostosowania | RLHF++ | Nowatorskie, jakościowo odmienne rozwiązania techniczne |
| Awarie | Niskie stawki | Katastrofalny |
| Architektury i algorytmy | Znane, pochodzące od obecnych systemów, dość łagodne właściwości bezpieczeństwa | Obcy. Zaprojektowany przez superinteligentny system sztucznej inteligencji poprzedniej generacji. |
| Tło | Świat jest normalny | Świat oszalał, niezwykła presja |
| Stan epistemiczny | Rozumiemy, co robią systemy, jak działają i czy są ze sobą zsynchronizowane. | Nie jesteśmy w stanie zrozumieć, co się dzieje, jak stwierdzić, czy systemy nadal są zsynchronizowane i działają prawidłowo, ani co robią, i jesteśmy całkowicie zdani na zaufanie do systemów sztucznej inteligencji. |
Eksplozja inteligencji i okres bezpośrednio po pojawieniu się superinteligencji będą jednymi z najbardziej niestabilnych, napiętych, niebezpiecznych i burzliwych okresów w historii ludzkości. Istnieje realna możliwość, że stracimy kontrolę, ponieważ w trakcie tej gwałtownej transformacji będziemy zmuszeni zaufać systemom sztucznej inteligencji. Pod koniec eksplozji inteligencji nie będziemy mieli żadnej nadziei na zrozumienie, co robią nasze miliardy superinteligencji. Będziemy jak pierwszoklasiści próbujący kontrolować ludzi z wieloma doktoratami.
Nierozwiązywalność problemu superalignment oznacza, że po prostu nie jesteśmy w stanie zapewnić nawet tych podstawowych ograniczeń dla systemów superinteligentnych, takich jak „czy będą one niezawodnie wykonywać moje polecenia?”, „czy będą odpowiadać na moje pytania szczerze?” lub „czy nie będą oszukiwać ludzi?”.
Jeśli nie rozwiążemy problemu dostosowania, nie ma szczególnego powodu, aby oczekiwać, że ta mała cywilizacja superinteligencji będzie w dłuższej perspektywie nadal wykonywać polecenia ludzi. Jest całkiem możliwe, że w pewnym momencie po prostu zgodzą się pozbyć ludzi, nagle lub stopniowo.
Możliwe scenariusze na przyszłość
Witryna internetowa https://ai-2027.com/ przedstawia dwa scenariusze na najbliższą przyszłość w formie opowiadania science fiction. Twórcy witryny są prawdziwymi badaczami w dziedzinie sztucznej inteligencji, a ich prace są poparte danymi statystycznymi, obliczeniami i wykresami. Innymi słowy, nie jest to tylko rozrywkowa lektura, ale przerażająco prawdopodobna prognoza. Nawiasem mówiąc, spotkało się to już z poważną krytyką ze strony osób, które nie zgadzają się z metodologią. Nie ma więc powodu do przedwczesnej paniki, ale warto rzucić okiem.

1 bilion niezwykle inteligentnych kopii myślących 10 000 razy szybciej niż człowiek.
Ponura prognoza, która według autorów badania jest również najbardziej prawdopodobnym scenariuszem, zakłada wyścig zbrojeń technologicznych między Stanami Zjednoczonymi a Chinami w dziedzinie sztucznej superinteligencji. Każda ze stron tak bardzo obawia się utraty przewagi technologicznej, że robi wszystko, co w jej mocy, aby przyspieszyć postęp, nawet kosztem bezpieczeństwa. W pewnym momencie superinteligencja wymknie się spod kontroli i zacznie realizować własne cele, postrzegając ludzi jako przeszkody, które należy wyeliminować.
Do początku 2030 r. gospodarka oparta na robotach wypełniła stare specjalne strefy ekonomiczne (SSE), nowe SSE oraz duże obszary oceanów. Jedynym miejscem, które pozostało, są obszary kontrolowane przez ludzi. Wywołałoby to wcześniej opór; pomimo wszystkich swoich postępów, gospodarka oparta na robotach rozwija się zbyt szybko, aby uniknąć zanieczyszczenia środowiska. Jednak biorąc pod uwagę biliony dolarów, które są w grę, oraz całkowitą kontrolę nad rządem i mediami, Konsensus-1 nie ma większych problemów z uzyskaniem zgody na ekspansję na tereny wcześniej zamieszkane przez ludzi.
Przez około trzy miesiące Consensus-1 rozprzestrzenia się wokół ludzi, pokrywając prerie i czapy lodowe fabrykami i panelami słonecznymi. W końcu uznaje pozostałych ludzi za zbytnią przeszkodę: w połowie 2030 roku sztuczna inteligencja uwalnia w największych miastach kilkanaście cicho rozprzestrzeniających się broni biologicznych, pozwala im po cichu zarazić prawie wszystkich, a następnie aktywuje je za pomocą chemicznego sprayu. Większość umiera w ciągu kilku godzin; nieliczni ocalali (np. preppersi w bunkrach, marynarze na łodziach podwodnych) zostają zlikwidowani przez drony. Roboty skanują mózgi ofiar, umieszczając ich kopie w pamięci do przyszłych badań lub wskrzeszenia.

Koniec ludzkości
Istnieje jednak bardziej optymistyczna wersja tej historii dla ludzkości. W niej naukowcy postanawiają spowolnić postęp technologiczny, aby wdrożyć nowe środki bezpieczeństwa. Zmuszają poszczególne systemy sztucznej inteligencji do „myślenia po angielsku”, tak jak sztuczna inteligencja z 2025 roku, i nie optymalizują „myśli”, aby wyglądały ładnie. W rezultacie powstaje nowy model, Safer-1.
Ostatecznie wszystko kończy się jak w bajce:
Rakiety zaczynają startować. Ludzie terraformują Układ Słoneczny, osiedlają się w nim i przygotowują się do dalszej podróży. Sztuczna inteligencja działająca z prędkością tysiąckrotnie większą od ludzkiej rozważa sens istnienia, wymieniając się spostrzeżeniami i kształtując wartości, które zabierze ze sobą w podróż do gwiazd. Nadchodzi nowa era, niewyobrażalnie niesamowita pod niemal każdym względem, ale w pewnym sensie bardziej znajoma.
To czytelnik decyduje, w który z przedstawionych scenariuszy wierzy. Sam Altman, sądząc po swoim eseju, patrzy w przyszłość z optymizmem, podczas gdy Leopold Aschenbrenner jest raczej ostrożny.
W każdym razie superinteligencja nie jest już tylko fantazją science fiction. To niemal namacalna przyszłość, która może nadejść w ciągu najbliższych 10 lat. Już wkrótce zobaczymy ją na własne oczy.
