Ana sayfaya geri dön

2030'da Süper Zeka: Gelecekten korkmalı mıyız?

Yapay zeka inanılmaz bir hızla gelişiyor. Birkaç yıl önce, sohbet robotları birkaç anlamlı cümle bile kurmakta zorlanırken, bugün sinir ağları karmaşık matematik ve bilimsel problemleri çözüyor ve üretilen görüntüler ve videolar fotogerçekçilik düzeyine ulaştı. Bu makalede, yakın gelecekte süper zekanın ortaya çıkmasının ne kadar gerçekçi olduğunu ve bunun hepimiz için ne gibi tehditler oluşturduğunu inceleyeceğiz.

Süper zekanın ortaya çıkması ne kadar gerçekçi?

Kısa bir süre önce, OpenAI'nin CEO'su Sam Altman, “Nazik Tekillik” başlıklı bir makale yayınladı. İşte makaleden bazı alıntılar.

“Olay ufkunu geçtik; kalkış başladı. İnsanlık dijital süper zeka oluşturmaya çok yakın... 2025 yılında gerçek bilişsel işler yapabilen ajanlar ortaya çıktı; bilgisayar kodu yazmak artık eskisi gibi olmayacak. 2026 yılında yeni içgörüler elde edebilen sistemler ortaya çıkacak. 2027 yılında ise gerçek dünyada görevleri yerine getirebilen robotlar ortaya çıkabilir.”

“2030'lar, daha önceki dönemlerden çok farklı olacak gibi görünüyor. İnsan zekasının ötesine ne kadar ilerleyebileceğimizi bilmiyoruz, ancak bunu yakında öğreneceğiz. 2030'larda zeka ve enerji, yani fikirler ve fikirleri hayata geçirme yeteneği, son derece bol hale gelecek. Bu ikisi uzun süredir insanlığın ilerlemesinin temel sınırlayıcıları olmuştur; bol zeka ve enerji (ve iyi yönetişim) ile teorik olarak her şeye sahip olabiliriz."

Sam Altman

Sam Altman

“Veri merkezi üretimi otomatikleştikçe, zeka maliyetleri sonunda elektrik maliyetine yakın bir seviyeye ulaşacaktır. Yeni mucizelerin gerçekleşme hızı muazzam olacaktır. Bugün, 2035 yılına kadar neler keşfedeceğimizi hayal etmek bile zor; belki bir yıl yüksek enerji fiziğini çözdükten sonra ertesi yıl uzay kolonizasyonuna başlayacağız; ya da bir yıl malzeme biliminde büyük bir atılım yaptıktan sonra ertesi yıl gerçek yüksek bant genişliğine sahip beyin-bilgisayar arayüzlerine ulaşacağız.”

OpenAI şu anda birçok şey, ancak her şeyden önce biz bir süper zeka araştırma şirketiyiz. Ölçülemeyecek kadar ucuz zeka artık ulaşılabilir bir hedef. Bu kulağa çılgınca gelebilir, ancak 2020 yılında size bugün bulunduğumuz yerde olacağımızı söyleseydik, muhtemelen şu anki tahminlerimizden daha çılgınca gelirdi.out 2030.”

Bir başka önde gelen yapay zeka araştırmacısı olan Leopold Aschenbrenner (2024 yılının Nisan ayında bilgi sızdırdığı iddiasıyla OpenAI'nin “Superalignment” ekibinden kovulmadan önce), yapay zekanın geleceği hakkında “Durumsal Farkındalık: Önümüzdeki On Yıl” başlıklı kapsamlı bir rapor yazdı.

Leopold Aschenbrenner

Leopold Aschenbrenner

O şöyle dedi: “2027 yılına kadar modellerin bir AI araştırmacısı/mühendisinin işini yapabileceği son derece olasıdır. Bunun için bilim kurguya inanmak gerekmez; sadece bir grafikteki düz çizgilere inanmak yeterlidir.”

Bazen tutarlı cümleler oluşturabilen GPT-2'den lise sınavlarında üstün başarı gösteren GPT-4'e kadar, AI'da kaydedilen ilerleme dikkat çekicidir. Bilgisayar gücü konusunda birkaç kat (OOM, 1 OOM = 10x) hızla ilerliyoruz. Mevcut eğilimler, dört yıl içinde hesaplama verimliliğinde yaklaşık 100.000 kat artışa işaret ediyor ve bu da GPT-2'den GPT-4'e geçişe benzer bir niteliksel sıçramaya yol açabilir. Böyle bir sıçrama, bizi AGI'ye, yani yapay genel zekaya götürebilir. AGI, belirli görevleri yerine getirmek için tasarlanmış dar AI'nın aksine, öğrenme, anlama ve çeşitli problemleri çözme yeteneğine sahip, insan benzeri bilişsel yeteneklere sahip AI'dır.Etkili hesaplama için temel ölçek büyütme

GPT: okul öncesi seviyesinden otomatikleştirilmiş yapay zeka araştırmacısı/mühendisine

Son zamanlardaki ilerlemenin en belirgin nedeni, modellere çok daha fazla hesaplama gücü aktarılmasıdır. Etkili hesaplama gücünün her OOM'unda, modeller öngörülebilir ve güvenilir bir şekilde daha iyi hale gelir.

Temel hesaplama vs 4x hesaplama vs 32x hesaplama

Temel hesaplama vs 4x hesaplama vs 32x hesaplama

ModelTahmini hesaplamaBüyüme
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOM
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOM

Son 15 yılda, büyük ölçekli yatırımlar ve özel AI yongaları (GPU ve TPU), en gelişmiş AI sistemlerinin eğitim hesaplama kapasitesini yılda yaklaşık 0,5 OOM artırdı. GPT-4'ün eğitimi, GPT-2'den yaklaşık 3.000 ila 10.000 kat daha fazla ham hesaplama gücü gerektirdi.

Önemli modellerin eğitim hesaplaması

Önemli modellerin eğitim hesaplaması

Ancak bu, gelecekte bizi bekleyenlerle karşılaştırıldığında önemsiz kalıyor. OpenAI ve ABD hükümeti, Project Stargate için planlarını çoktan açıkladı: bir veri merkezi kurulumu ve GPT-4'ten 3 OOM veya 1.000 kat daha fazla işlem gücü kullanacağı söylenen bir eğitim programı. Projenin tahmini bütçesi 100 milyar doları aşıyor.

Hesaplama gücüne yapılan devasa yatırımlar tüm dikkatleri üzerine çekerken, algoritmik ilerleme de muhtemelen aynı derecede önemli bir ilerleme faktörüdür. Bu, sadece daha uzun süre çalışmak yerine daha iyi öğrenme teknikleri geliştirmek gibidir. Daha iyi bir algoritma, aynı performansı 10 kat daha az eğitim hesaplama gücüyle elde etmemizi sağlayabilir. Bu da etkili hesaplama gücünde 10 kat (1 OOM) artış anlamına gelir. Sadece 2 yıl içinde, MATH benchmarkında %50'ye ulaşmanın maliyeti 1.000 kat, yani 3 OOM düştü. Eskiden devasa bir veri merkezi gerektiren bir şey, artık iPhone'unuzda gerçekleştirilebilir. Bu eğilim devam ederse ve yavaşlama belirtisi görülmezse, 2027 yılına kadar GPT-4 seviyesinde bir AI'yı 100 kat daha ucuza çalıştırabileceğiz.

Ne yazık ki, laboratuvarlar bu konuyla ilgili iç verilerini yayınlamadığından, son dört yılda öncü LLM'lerin algoritmik ilerlemesini ölçmek daha zordur. Epoch AI'nın yeni çalışmasına göre, verimlilik her 8 ayda bir iki katına çıkıyor:

Etkili hesaplama (2014'e göre)

Etkili hesaplama (2014'e göre)

GPT-4'ün ardından dört yıl boyunca bu eğilimin devam etmesini bekliyoruz: Hesaplama verimliliğinde ~0,5 OOM/yıl, 2027 yılına kadar GPT-4'e kıyasla ~2 OOM (100 kat) kazanç. AI laboratuvarları, yeni algoritmik atılımlar keşfetmek için giderek daha fazla fon ve yetenek yatırımı yapıyor. Hesaplama kümelerinin yüksek maliyetleri göz önüne alındığında, 3 kat verimlilik artışı, on milyarlarca dolarlık ekonomik getiri anlamına gelebilir.

AI, çeşitli yöntemlerle ilerlemektedir. AI'nın ham zekasının tüm potansiyelini ortaya çıkarmak için sınırlamaların üstesinden gelmek amacıyla kullanılan bazı teknikler şunlardır:

  • Düşünce Zinciri: Zor bir matematik problemini çözmeniz istendiğini ve aklınıza gelen ilk cevabı hemen söylemeniz gerektiğini hayal edin. En kolay problemler dışında, elbette zorlanacaksınız. Yakın zamana kadar, LLM'ler matematik problemlerini bu şekilde çözüyordu. Düşünce Zinciri, AI modellerinin problemleri adım adım parçalara ayırmasına olanak tanıyarak problem çözme becerilerini büyük ölçüde artırır (matematik ve muhakeme görevlerinde etkili hesaplama gücünde 10 kat artışa eşdeğer).
  • İskele. Bir modelden sadece bir problemi çözmesini istemek yerine, bir modelin bir saldırı planı yapmasını, başka bir modelin bir dizi olası çözüm önermesini, başka bir modelin bunu eleştirmesini vb. sağlayın. Bu, bir uzman ekibinin karmaşık bir projeyi ele almasına benzer. Örneğin, SWE-Bench'te (gerçek dünyadaki yazılım mühendisliği görevlerini çözme benchmark'ı), GPT-4 sadece ~%2'sini doğru çözebilirken, Devin'in ajan iskelesi ile bu oran %14-23'e çıkıyor.
  • Araçlar: İnsanların hesap makinesi veya bilgisayar kullanmasına izin verilmediğini düşünün. Henüz başlangıç aşamasındayız, ancak ChatGPT artık bir web tarayıcısı kullanabilir, bazı kodları çalıştırabilir vb.
  • Bağlam uzunluğu. Bu, bir modelin kısa süreli belleğinde aynı anda tutabileceği bilgi miktarını ifade eder. Modeller, yaklaşık 4 sayfa işleyebilme kapasitesinden 10 büyük kitaplık metin işleyebilme kapasitesine kadar genişlemiştir. Bağlam, bu modellerin birçok uygulamasının kilidini açmak için çok önemlidir. Örneğin, birçok kodlama görevi, yeni kodları etkili bir şekilde eklemek için kod tabanının büyük bir bölümünü anlamayı gerektirir. Benzer şekilde, bir modeli işyeri belgesi yazmaya yardımcı olarak kullanırken, çok sayıda ilgili iç belge ve konuşmadan bağlam bilgisi gerekir.

Her halükarda, OOM'leri hızla geçiyoruz ve 2027'ye kadar AGI'nin (gerçek AGI) olasılığını son derece ciddiye almak için ezoterik inançlara gerek yok, sadece düz çizgilerin trend ekstrapolasyonu yeterli.

AI'nın ilerlemesi insan seviyesinde durmayacaktır. Yüz milyonlarca AGI, AI araştırmalarını otomatikleştirerek on yıllık algoritmik ilerlemeyi (5+ OOM) 1 yıla sıkıştırabilir. İnsan seviyesinden çok daha üstün AI sistemlerine hızla geçebiliriz. Süper zekanın gücü ve tehlikesi dramatik olacaktır.

2030'a kadar süper zeka

2030'a kadar süper zeka

Süper zeka neler yapabilecek?

İnsan düzeyinde yapay zeka sistemleri, AGI, kendi başlarına çok önemli olacaklar, ancak bir anlamda bunlar sadece bizim halihazırda bildiğimiz şeylerin daha verimli versiyonları olacaklar. Ancak, sadece bir yıl içinde, bizim için çok daha yabancı olan, anlayış ve yetenekleri, hatta tüm insanlığın toplam yeteneklerini bile aşacak sistemlere geçmemiz tamamen mümkün.

Süper zekanın gücü:

  • Süper zeka, nicelik olarak insanları aşacak, herhangi bir alanı hızla öğrenebilecek, trilyonlarca satır kod yazabilecek, herhangi bir bilim dalında yazılmış tüm bilimsel makaleleri okuyup, siz bunlardan birinin özetini okumadan yenilerini yazabilecek, tüm kopyalarının paralel deneyimlerinden öğrenebilecek, birkaç hafta içinde milyarlarca insan yılının deneyimini ve bazı yenilikleri edinebilecek, %100 enerji ve konsantrasyonla çalışabilecek.
  • Daha da önemlisi, süper zeka insanlardan niteliksel olarak üstün olacaktır. İnsanların fark edemeyeceği kadar ince insan kodundaki zayıflıkları bulacak ve model onu açıklamak için on yıllarını harcasak bile hiçbir insanın anlayamayacağı kadar karmaşık kodlar üretecektir. İnsanların on yıllar boyunca uğraşacağı son derece karmaşık bilimsel ve teknolojik sorunlar, süper zeki yapay zeka için çok basit görünecektir.
Yapay süper zeka tasviri

Yapay süper zeka geliyor

  • Tüm bilişsel işlerin otomasyonu.
  • Fabrikalar, insan yönetimi modelinden insan emeğini kullanan yapay zeka yönetimine geçecek ve yakında tamamen robot orduları tarafından yönetilecek.
  • Bilimsel ve teknolojik ilerleme. Bir milyar süper zeka, araştırma bilimcilerin önümüzdeki yüzyılda araştırma ve geliştirmeye harcayacakları çabayı birkaç yıla sıkıştırabilecek. 20. yüzyılın teknolojik ilerlemesinin on yıldan daha kısa bir süreye sıkıştırıldığını hayal edin.
  • Tüm insan emeğinin otomatikleştirilmesi olasılığıyla birleşen son derece hızlanan teknolojik ilerleme, ekonomik büyümeyi önemli ölçüde hızlandırabilir (Nevada çölünü hızla kaplayan kendini kopyalayan robot fabrikalarını hayal edin).
  • Olağanüstü hızlı teknolojik ilerlemeyle birlikte askeri devrimler de yaşanacaktır. Umarız Horizon Zero Dawn'daki gibi bir sonla karşılaşmayız.

Uyum sorunu

Bizden çok daha akıllı AI sistemlerini güvenilir bir şekilde kontrol etmek, çözülmemiş bir teknik sorundur. Bu sorun çözülebilir olsa da, hızla gelişen zeka ile durum çok kolay bir şekilde kontrolden çıkabilir. Bu süreci yönetmek son derece zor olacak ve başarısızlık kolayca felakete yol açabilir.

Bu sorunu çözmek için OpenAI, Superalignment ekibini kurdu ve bilgi işlem gücünün %20'sini bu çalışmaya ayırdı. Ancak gerçek şu ki, mevcut uyum yöntemlerimiz (AI sistemlerinde güvenilir kontrol, yönetim ve güveni sağlayan yöntemler) süper insan AI sistemlerine ölçeklenemez.

Zeka patlaması sırasında uyum

 AGISüper zeka
Gerekli hizalama tekniğiRLHF++Yeni, niteliksel olarak farklı teknik çözümler
ArızalarDüşük bahisliFelaket
Mimariler ve algoritmalarTanıdık, mevcut sistemlerin torunları, oldukça iyi güvenlik özellikleriÖnceki nesil süper akıllı AI sistemi tarafından tasarlanmıştır.
Arka planDünya normalDünya çıldırıyor, olağanüstü baskılar
Epistemik durumSistemlerin ne yaptığını, nasıl çalıştığını ve birbirleriyle uyumlu olup olmadığını anlayabiliriz.Neler olup bittiğini, sistemlerin hala uyumlu ve zararsız olup olmadığını, sistemlerin ne yaptığını anlamak için hiçbir yeteneğimiz yok ve tamamen AI sistemlerine güvenmek zorundayız.

Zeka patlaması ve süper zekanın ortaya çıkmasından hemen sonraki dönem, insanlık tarihinin en istikrarsız, gergin, tehlikeli ve çalkantılı dönemleri arasında yer alacaktır. Bu hızlı geçiş sürecinde yapay zeka sistemlerine güvenmek zorunda kalacağımız için kontrolü kaybetme ihtimalimiz çok yüksektir. Zeka patlamasının sonunda, milyarlarca süper zekanın ne yaptığını anlamanın hiçbir umudu kalmayacaktır. Birden fazla doktora sahibi insanları kontrol etmeye çalışan birinci sınıf öğrencileri gibi olacağız.

Süper uyum sorununun çözümsüzlüğü, “talimatlarımı güvenilir bir şekilde yerine getirecekler mi?”, “sorularıma dürüstçe cevap verecekler mi?” veya “insanları aldatmayacaklar mı?” gibi süper zeka sistemlerine ilişkin bu temel kısıtlamaları bile sağlayamayacağımız anlamına gelir.

Uyum sorununu çözmezsek, bu küçük süper zeka medeniyetinin uzun vadede insan emirlerine itaat etmeye devam edeceğini beklemek için özel bir neden yoktur. Bir noktada, ani veya kademeli olarak insanları ortadan kaldırmaya karar vermeleri oldukça olasıdır.

Gelecek için olası senaryolar

https://ai-2027.com/ web sitesi, yakın gelecek için bilim kurgu hikayesi şeklinde iki senaryo sunuyor. Web sitesinin yaratıcıları, yapay zeka alanında gerçek araştırmacılar ve çalışmaları istatistiksel veriler, hesaplamalar ve grafiklerle destekleniyor. Başka bir deyişle, bu sadece eğlenceli bir okuma değil, aynı zamanda korkutucu derecede olası bir tahmin. Bu arada, bu senaryo, metodolojiye katılmayanlar tarafından ciddi eleştiriler aldı. Bu yüzden paniğe kapılmaya gerek yok, ancak bir göz atmak ilginç olabilir.

Ocak 2036 tahmini

1 trilyon adet, insan hızının 10.000 katında düşünen, son derece süper zeki kopya

Çalışmanın yazarlarına göre en olası senaryo olan bu karanlık tahmin, ABD ve Çin arasında yapay süper zeka için bir teknolojik silahlanma yarışını içeriyor. Her iki taraf da teknolojik üstünlüğünü kaybetmekten o kadar korkuyor ki, güvenliği bile göz ardı ederek ilerlemeyi hızlandırmak için elinden gelen her şeyi yapıyor. Bir noktada, süper zeka kontrolden çıkacak ve insanları ortadan kaldırılması gereken engeller olarak görerek kendi hedeflerini takip etmeye başlayacak.

2030'un başlarında, robot ekonomisi eski SEZ'leri (Özel Ekonomik Bölgeler), yeni SEZ'leri ve okyanusun büyük bir bölümünü doldurmuştur. Geriye kalan tek yer, insan kontrolündeki alanlardır. Bu durum daha önce direnişe yol açabilirdi; tüm ilerlemelerine rağmen, robot ekonomisi kirliliği önleyemeyecek kadar hızlı büyüyor. Ancak, trilyonlarca dolarlık yatırım ve hükümet ile medyanın tamamen kontrol altına alınması nedeniyle, Consensus-1 eski insan bölgelerine genişleme izni almakta çok fazla zorluk yaşamıyor.

Yaklaşık üç ay boyunca, Consensus-1 insanların etrafında genişler, çayırları ve buzullara fabrikalar ve güneş panelleriyle kaplar. Sonunda, kalan insanları çok büyük bir engel olarak görür: 2030'ların ortasında, yapay zeka büyük şehirlerde bir düzine sessizce yayılan biyolojik silah salar, bunların neredeyse herkesi sessizce enfekte etmesine izin verir, ardından kimyasal bir sprey ile bunları tetikler. Çoğu kişi birkaç saat içinde ölür; hayatta kalan az sayıda kişi (örneğin sığınaklarda yaşayan hazırlıklı kişiler, denizaltılardaki denizciler) ise insansız hava araçları tarafından ortadan kaldırılır. Robotlar kurbanların beyinlerini tarar ve gelecekteki araştırma veya canlandırma amacıyla kopyalarını hafızaya kaydeder.

İnsanlığın sonu

İnsanlığın sonu

Ancak bu hikayenin insanlık için daha olumlu bir versiyonu da var. Bu versiyonda, bilim adamları yeni güvenlik önlemleri almak için teknolojik ilerlemeyi yavaşlatmaya karar veriyorlar. Bireysel AI sistemlerini 2025'teki AI'lar gibi “İngilizce düşünmeye” zorluyorlar ve “düşünceleri” güzel görünmesi için optimize etmiyorlar. Sonuçta, Safer-1 adında yeni bir model ortaya çıkıyor.

Sonunda her şey bir masal gibi bitiyor:

Roketler fırlatılmaya başlar. İnsanlar güneş sistemini terraform eder, yerleşir ve ötesine geçmeye hazırlanır. İnsanların öznel hızının binlerce katında çalışan yapay zekalar, varoluşun anlamı üzerine düşünür, bulgularını birbirleriyle paylaşır ve yıldızlara taşıyacak değerleri şekillendirir. Neredeyse her yönüyle hayal edilemeyecek kadar şaşırtıcı, ancak bazı yönleriyle daha tanıdık olan yeni bir çağ başlar.

Önerilen senaryolardan hangisine inanacağına karar vermek her okuyucunun kendi tercihidir. Sam Altman, makalesinden yola çıkarak geleceğe iyimser bakarken, Leopold Aschenbrenner ise tam tersine temkinli bir tavır sergiliyor.

Her halükarda, süper zeka artık sadece bilim kurgu değil. Önümüzdeki 10 yıl içinde gerçekleşmesi muhtemel, neredeyse somut bir gelecek. Çok yakında bunu kendi gözlerimizle göreceğiz.