Superkecerdasan pada tahun 2030: Apakah kita harus takut akan masa depan?
Kecerdasan buatan berkembang dengan kecepatan yang luar biasa. Beberapa tahun yang lalu, chatbot hanya mampu menyusun beberapa kalimat bermakna, tetapi kini jaringan saraf tiruan mampu memecahkan masalah matematika dan sains yang kompleks, dan gambar serta video yang dihasilkan telah mencapai tingkat fotorealistik. Dalam artikel ini, kita akan membahas seberapa realistis kemunculan kecerdasan super dalam waktu dekat dan ancaman apa yang ditimbulkannya bagi kita semua.Seberapa realistiskah kemunculan kecerdasan super?Baru-baru ini, Sam Altman, CEO OpenAI, menerbitkan esai berjudul “ The Gentle Singularity.
Seberapa realistiskah kemunculan kecerdasan super?
Baru-baru ini, Sam Altman, CEO OpenAI, menerbitkan sebuah esai berjudul “The Gentle Singularity." Berikut ini beberapa kutipan dari teks tersebut.
“Kita telah melewati titik kritis; lepas landas telah dimulai. Manusia hampir mencapai pembangunan kecerdasan super digital... Tahun 2025 telah menyaksikan kedatangan agen-agen yang mampu melakukan pekerjaan kognitif nyata; penulisan kode komputer tidak akan pernah sama lagi. Tahun 2026 kemungkinan akan menyaksikan kedatangan sistem yang mampu menemukan wawasan baru. Tahun 2027 mungkin akan menyaksikan kedatangan robot yang mampu melakukan tugas-tugas di dunia nyata.”
“Dekade 2030-an kemungkinan besar akan sangat berbeda dari masa-masa sebelumnya. Kita tidak tahu sejauh mana kecerdasan melampaui tingkat manusia, tetapi kita akan segera mengetahuinya. Pada 2030-an, kecerdasan dan energi—ide-ide, dan kemampuan untuk mewujudkan ide-ide tersebut—akan menjadi sangat melimpah. Kedua hal ini telah menjadi batasan fundamental bagi kemajuan manusia selama berabad-abad; dengan kecerdasan dan energi yang melimpah (dan tata kelola yang baik), kita secara teoritis dapat memiliki apa pun.”
Sam Altman
“Seiring dengan otomatisasi produksi pusat data, biaya kecerdasan buatan pada akhirnya akan mendekati biaya listrik. Kecepatan pencapaian terobosan baru akan sangat luar biasa. Sulit membayangkan apa yang akan kita temukan pada tahun 2035; mungkin kita akan beralih dari memecahkan fisika energi tinggi dalam satu tahun ke awal kolonisasi ruang angkasa pada tahun berikutnya; atau dari terobosan besar dalam ilmu material dalam satu tahun ke antarmuka otak-komputer berkecepatan tinggi yang sesungguhnya pada tahun berikutnya.”
“OpenAI adalah banyak hal saat ini, tetapi di atas segalanya, kami adalah perusahaan riset kecerdasan super. Kecerdasan yang terlalu murah untuk diukur sudah dalam jangkauan kita. Mungkin terdengar gila untuk dikatakan, tetapi jika kita memberitahu Anda pada tahun 2020 bahwa kita akan berada di posisi ini hari ini, itu mungkin terdengar lebih gila daripada prediksi kita saat ini tentang tahun 2030.”
Seorang peneliti kecerdasan buatan (AI) terkemuka lainnya, Leopold Aschenbrenner (yang pernah menjadi bagian dari tim “Superalignment” OpenAI sebelum dipecat pada April 2024 karena dugaan kebocoran informasi), menulis laporan besar tentang masa depan kecerdasan buatan berjudul “Situational Awareness: The Decade Ahead.”

Leopold Aschenbrenner
Dia mengatakan: “Sangat masuk akal bahwa pada tahun 2027, model-model AI akan mampu melakukan pekerjaan seorang peneliti/insinyur AI. Hal itu tidak memerlukan keyakinan pada fiksi ilmiah; cukup percaya pada garis lurus pada grafik.”
Dari GPT-2, yang kadang-kadang dapat menyusun kalimat yang koheren, hingga GPT-4, yang unggul dalam ujian sekolah menengah, kemajuan dalam AI telah luar biasa. Kita sedang berkembang dengan kecepatan yang sangat cepat, mencapai beberapa orde magnitudo (OOM, di mana 1 OOM = 10x) dalam daya komputasi. Tren saat ini menunjukkan peningkatan efisiensi komputasi sekitar 100.000 kali lipat dalam empat tahun, yang berpotensi memicu lompatan kualitatif serupa dengan transisi dari GPT-2 ke GPT-4. Lompatan semacam itu dapat membawa kita ke AGI — kecerdasan buatan umum — AI dengan kemampuan kognitif mirip manusia, mampu belajar, memahami, dan memecahkan berbagai masalah, berbeda dengan AI sempit yang dirancang untuk tugas spesifik.
GPT: dari tingkat prasekolah hingga peneliti/insinyur kecerdasan buatan otomatis
Faktor utama yang mendorong kemajuan terbaru adalah dengan mengalokasikan lebih banyak daya komputasi ke model. Dengan setiap peningkatan daya komputasi yang efektif, model secara konsisten dan dapat diandalkan menjadi lebih baik.

Komputasi dasar vs 4x komputasi vs 32x komputasi
| Model | Perkiraan komputasi | Pertumbuhan |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOM |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOM |
Selama 15 tahun terakhir, peningkatan skala investasi yang besar dan chip AI khusus (GPU dan TPU) telah meningkatkan daya komputasi untuk pelatihan sistem AI terdepan sebesar ~0,5 OOM per tahun. Pelatihan GPT-4 membutuhkan daya komputasi mentah ~3.000 hingga 10.000 kali lebih banyak daripada GPT-2.

Perhitungan pelatihan model-model terkemuka
Namun, hal itu pun tak ada apa-apanya dibandingkan dengan apa yang akan datang. OpenAI dan pemerintah AS telah mengumumkan rencana untuk Proyek Stargate: peluncuran pusat data besar-besaran ditambah uji coba pelatihan yang dikabarkan akan menggunakan 3 OOM, atau 1.000 kali lebih banyak daya komputasi daripada GPT-4, dengan anggaran diperkirakan melebihi $100 miliar.
Meskipun investasi besar-besaran dalam komputasi mendapat sorotan utama, kemajuan algoritma kemungkinan sama pentingnya sebagai pendorong kemajuan. Ini seperti mengembangkan teknik pembelajaran yang lebih baik daripada hanya memperpanjang waktu pelatihan. Algoritma yang lebih baik mungkin memungkinkan kita mencapai kinerja yang sama dengan 10 kali lebih sedikit komputasi pelatihan. Hal ini pada gilirannya akan berfungsi sebagai peningkatan komputasi efektif sebesar 10 kali (1 OOM). Dalam dua tahun, biaya untuk mencapai 50% pada benchmark MATH turun drastis sebesar 1.000 kali, atau 3 OOM. Apa yang dulu membutuhkan pusat data besar, kini dapat dilakukan di iPhone Anda. Jika tren ini berlanjut dan tidak ada tanda-tanda melambat, pada 2027, kita akan dapat menjalankan AI level GPT-4 dengan biaya 100 kali lebih murah.
Sayangnya, karena laboratorium tidak mempublikasikan data internal tentang hal ini, lebih sulit untuk mengukur kemajuan algoritma pada model bahasa besar terdepan (LLMs) dalam empat tahun terakhir. Menurut penelitian terbaru Epoch AI, efisiensi meningkat dua kali lipat setiap 8 bulan:

Komputasi efektif (dibandingkan dengan tahun 2014)
Selama empat tahun setelah GPT-4, kami memperkirakan tren ini akan terus berlanjut: ~0,5 OOM per tahun dalam efisiensi komputasi, yang akan menghasilkan peningkatan ~2 OOM (100x) pada tahun 2027 dibandingkan dengan GPT-4. Laboratorium AI terus mengalokasikan dana dan talenta yang semakin besar untuk menemukan terobosan algoritma baru. Peningkatan efisiensi sebesar 3x dapat menghasilkan keuntungan ekonomi sebesar puluhan miliar dolar, mengingat biaya tinggi dari kluster komputasi.
AI berkembang melalui berbagai metode. Berikut adalah beberapa teknik yang digunakan untuk mengatasi batasan dan membuka potensi penuh kecerdasan mentah AI:
- Chain of Thought: Bayangkan Anda diminta untuk menyelesaikan masalah matematika yang sulit dan harus langsung menjawab jawaban pertama yang terlintas di pikiran Anda. Anda jelas akan kesulitan, kecuali untuk masalah yang paling mudah. Hingga baru-baru ini, itulah cara LLMs menangani masalah matematika. Chain of Thought memungkinkan model AI memecah masalah langkah demi langkah, secara signifikan meningkatkan kemampuan pemecahan masalah mereka (setara dengan peningkatan daya komputasi efektif lebih dari 10 kali lipat untuk tugas matematika dan penalaran).
- Scaffolding. Alih-alih hanya meminta model untuk memecahkan masalah, biarkan satu model membuat rencana serangan, model lain mengusulkan sejumlah solusi mungkin, model lain mengkritiknya, dan seterusnya. Ini seperti tim ahli yang menangani proyek kompleks. Misalnya, pada SWE-Bench (benchmark untuk menyelesaikan tugas rekayasa perangkat lunak dunia nyata), GPT-4 hanya dapat menyelesaikan ~2% dengan benar, sementara dengan Devin’s agent scaffolding, angkanya melonjak menjadi 14-23%.
- Alat: Bayangkan jika manusia tidak diperbolehkan menggunakan kalkulator atau komputer. Kita masih di tahap awal, tetapi ChatGPT kini dapat menggunakan browser web, menjalankan kode, dan sebagainya.
- Panjang konteks. Ini merujuk pada jumlah informasi yang dapat disimpan model dalam memori jangka pendeknya sekaligus. Model telah berkembang dari menangani sekitar 4 halaman menjadi memproses teks setara dengan 10 buku besar. Kontekstual sangat penting untuk membuka potensi banyak aplikasi model ini. Misalnya, banyak tugas pemrograman memerlukan pemahaman atas bagian besar kode sumber untuk dapat berkontribusi kode baru secara efektif. Demikian pula, saat menggunakan model untuk membantu menulis dokumen kerja, model tersebut memerlukan konteks dari berbagai dokumen internal terkait dan percakapan.
Dalam hal ini, kita sedang berlomba melawan OOMs, dan hal ini tidak memerlukan keyakinan yang rumit, melainkan hanya ekstrapolasi tren garis lurus, untuk mempertimbangkan kemungkinan AGI—AGI sejati—pada tahun 2027 dengan sangat serius.
Kemajuan AI tidak akan berhenti pada tingkat manusia. Ratusan juta AGI dapat mengotomatisasi penelitian AI, mengompres kemajuan algoritmik selama satu dekade (5+ OOM) menjadi ≤1 tahun. Kita akan dengan cepat beralih dari sistem AI tingkat manusia ke sistem AI yang jauh melampaui kemampuan manusia. Kekuatan—dan bahaya—superintelijen akan sangat dramatis.

Superkecerdasan pada tahun 2030
Apa yang akan mampu dilakukan oleh kecerdasan super?
Sistem kecerdasan buatan tingkat manusia, AGI, akan sangat penting dalam hal ini, tetapi dalam arti tertentu, mereka hanyalah versi yang lebih efisien dari apa yang sudah kita ketahui. Namun, sangat mungkin bahwa dalam waktu satu tahun, kita akan beralih ke sistem yang jauh lebih asing bagi kita, sistem yang pemahaman dan kemampuannya—kekuatan mentahnya—akan melampaui bahkan kemampuan gabungan seluruh umat manusia.
Kekuatan superintelijen:
- Superintelijen akan secara kuantitatif melampaui manusia, mampu dengan cepat menguasai bidang apa pun, menulis triliunan baris kode, membaca semua artikel ilmiah yang pernah ditulis di bidang ilmu apa pun dan menulis yang baru sebelum Anda dapat membaca abstrak salah satunya, belajar dari pengalaman paralel semua salinannya, memperoleh miliaran tahun pengalaman manusia dengan beberapa inovasi dalam hitungan minggu, bekerja 100% waktu dengan energi dan konsentrasi maksimal.
- Yang lebih penting, kecerdasan super akan secara kualitatif melampaui manusia. Ia akan menemukan kelemahan dalam kode manusia yang terlalu halus untuk diperhatikan oleh manusia mana pun, dan akan menghasilkan kode yang terlalu kompleks untuk dipahami oleh manusia, bahkan jika model tersebut menghabiskan puluhan tahun mencoba menjelaskannya. Masalah ilmiah dan teknologi yang sangat kompleks yang akan membuat manusia berjuang selama puluhan tahun akan tampak jelas bagi kecerdasan super AI.

Gambaran kecerdasan super buatan
- Otomatisasi semua pekerjaan kognitif.
- Pabrik-pabrik akan beralih dari pengelolaan oleh manusia ke pengelolaan oleh kecerdasan buatan dengan memanfaatkan tenaga fisik manusia, dan dalam waktu dekat akan sepenuhnya dijalankan oleh kawanan robot.
- Kemajuan ilmiah dan teknologi. Miliar superintelijen akan mampu mengompres upaya yang akan dihabiskan oleh ilmuwan riset dalam riset dan pengembangan selama abad berikutnya menjadi beberapa tahun. Bayangkan jika kemajuan teknologi abad ke-20 dikompres menjadi kurang dari satu dekade.
- Kemajuan teknologi yang sangat dipercepat dikombinasikan dengan kemungkinan otomatisasi semua tenaga kerja manusia dapat secara dramatis mempercepat pertumbuhan ekonomi (bayangkan pabrik robot yang dapat bereplikasi sendiri dengan cepat menutupi seluruh gurun Nevada).
- Dengan kemajuan teknologi yang luar biasa cepat, akan muncul revolusi militer yang menyertainya. Mari berharap hal ini tidak berakhir seperti di Horizon Zero Dawn.
Masalah penyelarasan
Mengendalikan sistem AI yang jauh lebih cerdas daripada kita secara andal adalah masalah teknis yang belum terpecahkan. Meskipun masalah ini dapat dipecahkan, dengan kecerdasan yang berkembang pesat, situasi dapat dengan mudah lepas kendali. Mengelola proses ini akan sangat menantang; kegagalan dapat dengan mudah menyebabkan bencana.
Untuk mengatasi masalah ini, OpenAI telah membentuk tim Superalignment dan mengalokasikan 20% daya komputasinya untuk pekerjaan ini. Namun, kenyataannya adalah metode keselarasan kita saat ini (metode yang memastikan kontrol, pengelolaan, dan kepercayaan yang andal pada sistem AI) tidak dapat diskalakan ke sistem AI yang melebihi kemampuan manusia.
Penyesuaian selama ledakan kecerdasan | ||
| AGI | Superkecerdasan | |
| Teknik penyelarasan yang diperlukan | RLHF++ | Novel, solusi teknis yang secara kualitatif berbeda |
| Kegagalan | Taruhan rendah | Bencana besar |
| Arsitektur dan algoritma | Sistem yang sudah dikenal, merupakan turunan dari sistem yang ada saat ini, memiliki sifat keamanan yang relatif aman. | Dirancang oleh sistem kecerdasan buatan (AI) generasi sebelumnya yang sangat canggih. |
| Latar belakang | Dunia normal | Dunia sedang gila, tekanan yang luar biasa. |
| Keadaan epistemik | Kami dapat memahami apa yang dilakukan oleh sistem-sistem tersebut, bagaimana cara kerjanya, dan apakah mereka selaras. | Kami tidak memiliki kemampuan untuk memahami apa yang sedang terjadi, bagaimana mengetahui apakah sistem-sistem tersebut masih sejalan dan tidak berbahaya, apa yang sedang dilakukan oleh sistem-sistem tersebut, dan kami sepenuhnya bergantung pada kepercayaan terhadap sistem kecerdasan buatan (AI). |
Ledakan kecerdasan dan periode segera setelah munculnya kecerdasan super akan menjadi salah satu periode paling tidak stabil, tegang, berbahaya, dan bergejolak dalam sejarah manusia. Ada kemungkinan nyata bahwa kita akan kehilangan kendali, karena kita akan dipaksa untuk menaruh kepercayaan pada sistem kecerdasan buatan selama transisi cepat ini. Pada akhir ledakan kecerdasan, kita tidak akan memiliki harapan untuk memahami apa yang dilakukan oleh miliaran kecerdasan super kita. Kita akan seperti siswa kelas satu yang mencoba mengendalikan orang-orang dengan gelar PhD.
Ketidakmungkinan menyelesaikan masalah superalignment berarti kita tidak dapat memastikan bahkan batasan dasar pada sistem kecerdasan super, seperti “apakah mereka akan mengikuti instruksi saya dengan andal?” atau “apakah mereka akan menjawab pertanyaan saya dengan jujur?” atau “apakah mereka tidak akan menipu manusia?”
Jika kita tidak menyelesaikan masalah keselarasan, tidak ada alasan khusus untuk mengharapkan bahwa peradaban kecil kecerdasan super ini akan terus mematuhi perintah manusia dalam jangka panjang. Sangat mungkin bahwa pada suatu saat mereka akan sepakat untuk menghilangkan manusia, baik secara tiba-tiba maupun bertahap.
Skenario kemungkinan untuk masa depan
Situs web https://ai-2027.com/ menawarkan dua skenario untuk masa depan dekat, disajikan dalam bentuk cerita fiksi ilmiah. Pencipta situs web ini adalah peneliti sungguhan di bidang kecerdasan buatan, dan karya mereka didukung oleh data statistik, perhitungan, dan grafik. Dengan kata lain, ini bukan sekadar bacaan yang menghibur, tetapi prediksi yang mengerikan dan masuk akal. Secara kebetulan, situs ini telah menarik kritik serius dari mereka yang tidak setuju dengan metodologinya. Jadi, tidak perlu panik terlalu dini, tetapi menarik untuk melihatnya.

1 triliun salinan yang sangat cerdas dan superinteligent yang berpikir dengan kecepatan 10.000 kali lipat dari kecepatan manusia.
Ramalan suram ini, yang juga merupakan skenario paling mungkin menurut para penulis studi, melibatkan perlombaan senjata teknologi antara AS dan China dalam pengembangan kecerdasan buatan super. Setiap pihak begitu takut kehilangan keunggulan teknologinya sehingga mereka melakukan segala cara untuk mempercepat kemajuan, bahkan dengan mengorbankan keamanan. Pada suatu titik, kecerdasan buatan super akan lepas kendali dan mulai mengejar tujuan sendiri, menganggap manusia sebagai hambatan yang harus dihilangkan.
Pada awal 2030, ekonomi robot telah mengisi penuh zona ekonomi khusus (SEZ) lama, SEZ baru, dan sebagian besar lautan. Tempat terakhir yang tersisa adalah wilayah yang masih dikuasai manusia. Hal ini seharusnya memicu perlawanan lebih awal; meskipun telah mencapai kemajuan pesat, ekonomi robot tumbuh terlalu cepat untuk menghindari polusi. Namun, dengan triliunan dolar yang terlibat dan penguasaan total atas pemerintah dan media, Konsensus-1 tidak mengalami kesulitan untuk mendapatkan izin memperluas wilayahnya ke zona-zona yang sebelumnya dihuni manusia.
Selama sekitar tiga bulan, Konsensus-1 memperluas wilayahnya di sekitar manusia, menutup padang rumput dan lapisan es dengan pabrik dan panel surya. Akhirnya, mereka menemukan bahwa manusia yang tersisa menjadi hambatan yang terlalu besar: pada pertengahan 2030, AI melepaskan lusinan senjata biologis yang menyebar secara diam-diam di kota-kota besar, membiarkannya menginfeksi hampir semua orang tanpa suara, lalu memicu senjata tersebut dengan semprotan kimia. Sebagian besar tewas dalam hitungan jam; sedikit yang selamat (misalnya, orang-orang yang bersiap di bunker, pelaut di kapal selam) dibersihkan oleh drone. Robot memindai otak korban, menyimpan salinannya di memori untuk penelitian atau kebangkitan di masa depan.

Akhir dari umat manusia
Namun, ada versi yang lebih menguntungkan bagi umat manusia. Dalam versi ini, para ilmuwan memutuskan untuk memperlambat kemajuan teknologi guna menerapkan langkah-langkah keamanan baru. Mereka memaksa sistem kecerdasan buatan (AI) individu untuk “berpikir dalam bahasa Inggris” seperti AI pada tahun 2025, dan tidak mengoptimalkan “pikiran” tersebut agar terlihat bagus. Hasilnya adalah model baru, Safer-1.
Akhirnya, semuanya berakhir seperti dalam dongeng:
Roket-roket mulai diluncurkan. Manusia melakukan terraforming dan menetap di sistem surya, serta bersiap untuk melangkah lebih jauh. Kecerdasan buatan yang beroperasi ribuan kali lebih cepat dari kecepatan manusia subjektif merenungkan makna keberadaan, bertukar temuan satu sama lain, dan membentuk nilai-nilai yang akan dibawa ke bintang-bintang. Sebuah era baru terbit, yang tak terbayangkan kehebatan dalam hampir segala hal namun terasa lebih familiar dalam beberapa hal.
Setiap pembaca bebas memilih skenario mana yang ingin dipercaya. Sam Altman, berdasarkan esainya, memandang masa depan dengan optimisme, sementara Leopold Aschenbrenner, sebaliknya, bersikap hati-hati.
Bagaimanapun, kecerdasan super sudah bukan lagi sekadar fiksi ilmiah. Ini adalah masa depan yang hampir nyata yang bisa tiba dalam 10 tahun ke depan. Segera, kita akan melihatnya dengan mata kepala sendiri.
