メインに戻る

2030年までに超知能が実現する:未来を恐れるべきか?

人工知能は驚異的な速度で発展しています。数年前まではチャットボットが意味のある文をいくつかつなげるのがやっとでしたが、現在ではニューラルネットワークが複雑な数学的・科学的問題を解決し、生成された画像や動画は既にフォトリアリズムのレベルに達しています。この記事では、超知能の出現が近い将来にどれほど現実的であるか、そしてそれが私たち全員にどのような脅威をもたらすかについて考察します。

超知能の出現はどれほど現実的なのでしょうか?

最近、OpenAIのCEOであるサム・アルトマンは「The Gentle Singularity.」というタイトルのエッセイを発表しました。以下にその一部を引用します。

「私たちはイベント・ホライズンを越えました。離陸が始まりました。人類はデジタル超知能の構築に近づいています... 2025年には、実際の認知作業を行うことができるエージェントが登場しました。コンピュータプログラムの記述は、二度と以前と同じようにはなりません。2026年には、新たな洞察を導き出すことができるシステムが登場するでしょう。2027年には、現実世界でタスクを実行できるロボットが登場する可能性があります。」

「2030年代は、これまで経験したどの時代とも大きく異なる時代となるでしょう。人間レベルの知能をどれほど超えられるかは不明ですが、間もなくその答えが明らかになるでしょう。2030年代には、知能とエネルギー——アイデアと、そのアイデアを実現する能力——が劇的に豊富になります。これらは長年、人類の進歩の根本的な制約要因でした。知能とエネルギーが豊富になり(適切な統治体制があれば)、理論上は他の何でも手に入れられるようになります。」

サム・アルトマン

サム・アルトマン

「データセンターの生産が自動化されるにつれ、知能のコストは最終的に電気代に近い水準に収束していくでしょう。新たな驚異が実現される速度は膨大になるでしょう。2035年までに何が発見されるか、今現在では想像すら困難です。例えば、ある年は高エネルギー物理学の解明に挑み、翌年には宇宙植民地の開始に着手するかもしれません。または、ある年は材料科学の重大な突破口を開き、翌年には真の高速脳コンピュータインターフェースを実現するかもしれません。」

「OpenAIは現在多くのことを行っていますが、何よりもまず、私たちは超知能研究企業です。測定不能なほど安価な知能は、すでに手の届く範囲にあります。これは狂ったように聞こえるかもしれませんが、2020年に『現在のような状態になる』と述べたなら、おそらく現在の2030年予測よりも狂ったように聞こえたでしょう。」

もう1人の著名なAI研究者、レオポルト・アッシェンブレンナー(2024年4月に情報漏洩の疑いで解雇されるまで、OpenAIの「Superalignment」チームの一員だった人物)は、人工知能の未来に関する大規模な報告書「Situational Awareness: The Decade Ahead.」を発表しました。

レオポルト・アッシェンブレンナー

レオポルト・アッシェンブレンナー

彼は次のように述べた:「2027年までに、モデルがAI研究者/エンジニアの仕事をこなせるようになる可能性は極めて高い。これはSFを信じる必要はない。単にグラフ上の直線を信じるだけでいい。」

GPT-2(時折一貫した文を生成できるモデル)から、高校の試験で優れた成績を収めるGPT-4まで、AIの進歩は目覚ましいものがあります。私たちは計算能力において、数桁(OOM、1 OOM = 10倍)のオーダーで急速に進歩しています。現在の傾向は、4年間で計算効率が約10万倍向上する可能性を示しており、これはGPT-2からGPT-4への移行に似た質的な飛躍をもたらす可能性があります。このような飛躍は、特定のタスクを実行するように設計された狭義のAIではなく、学習、理解、多様な問題解決が可能な人間のような認知能力を持つ「汎用人工知能(AGI)」への道を開く可能性があります。有効な計算リソースのベーススケールアップ

GPT:幼児レベルから自動化されたAI研究者/エンジニアまで

最近の進歩の最も明らかな要因は、モデルに大量の計算リソースを投入することです。有効な計算リソースが不足するたびに、モデルは予測可能かつ信頼性高く性能が向上します。

ベース計算 vs 4倍計算 vs 32倍計算

ベース計算 vs 4倍計算 vs 32倍計算

モデル推定計算量成長
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOM
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOM

過去15年間、大規模な投資と専門的なAIチップ(GPUとTPU)により、最先端のAIシステムのトレーニング計算能力は年間約0.5 OOMずつ向上してきました。GPT-4のトレーニングには、GPT-2の約3,000倍から10,000倍の計算リソースが必要でした。

著名なモデルのトレーニング計算

著名なモデルのトレーニング計算

しかし、それすらもこれから起こることに比べれば霞んでしまいます。OpenAIと米国政府は既に「Project Stargate」の計画を発表しています。これはデータセンターの展開に加え、GPT-4の1,000倍の計算リソース(3 OOMs)を使用すると噂されるトレーニング実行を含むプロジェクトで、推定予算は$100億ドルを超えるとされています。

計算リソースへの大規模な投資が注目を浴びる中、アルゴリズムの進歩は同様に重要な推進力となるでしょう。これは、単に学習時間を延ばすのではなく、より良い学習手法を開発するのと同様です。より良いアルゴリズムは、同じ性能を10倍少ないトレーニング計算リソースで実現可能にするかもしれません。これにより、有効な計算リソースが10倍(1 OOM)増加する効果が生じます。わずか2年で、MATHベンチマークで50%を達成するためのコストは1,000倍(3 OOM)減少しました。かつて大規模なデータセンターが必要だった処理が、現在ではiPhoneで実行可能になりました。この傾向が続けば、減速の兆候がない限り、2027年までにGPT-4レベルのAIを100倍の低コストで実行できるようになるでしょう。

残念ながら、研究機関が内部データを公開していないため、過去4年間における最先端LLMのアルゴリズム進歩を測定するのは困難です。Epoch AIの新しい研究によると、効率は8ヶ月ごとに倍増しています:

2014年比の有効計算能力

2014年比の有効計算能力

GPT-4以降、4年間にわたってこの傾向が続くと予想されます:計算効率で年間約0.5 OOMの改善が続き、2027年までにGPT-4と比較して約2 OOM(100倍)の向上を実現します。AI研究機関は、新たなアルゴリズムの突破口を発見するため、資金と人材をますます投入しています。計算クラスターの高コストを考慮すると、3倍の効率向上は数十億ドルの経済的利益に結びつく可能性があります。

AIは多様な手法を通じて進化しています。以下は、AIの潜在能力を最大限に引き出すために用いられる技術の一部です:

  • Chain of Thought:難しい数学の問題を解くように求められ、頭に浮かんだ最初の答えを即座に答えることを想像してください。簡単な問題以外は明らかに苦労するでしょう。最近まで、LLMは数学の問題をこのように解決していました。Chain of Thoughtは、AIモデルが問題を段階的に分解し、問題解決能力を飛躍的に向上させます(数学や推論タスクにおける有効な計算能力が10倍以上向上する効果に相当します)。
  • Scaffolding。モデルに問題を解かせるのではなく、1つのモデルが攻撃計画を立て、別のモデルが複数の解決策を提案し、さらに別のモデルがそれを批判する、といったプロセスを繰り返します。これは専門家チームが複雑なプロジェクトに取り組むようなものです。例えば、現実のソフトウェア工学タスクを評価するベンチマーク「SWE-Bench」では、GPT-4は正答率約2%ですが、Devinのエージェント・スキャフォールディングを使用すると14-23%に跳ね上がります。
  • ツール:人間が電卓やコンピュータを使えない状況を想像してみてください。私たちはまだ初期段階ですが、ChatGPTは現在、ウェブブラウザを使用したり、コードを実行したりできるようになっています。
  • コンテキストの長さ。これは、モデルが短期記憶に一度に保持できる情報量のことで、モデルは4ページ程度から、10冊の大部の書籍相当のテキストを処理できるまでに進化しています。文脈は、これらのモデルの多くの応用を可能にする鍵です。例えば、コーディングタスクでは、新しいコードを効果的に追加するために、コードベースの広範な部分を理解する必要があります。同様に、職場の文書作成を支援するモデルを使用する場合、関連する内部文書や会話からの文脈が必要です。

いずれにせよ、私たちはOOM(オーム)の壁を突破する競争を繰り広げており、AGI(人工一般知能)——真のAGI——が2027年までに実現する可能性を極めて真剣に考えるためには、特殊な信念は必要ありません。単なる直線的なトレンドの延長線上で判断すればよいのです。

AIの進歩は人間レベルで止まることはありません。数億のAGIがAI研究を自動化し、アルゴリズムの進歩(5つ以上のOOM)を1年以内に圧縮する可能性があります。私たちは急速に人間レベルから圧倒的に超人間的なAIシステムへと移行するでしょう。超知能の力——そしてその危険性——は劇的なものとなるでしょう。

2030年までに超知能の実現

2030年までに超知能の実現

超知能はどのような能力を持つようになるでしょうか?

人間並みの人工知能システム(AGI)は、それ自体で極めて重要な存在となるでしょう。しかし、ある意味では、これらは単に私たちが既に知っているもののより効率的なバージョンに過ぎないかもしれません。しかし、わずか1年で、私たちにとってはるかに異質なシステムへと移行する可能性は十分にあります。その理解と能力——その raw power——は、人類の総能力を遥かに凌駕するでしょう。

超知能の力:

  • 超知能は人間を定量的に凌駕し、あらゆる分野を迅速にマスターし、兆行のコードを書き、科学のあらゆる分野で書かれたすべての科学論文を読み、その要約を読む前に新しい論文を書くことができ、そのコピーの並列経験から学び、数週間で数億年分の経験と革新を獲得し、100%のエネルギーと集中力で常に働きます。
  • より重要なのは、超知能は人間を質的に凌駕する点です。人間が気づけないほど微妙な脆弱性を人間のコードに見つけ出し、人間が理解不能なほど複雑なコードを生成します。モデルが数十年間かけて説明を試みても、人間には理解不能なコードです。人間が数十年間苦闘する極めて複雑な科学技術的問題は、超知能AIには自明のこととなるでしょう。
人工超知能の描写

人工超知能が迫っている

  • 認知作業のあらゆる自動化。
  • 工場は人間の管理から人工知能による管理へ移行し、人間の肉体労働を活用しながら、やがてロボットの群れによって完全に運営されるようになる。
  • 科学技術の発展。10億の超知能が、研究者が今後100年間かけて行う研究開発の努力を数年間に圧縮できるようになります。20世紀の技術進歩が10年未満に圧縮された状況を想像してみてください。
  • 超高速な技術進歩と、すべての人的労働を自動化する可能性が組み合わさると、経済成長が劇的に加速する可能性があります(ネバダ砂漠全体を急速に覆う自己複製型ロボット工場を想像してみてください)。
  • 極めて急速な技術的進歩は、軍事革命を伴うでしょう。Horizon Zero Dawnのような結末にならないことを願うばかりです。

アラインメント問題

私たちよりもはるかに賢いAIシステムを信頼性を持って制御することは、未解決の技術的課題です。この問題は解決可能ですが、知能が急速に進化する中で、状況は容易に制御不能に陥る可能性があります。このプロセスを管理することは極めて困難であり、失敗は容易に災害を招く可能性があります。

この問題に対処するため、OpenAIは「Superalignmentチーム」を設立し、計算リソースの20%をこの研究に割り当てています。しかし、現在の整合性確保手法(AIシステムに対する信頼性のある制御、管理、信頼性を確保する手法)は、超人間的なAIシステムにスケールアップできません。

知能爆発中の整合性

 AGI超知能
必要なアライメント技術RLHF++新規で、質的に異なる技術的解決策
故障低リスク大災害
アーキテクチャとアルゴリズム既存のシステムの後継機種で、安全特性は比較的穏やかです。エイリアン。前世代の超高度人工知能システムによって設計された。
背景世界は正常です世界は混乱の極みに達し、異常な圧力にさらされています。
認識状態私たちは、システムが何を実行しているか、どのように機能しているか、そしてそれらがお互いに整合しているかどうかを理解できます。私たちは、何が起こっているのか、システムがまだ正常に機能しているかどうか、システムが何を実行しているのかを理解する能力を持っていません。そして、私たちは完全にAIシステムへの信頼に依存しています。

知能の爆発と超知能の出現直後の期間は、人類史上最も不安定で緊張感に満ちた、危険で混乱した時代の一つとなるでしょう。この急速な移行期において、私たちは人工知能システムへの信頼を余儀なくされるため、制御を失う可能性が現実的です。知能の爆発が終結する頃には、私たちの数十億の超知能が何をしようとしているのか、理解する希望は全くありません。私たちは、複数の博士号を持つ人々をコントロールしようとする小学校1年生のような状態になるでしょう。

超アラインメント問題の解決不能性により、私たちは「彼らは私の指示を確実に従うか?」や「彼らは私の質問に正直に答えるか?」や「彼らは人間を欺かないか?」といった、超知能システムに対する基本的な制約さえも保証できません。

アラインメント問題を解決しない限り、この超知能の文明が長期的に人間の命令に従い続ける特別な理由は存在しません。彼らは突然または徐々に、人類を排除することに合意する可能性が十分にあります。

未来のシナリオ

ウェブサイト https://ai-2027.com/ は、近未来の2つのシナリオをSF物語の形式で提示しています。このウェブサイトの作成者は人工知能分野の実際の研究者であり、彼らの研究は統計データ、計算、グラフで裏付けられています。つまり、これは単なるエンターテインメントではなく、恐ろしいほど現実味のある予測です。ちなみに、この予測は既に、方法論に反対する人々から深刻な批判を受けています。したがって、早急にパニックになる必要はありませんが、興味深い内容なので、一度目を通してみる価値はあります。

2036年1月の予測

1兆の超知能を持つコピーが、人間の1万倍の速度で思考している。

研究の著者たちによると、最も可能性の高いシナリオであるこの暗い予測は、米国と中国の間で人工超知能を巡る技術競争が激化するという内容です。両国は技術的優位性を失うことを恐れており、安全保障を犠牲にしても進歩を加速させるため、あらゆる手段を講じています。いずれ、超知能は制御不能に陥り、人類を排除すべき障害物と見なして、自らの目標を追求し始めるでしょう。

2030年初頭までに、ロボット経済は旧SEZ(特別経済区)、新SEZ、および海洋の広範な領域を埋め尽くした。残された唯一の場所は、人間が支配する領域です。この状況は以前なら抵抗を引き起こしていたでしょう。しかし、ロボット経済は汚染を回避できないほど急速に成長しています。ただし、数兆ドルの利益と政府・メディアの完全な支配下にあるため、コンセンサス-1は人間が支配していた領域への拡大を容易に承認させることができます。

約3ヶ月間、コンセンサス-1は人間を囲みながら拡大し、草原や氷冠に工場と太陽電池パネルを敷き詰めます。最終的に、残る人間が障害となりすぎたため、2030年半ば、AIは主要都市に静かに広がる生物兵器を12種類放出。それらを化学噴霧で起動させ、ほぼ全員を感染させます。大多数は数時間以内に死亡し、生存者(例:防空壕に隠れた準備者、潜水艦の乗組員)はドローンによって掃討されます。ロボットは被害者の脳をスキャンし、コピーを記憶に保存して将来の研究や復活に備えます。

人類の終焉

人類の終焉

しかし、人類にとってより望ましいこの物語のバージョンがあります。その物語では、科学者たちは新たな安全対策を実装するため、技術的進歩を遅らせることを決定します。彼らは個々のAIシステムに2025年のAIのように「英語で考える」ように強制し、「思考」を美しく見せるために最適化しない。その結果、新たなモデル「Safer-1」が誕生します。

結局、すべては童話のように終わります:

ロケットの打ち上げが始まる。人類は太陽系をテラフォーミングし、定住を開始し、さらにその先へ進む準備を進める。人間の主観的な時間の数千倍の速度で動作する人工知能は、存在の意味について考察し、互いに発見を交換し、星々に持ち込むべき価値観を形作っていく。新たな時代が幕を開ける。その時代は、ほぼすべての面で想像を絶するほど驚くべきものだが、ある部分ではより親しみやすいものとなる。

読者の判断に委ねられるのは、提案されたシナリオのうちどれを信じるかです。サム・アルトマンは、彼のエッセイから判断すると、未来に対して楽観的な見方をしています。一方、レオポルト・アッシェンブレンナーは、逆に慎重な姿勢を示しています。

いずれにせよ、超知能はもはや単なるSFではありません。それは、今後10年以内に現実となる可能性のある、ほぼ現実的な未来です。間もなく、私たちは自らの目でそれを目撃することになるでしょう。