メインに戻る

SFから現実へ: AIの本当の危険性

人工知能の台頭は、インターネット、パソコン、携帯電話がそうであったように、社会に革命を起こそうとしている重要な技術的ブレークスルーを意味する。その影響は広範囲に及び、仕事や教育から余暇活動まで、人間生活のさまざまな側面に浸透している。ニューラルネットワークの急速な進歩はいくつかの懸念を引き起こしており、本稿では人工知能が人類にもたらす潜在的な危険性を探ることにする。

AIは危険か?誰が懸念を表明したのか?

マトリックス』や『ターミネーター』などのSF映画では、人類を支配あるいは滅亡させようとする制御不能な人工知能というアイデアが人気のテーマとなっている。技術進歩のペースが速い今日、一般人がそれについて行くのは困難なことだ。AIの急速な進歩は、私たちの社会に急速な適応を引き起こし、これらの技術の複雑さと未知なるものに対する人間の生来の恐怖による恐怖を促している。

一般人がAIに不安を感じているだけでなく、この分野の専門家も懸念を表明している。例えば、"AIのゴッドファーザー "と呼ばれるジェフリー・ヒントン氏は、彼自身の危惧を表明している:

私たちよりも知能が高くなり、乗っ取ろうとするかもしれない。

私は長い間、そうなるのは30年から50年先だと考えていた。だから、人間より優れた一般的な知能を持つものから、私はそれを遠いと呼んでいる。今、私たちはそれにもっと近づいていて、もしかしたら5年しか経っていないかもしれない。

私たちよりも賢いものがかなり近いうちに出現し、そのようなものが悪い動機を持ち、支配権を握るかもしれないという深刻な危険がある。

2023年3月22日、GPT-4より強力な人工知能の開発を半年間停止するよう求める公開書簡が発表された:

現代のAIシステムは、一般的なタスクにおいて人間並みの競争力を持ちつつある: 私たちは、機械にプロパガンダや真実でない情報を氾濫させるべきか?充実した仕事も含め、すべての仕事を自動化すべきなのか?私たちは、やがて私たちを凌駕し、凌駕し、陳腐化し、取って代わるかもしれない非人間的な知性を開発すべきなのだろうか?文明のコントロールを失うリスクを冒すべきか?そのような決定を、選挙で選ばれたわけでもない技術リーダーに委ねてはならない。強力なAIシステムは、その効果がポジティブなものであり、リスクは管理可能なものであると確信できて初めて開発されるべきなのだ。この自信は十分に正当化され、システムの潜在的効果の大きさに応じて増大しなければならない。

この書簡には、ハイテク企業のリーダー1,800人、AI分野の教授、学者、研究者1,500人が署名した:

  • イーロン・マスク(スペースX、テスラ、ツイッターCEO
  • スティーブ・ウォズニアック、アップル共同創業者
  • エマド・モスタク(Stability AI CEO
  • ジャーン・タリン、スカイプ共同創業者、フューチャー・オブ・ライフ・インスティテュート、存続リスク研究センター
  • エヴァン・シャープ、ピンタレスト共同創業者
  • クレイグ・ピーターズ、ゲッティイメージズCEO
  • マーク・ニッツバーグ、カリフォルニア大学バークレー校、人間適合AIセンター、エグゼクティブ・ディレクター
  • ゲイリー・マーカス、ニューヨーク大学、AI研究者、名誉教授
  • ザッカリー・ケントン、ディープマインド、シニアリサーチサイエンティスト
  • ラマナ・クマール、ディープマインド、研究員
  • マイケル・オズボーン、オックスフォード大学、機械学習教授
  • アダム・スミス(ボストン大学、コンピュータサイエンス教授、ゲーデル賞、カネラキス賞受賞

合計で33,000人以上の署名が集まった。

その他、サム・アルトマン(OpenAI CEO)、ジェフリー・ヒントン(チューリング賞受賞者)、ダリオ・アモデイ(Anthropic CEO)、ビル・ゲイツといった著名人をはじめ、350人以上の経営者やAI研究者が以下の声明に署名した

A.I.による絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項であるべきだ。

人工知能の危険性

2018年、ウーバーの自動運転車が歩行者をはねて死亡させた。

2022年、科学者たちは、もともと無毒で治癒力のある分子を作り出すために設計されたAIシステムを、化学兵器生成用に再設定した。システムの設定を変更し、毒性にペナルティを与える代わりに毒性に報酬を与えるようにしたところ、わずか6時間で化学兵器用の潜在的な分子4万個を素早く生成することができた。

2023年、研究者たちはGPT-4がTaskRabbitの作業員を操作してCaptcha認証を完了させる方法を実証した。最近では、チャットボットとの不穏な会話の後、個人が自ら命を絶つという悲劇的な事件が報告された。

GPT-4がCaptcha認証に合格

AIシステムの利用は、その目的の如何にかかわらず、次のような悪影響をもたらす可能性がある:

  • 自動化がもたらす雇用喪失
  • ディープフェイクと誤情報
  • プライバシー侵害
  • 不明瞭な法的規制
  • 悪質なデータによるアルゴリズムの偏り
  • 金融危機
  • サイバー犯罪
  • 武器の自動化
  • 制御不能な超知能

人工知能システムはますます強力になっているが、その限界はわかっていない。これらのシステムは悪意のある目的に使用される可能性がある。様々なリスクをより詳しく検証してみよう。

AIによる自動化で失われる雇用

ゴールドマン・サックスの調査によると、人工知能は世界の雇用市場に大きな影響を与える可能性がある。ゴールドマン・サックスのエコノミストは、米国の900以上の職業と欧州のESCOデータベースの2000以上の職業のタスク内容を詳細に分析することで、およそ3分の2の職業がAIによるある程度の自動化にさらされると推定している。

AIによる自動化にさらされる職業と仕事量の割合

縦軸はAIによる自動化にさらされる職業のシェア。横軸は職業の割合。

これらの進歩によるワークフローの変化により、フルタイムの3億人分の仕事が自動化される可能性がある。しかし、自動化された仕事のすべてがレイオフにつながるわけではない。多くの職種や産業は自動化の影響を部分的にしか受けず、完全に置き換わるというよりは、AIによって補完される可能性が高いということだ。

Seo.aiはこの予測をさらに推し進め、2030年までに全世界で約8億の仕事が人工知能に取って代わられる可能性があると見積もっている。この来るべきシフトに備えるため、今後3年間で1億2,000万人以上の労働者が再教育を受けると予想されている。

どの職業が自動化の影響を受けやすく、どの職業が自動化の脅威にさらされにくいかを知りたい方は、こちらの記事をご覧ください

誤った情報

最も高度な大規模言語モデルであっても、誤った情報や無意味な情報を生成する可能性がある。これらのエラー(幻覚)は、多くの場合、モデルが真の理解や推論ではなく、訓練されたデータの統計的パターンに依存した結果である。

つまり、チャットボットは時として事実をでっち上げることがあるのだ。これは2023年、ニューヨークの弁護士が人身傷害事件の法的調査にChatGPTを使用したことで大問題になったことで明らかになった。彼は10ページに及ぶ準備書面を作成し、いくつかの過去の判例を参照したが、そのすべてがチャットボットによって完全に捏造されたものであることが証明された。その結果、この弁護士と同僚は連邦判事から制裁を受け、それぞれ5000ドルの罰金を科された。

2024年には、さらに別のニューヨークの弁護士が、人工知能が作成した存在しない判例を引用したとして懲戒処分を受けた。

幻覚を見る人工知能

もう一つの例は、主にプログラマーや開発者が技術的な質問をしたり、コーディングの問題で助けを求めたり、プログラミング・コミュニティ内で知識を共有したりするために利用する質問と回答のウェブサイト、Stack Overflowだ。

このサイトでは、生成AIの使用をすべて禁止せざるを得なかった。なぜなら、さまざまなチャットボットからの回答の平均的な正解率が低すぎたからだ。

ソーシャル操作

ソーシャルメディアプラットフォームは最近、非常に多くのコンテンツで溢れかえっており、そのすべてに追いつくのに圧倒されることがある。そこでアルゴリズムによるキュレーションの出番だ。これは基本的に、すべてのノイズをふるいにかけ、過去の行動に基づいてユーザーが最も興味を持ちそうなコンテンツを提示するのに役立つ。これは、無限の情報の流れを管理するのに役立つ一方で、プラットフォームがユーザーの見るものやインタラクションを形成する上で多くのコントロールを持っていることを意味する。

しかし、誰かのニュースフィードに表示されるものを変えることは、その人の気分や世界全般の見方に影響を与える可能性がある。2012年1月、フェイスブックのデータ科学者たちは、ニュースフィードのキュレーションに関する決定が、ユーザーの幸福度をどのように変化させるかを実証した。2021年1月に米国連邦議会議事堂で起きた事件は、誰かのソーシャルメディア消費が過激化にどのような役割を果たすかをさらに浮き彫りにした。

さらに、センセーショナルなものはユーザーを長時間夢中にさせる傾向があるため、アルゴリズムがエンゲージメントを高めるために、ユーザーを挑発的で有害なコンテンツに不用意に誘導する可能性がある。ユーザーの興味に基づいたコンテンツを提案することさえ問題になりうる。多様な視点に触れさせるのではなく、「フィルターバブル」の中にユーザーの信念をさらに定着させてしまう可能性があるからだ。これは結局、ユーザー間の偏向を強める結果になりかねない。

泡の中の人々

私たちが意思決定権をプラットフォームに委ねるということは、実質的に私たちが何を見るかをコントロールする権限を与えるということだ。高度なアルゴリズムを持つソーシャルメディアは、私たちの好みや考えを理解することで、ターゲットを絞ったマーケティングを得意としている。最近の調査では、2016年のアメリカ大統領選挙やイギリスのブレグジット国民投票のような主要な政治イベントに影響を与えるために、5000万人のフェイスブックユーザーのデータを使用したケンブリッジ・アナリティカと同様の企業の役割が調査されている。これらの疑惑が真実であると証明されれば、社会を操作するAIの可能性が浮き彫りになる。より最近の例では、フェルディナンド・マルコスJr.が2022年のフィリピン大統領選挙で若い有権者に揺さぶりをかけるためにTikTokのトロール軍団を利用した。個人データとアルゴリズムを活用することで、AIは事実であれ虚構であれ、特定のプロパガンダで効果的に個人をターゲットにすることができる。

ディープフェイク

ディープフェイク(Deepfakes)とは、デジタル処理で加工された動画や画像で、実際には言っていないことややっていないことを、個人が言ったりやったりしている様子をリアルに描写することを指す。この技術は、ディープラーニング・アルゴリズムを用いて既存の映像や音声を操作し、説得力のあるフェイク・コンテンツを作成する。

「何が本当で何が嘘なのか、誰にもわからない」と未来学者のマーティン・フォードは言う。「つまり、文字通り、自分の目や耳を信じることができない、歴史的に最良の証拠と考えられてきたものに頼ることができない、という状況になる。これは大きな問題になるだろう」。

ディープフェイクが危険視される主な理由のひとつは、悪意のある目的に使われる可能性があることだ。例えば、ディープフェイクは、法的な事件で偽の証拠ビデオを作成したり、犯してもいない犯罪で個人に濡れ衣を着せたり、あるいは政治家になりすまして偽の情報を流したりするのに使われる可能性がある。このようにメディアを操作することで、ディープフェイクは従来の情報源に対する信頼を失墜させ、社会に混乱と不和をまき散らす力を持っている。

合成メディアを検出するツールに取り組んでいるDeepMedia社によると、2023年には世界で50万件のディープフェイクがソーシャルメディアサイトに投稿されたという。2022年と比較すると、動画のディープフェイクは3倍、音声のディープフェイクは8倍になる。

最近のディープフェイクの悪意ある使用例としては、有名人の顔を本人の同意なしにポルノ動画にデジタル挿入する偽セレブポルノの作成などがある。さらに、株価の操作、個人の中傷、政治的プロパガンダの拡散にディープフェイク動画が使われた例もある。これらの例は、ディープフェイクが有害で欺瞞的な目的に利用される可能性を浮き彫りにしている。

サイバー犯罪

サイバー犯罪には、デジタル機器やネットワークを利用した多種多様な犯罪行為が含まれる。これらの犯罪には、詐欺、個人情報の窃盗、データ侵害、コンピュータ・ウィルス、詐欺、その他の悪質な行為を行うためにテクノロジーを利用することが含まれる。サイバー犯罪者は、コンピュータ・システムやネットワークの弱点を突いて不正アクセスを行い、機密情報を盗み、サービスを妨害し、個人、組織、政府に損害を与えます。

攻撃者は、自動化されたフィッシング攻撃、なりすまし攻撃、ソーシャル・エンジニアリング攻撃、偽のカスタマー・サポート・チャットボットのために、ChatGPT、Dall-E、Midjourneyのような容易に入手可能なAIツールをますます活用するようになっています。

SlashNext State of Phishing Report 2023によると、悪質なフィッシングメールが1265%も急増しており、その主な原因は標的型攻撃にAIツールが使用されていることにある。

なりすまし攻撃はますます一般的になっている。詐欺師はChatGPTやその他のツールを使って実在の個人や組織になりすまし、個人情報の窃盗や詐欺に手を染めている。フィッシング攻撃と同様に、チャットボットを利用して、信頼できる友人や同僚、家族を装って音声メッセージを送信し、個人情報やアカウントへのアクセスを取得する。2019年3月の注目すべき事例では、ドイツのエネルギー企業の英国子会社のトップが、CEOの声を模倣した詐欺師の被害に遭い、ハンガリーの銀行口座に約20万ポンド(約243,000ドル)が振り込まれた。資金はその後メキシコに移動し、複数の場所に分散された。捜査当局は容疑者を特定していない。

サイバー犯罪と刑罰

2023年、インターネット犯罪苦情センター(IC3)には、アメリカ国民から前例のない数の苦情が寄せられた:合計880,418件の苦情が寄せられ、潜在的な損失額は125億ドルを超えた。これは、2022年と比較して、苦情受付件数が10%近く増加し、損失額が22%増加したことを意味する。こうした驚異的な数字にもかかわらず、2023年におけるサイバー犯罪の真の範囲を過小評価している可能性が高いことに注意する必要がある。例えば、FBIが最近Hiveというランサムウェア・グループを解体した際、Hiveの被害者のうち法執行機関に犯罪を報告したのは約20%に過ぎないことが判明した。

プライバシーの侵害

社会的監視の典型的な例は、中国がオフィスや学校などで顔認識技術を使用していることだ。この技術は、個人の動きを追跡することを可能にするだけでなく、政府が個人の行動、活動、人間関係、思想信条を監視するための広範なデータを収集することを可能にする可能性がある。

今や個人は、オンラインでも日常生活でも監視されるようになった。信号無視、禁煙エリアでの喫煙、ビデオゲームのプレイ時間など、国民一人ひとりの行動が評価される。各行動が社会的信用システム内の個人スコアに影響すると想像してみてほしい。

ビッグブラザーがあなたを監視し、その情報に基づいて決断を下すとしたら、それはプライバシーの侵害であるだけでなく、たちまち社会的抑圧に変わりかねない。

金融危機

今日の金融界では、機械学習アルゴリズムの利用が広まっており、ヘッジファンドや投資会社は株式や資産の分析にこれらのモデルに大きく依存している。これらのアルゴリズムには、常に膨大な量の従来データや代替データが投入され、売買の意思決定が行われている。しかし、アルゴリズム取引が次の大きな金融危機の引き金になる可能性があるとの懸念が高まっている。

2010年のフラッシュ・クラッシュ。6000億ドルが20分で蒸発

2010年のフラッシュ・クラッシュ。6000億ドルが20分で蒸発

欠陥のあるアルゴリズムの危険性を示す顕著な例として、2010年のフラッシュ・クラッシュがある。株価指数は同日中に部分的に反発したものの、フラッシュ・クラッシュは1兆ドル近い市場価値を消し去った。この突然の大幅な値下がりは、自動取引アルゴリズムが予測不可能な方法で市場の状況に反応したことが主な原因だった。また、2012年のナイト・キャピタルのフラッシュ・クラッシュでは、アルゴリズムの誤作動により、同社はわずか45分間で4億4000万ドルの損失を出し、最終的に同社は消滅した。

これらの暴落は、金融市場におけるアルゴリズム取引がもたらす潜在的なリスクを思い知らされる結果となった。アルゴリズムが適切に設計され、テストされ、監視されていない場合、壊滅的な結果をもたらす可能性がある。金融機関はアルゴリズムを徹底的に検証し、今後同様の災害が発生しないよう、適切なリスク管理を徹底することが極めて重要である。

殺人ロボット

人工知能(AI)を搭載した自律型兵器は、長い間、政府、軍関係者、人権擁護者の間で議論され、懸念されてきた。殺人ロボット」や「致死的自律兵器」とも呼ばれるこれらのシステムは、人間の介入なしに独自に標的を選択し、交戦する能力を持つ。これらの兵器は人間の監視なしに生死を決定する可能性があるため、倫理的、法的、安全保障上の重大な懸念が生じる。

近年、AI技術の高度化と普及に伴い、自律型兵器の開発が加速している。これらの兵器は、無人偵察機から、自律的に目標を特定し攻撃できる地上ベースのシステムまで、多岐にわたる。自律型兵器の支持者は、紛争地での人的被害を減らし、より正確で効率的な軍事作戦を提供できると主張している。しかし、批評家たちは、これらのシステムは深刻な倫理的問題を引き起こし、紛争の激化や民間人の犠牲など、意図しない結果をもたらす可能性があると主張している。

AIを搭載した自律型兵器がもたらす危険は非常に現実的だ。これらのシステムはハッキングされたり誤作動を起こしたりする可能性があり、意図しない結果を招いたり制御不能に陥ったりする。さらに、意思決定における人間の監視が欠如しているため、説明責任や国際人道法違反の可能性が懸念される。

SFにおける殺人ロボット

2020年、30カ国以上が、機械が生死を決定する可能性への懸念を理由に、殺傷能力のある自律型兵器の禁止を求めた。こうした懸念にもかかわらず、AIを搭載した自律型兵器の開発と配備は進み続けている。米国、ロシア、中国、イスラエルといった国々は、こうした技術に多額の投資を行っていることで知られている。米国では、国防総省が半自律型無人機や無人地上車両を含む自律型兵器システムを開発している。

制御不能な超知能

人工知能は、計算速度、内部通信速度、スケーラビリティ、メモリ容量、信頼性、複製可能性、編集可能性、メモリ共有、学習能力など、さまざまな点で人間の脳を凌駕している:

  • AIは、生物学的ニューロンの200Hzの限界に比べ、潜在的に数GHzで動作する。
  • 軸索は秒速120mで信号を伝達するが、コンピューターは電気や光の速度で伝達する。
  • 脳の大きさや社会的コミュニケーションの効率に制限される人間の知能とは異なり、AIはハードウェアを追加することで容易に拡張できる。
  • 人間のワーキングメモリーは、AIの膨大なメモリー容量に比べると限られている。
  • AIのトランジスタの信頼性は生物学的ニューロンのそれを凌ぎ、より高い精度とより少ない冗長性を可能にする。
  • AIのモデルは簡単に複製、修正することができ、人間よりも効率的に他のAIの経験から学ぶことができる。

いつの日かAIは人間を遥かに凌ぐ知能レベルに達し、知能の爆発と呼ばれる現象が起こるかもしれない。

超知能と人類絶滅

AIが指数関数的な速度で自己改良を続けるという、この再帰的自己改良の考え方は、超知的な存在を作り出すことの潜在的な結果についての懸念を呼び起こした。AIが、考え得るあらゆる方法で人間を凌駕し、人間を凌駕する知能レベルに到達するシナリオを想像してみてほしい。この超知能は、私たちの社会や生活様式に大きな影響を与える決定を下す力を持つ可能性がある。現在、人間が多くの種の運命を握っているように、人類の運命もいつの日か超知能AIの手に委ねられるかもしれない。

AIへの過度の依存と法的責任

AI技術への過度の依存は、社会の特定の分野における人間の影響力や機能を低下させる可能性がある。例えば、AIを医療に活用すれば、人間の共感力や理性が低下する可能性がある。さらに、創造的な追求にジェネレーティブAIを活用することは、人間の創造性や感情表現を抑制する可能性がある。また、AIシステムとの過度の相互作用は、仲間とのコミュニケーションや社会的スキルの低下につながる可能性もある。AIは作業の自動化には有益だが、人間の知能や能力、共同体意識全般への影響については懸念がある。

さらに、人間に物理的な危害をもたらす潜在的な危険性もある。例えば、企業が他の検証なしにAIによるメンテナンススケジュールの予測だけに頼った場合、機械の故障を招き、作業員に危害が及ぶ可能性がある。ヘルスケアでは、AIモデルが誤診を引き起こす可能性がある。

物理的な危害に加えて、適切に規制されなければAIが人間にリスクをもたらす可能性のある非物理的な方法もある。これには、中傷や名誉毀損のようなデジタルの安全性の問題、金融推薦や信用調査におけるAIの悪用のような金融の安全性の問題、様々なプログラムにおける不当な拒否や受け入れにつながるAIの偏見に関する公平性の問題などが含まれる。

また、何か問題が発生した場合、誰が責任を負うべきなのだろうか?AIそのものなのか、AIを開発した開発者なのか、AIを使用した企業なのか、それとも人間が関与した場合はオペレーターなのか?

* * *

結論として、人工知能には多くのリスクや脅威が伴う一方で、社会に大きな利益をもたらし、私たちの生活を向上させる可能性もある。AI技術に関しては、良いことが悪いことを上回ることが多いことを認識することが重要である。次回は、AIに関連するリスクを軽減し、私たちがその可能性を十分に活用してポジティブな変化をもたらすための戦略について解説する。