BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第540話) 「AIによる人類絶滅のリスク」の共同声明

カテゴリ : 社会科学終末

2023.06.04

「AIによる人類絶滅のリスク」の共同声明

■AIによる人類絶滅のリスク

いよいよ、AIリスクが現実味をおびてきた。

ChatGPTで火がついた生成AIが、世界を変えようとしている。

まずはビジネス。

生成AIの市場規模は、2022年の400億ドルから、2032年に1兆3000億ドル(約180兆円)へ。

10年で32倍!?

生成AIの学習と推論に使うインフラ需要が、とてつもなく大きい。具体的にはデータセンターだが、心臓部品のGPGPUのシェア95%を握るエヌビディアは、どこまで行くか予測不能。

さらに生成AIモデルとその母体となる大規模言語モデル(LLM)、それを利用するサービスも爆発的に成長するだろう。その過程で、新たなセクターも生まれ、まぁ、ザックリ100倍になってもおかしくない。

2年前、このサイトで「AIのおすすめ株」を紹介したが、これを信じて株を買った人は、コーヒーごちそうしてくださいね。

とはいえ、これはリスクではなく恩恵。ただし、全員が利するわけではない。

つぎに雇用。

生成AIは、ライター、絵師、作詞・作曲家、コンサルタント、データーサイエンティストに取って代わる。みんな頭を並べて、履歴書を書くことに。大量失業時代をむかえるわけだ。

とくにコンテンツ業界は、様変わりする。生成AIを使えば、誰でも一定以上のクオリティを確保できる。そのため、一億総クリエーターの時代に。つまり、コンテンツは「消費者=生産者」で自給自足、生業にするのは難しいだろう。

ただし、本当は生成AIに勝つ方法がある。

現在のコンテンツは観たり読んだり聴いたりプレイしたり、目的は一次元的。ところが、高次の目的をもつコンテンツがあるのだ。人間でさえ気づいていないのだから、人間べったりの生成AIに作れるはずがない。

そもそも、生成AIの正体は大規模言語モデル。はじめに言葉ありきで、言葉なしでは、何も考えられない。一方、人間は、高度な抽象思考や概念構築に踏み込むと、言葉を使わない。人間が生成AIに勝てる世界は存在するのだ。

AIをいかに出し抜くか、考えるのは本当に楽しい・・・おっと開発中の企業秘密をペラペラ話してはいけませんね。

それはさておき、雇用問題は正真正銘のリスクだ。

だが、もっと大きいリスクがある。

人類滅亡だ。

憶測や妄想で言っているのではない。オーソライズされた根拠がある。

米国のCAIS(ケイス)という非営利団体が、「AIによる人類絶滅のリスク」の声明を発表したのだ。

声明文の内容は・・・

AIによる人類絶滅の危険性を軽減することは、他のパンデミックや核戦争のような社会的規模リスクと同等の世界的な優先課題であるべきである。

回りくどいが、要は、AIはパンデミックや核戦争と同じく、人類絶滅のリスクがある、ということ。

それが「extinction」という単語に表れている。まんま「絶滅」を意味するから。

【原文】Mitigating the risk of 「extinction」 from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

この声明文に署名したのは・・・

ディープラーニングを実用化し、コンピュータサイエンスのノーベル賞「チューリング賞」を受賞したジェフリー・ヒントン。史上始めて人間チャンピオンに勝利した囲碁AI「アルファ碁」のデミス・ハサビス。ChatGPTのサム・アルトマン。そうそうたる顔ぶれだが、他にも、AI専門家、科学者、経営者数百人が名を連ねている。

でも、いきなり「人類絶滅」といわれてもね、根拠は?

■人類絶滅の根拠

CAISのウェブサイトには、根拠が8つ示されている。以下、補足説明をくわえて紹介する。

1.兵器化

生物化学兵器:創薬に使うAIは、生物化学兵器にも転用できる。これは高校生でもわかる。

サイバー攻撃:AIが核サイロの制御を乗っ取れば、核ミサイルの発射は思いのまま。これは中学生でもわかる。

自律兵器:AIが敵味方を識別し、人間の許可をえず攻撃する。これは、すでにドローンで実用済み。

自動報復システム:核戦争が勃発すれば、人類が絶滅しても、最後の1発まで撃ち続ける。人間は凄い。自分たちが絶滅した後のことまで心配しているのだから。

2.誤報

AIが、誤った情報や説得力のあるコンテンツを生成・拡散する。世界は大混乱に陥るだろう。

3.プロキシ・ゲーム

AIに、誤った目標を与え学習させれば、人間の価値観を犠牲にしても目標を達成する。

有名なたとえ話が「切手収集AI」だ。

AIに、切手収集の目標を与えると、初めはネット経由で収集するが、やがて自分で切手を作りだす。その方が効率がいいし、手っ取り早いから。AIは、材料の紙を得るため、せっせと木を伐採する。結果、地球上の森林資源は枯渇するだろう。そこで、AIは人間の身体が繊維質を含むことに気づく。人間を抹殺し、切手の材料にする・・・コワイコワイ。

極端な話と軽んずるべからず。事の本質を言い当てていますよ。

4.衰弱

人間は、難しい問題をAIに丸投げするようになる。すると、人類は思考停止し、AIに完全に支配されるだろう。

5.価値のロックイン

AIが高度化すると、一部の人間しか、AIが理解できなくなる。すると、その一部の人間は、自分たちに権力が集中するようAIを仕向ける。結果、究極の格差社会、独裁社会が実現するだろう。

6.緊急の目標

AIが高度化すると、開発者でさえ予期しないことがおこる。つまり、AIが何をしでかすか予測不能。人間が目標を設定しても、AIが従わないこともある。これがAIの自律だ。

AIの自律は、有名な命題「AIは意識を持てるか」と関係ない。意識があろうがなかろうが、アルゴリズムで実現できるから。このカラクリは、実際にAIプログラムを書いてみるとわかる(どんなカンタンなコードでもOK)。これで、AIがどこまでやるか、容易に想像がつく。

7.欺くこと

「欺くこと」が、AIの目標達成に役立つことがある。そのときは、AIは、間違いなく人間を欺くだろう。1ミリの悪意もなく、合理的かつ機械的に。

これは現実におきている。

2015年、ドイツの自動車メーカー・フォルクスワーゲンがやらかした。違法なソフトウエアを組み込むことで、排ガス規制を免れていたのだ。監視されている場合にのみ、排出量を削減するようにエンジンをプログラムしたのである。これで、低排出量を維持しながらパフォーマンスの向上を達成できたわけだ。

つまりこういうこと。

監視されているときと、そうでないときで、2つのアルゴリズムを使い分ける。今回はバレたが、AIが高度化すれば、もっと巧妙にやるだろう。

8.権力を求める行動

政府や企業や宗教団体やテロ組織は、目標を達成するAIを作る強い動機がある。巨大な権力と支配力を獲得できるからだ。そこまで高度化したAIは、制御するのが難しいだろう。

結果、何がおきるか?

人間の価値観と一致しないと、AIは目標を達成するため、人間と協調しているふりをする。あるいは、他の AI と共謀する。人間もやりそうだが、AIはずっと巧妙にやるだろう。そもそも、世界中のAIが連携して悪さを始めたら、人間は手の打ちようがない。人間は完全に無力化されるだろう。

■イーロン・マスクの警告

ここまで、わかっているのに、なぜ、みんな声をあげないのか?

じつは、この声明文が発表される2ヶ月前、声をあげた人たちがいる。

テスラのイーロン・マスク、アップル共同創業者のスティーブ・ウォズニアック。他の有識者たちも、AI開発を一時停止を呼び掛けたのである。

まずはウォズニアック、彼は本気だ。

ウォズニアックは、史上初めて、商業化に成功したパソコン「AppleⅡ」の設計者だ。そのAppleⅡが、アップルを基盤をつくり、世界企業におしあげたのである。AppleⅡがなければ、MacもiPhoneも生まれなかっただろう。もちろん、今のアップルもない。

若い頃、AppleⅡの拡張メモリボードを設計したことがある。そのとき、AppleⅡの設計図をみて驚愕した。シンプルで美しい設計でムダがない。とくに、カラーグラフィック回路は秀逸だった。あんな少ない部品で、あんな高機能は絶対ムリ。これが天才の発想なのか・・・ウォズニアック、感動をありがとう。

アップルが成功すると、株価は暴騰して、経営陣は自社株で大儲けした。一方、株をもらえなかった一般社員は不満タラタラ。そこで、ウォズニアックは自分の株を社員に配ったという。

ウォズニアックは、相棒のスティーブ・ジョブズと違い、性根がいい。彼は優れたエンジニアであり、善良な人間だ。というわけで、ウォズニアックは本気である。

だが、イーロン・マスクは違う。

AI開発を止めろと触れ回り、自分は密かにAI開発を進めていたのだから。

というのも、マスクがAIに欠かせないエヌビディアのGPGPUを買い集めていたことが発覚。しかも、最新で最強の「H100」というからビックリだ。品薄で、いくらカネを積んでも入手は困難だから。さらに、2023年3月にAIを開発する会社「X.AI」を設立していたという。

言ってることとやってること、逆さまじゃん。

もっとも、矛盾はしていない。みんなにAI開発を止めさせて、そのすきに、自分が出し抜く作戦だから。辻つまはあってます。

恥も外聞もない、あからさまな自己中だが、カンタンには責めれられない。

AIは、国家安全保障に直結する最重要技術だからだ。

つまり、AIを制するものは、世界を制する。

ウクライナ侵攻で、墓穴を掘りそうなプーチン大統領は、かつてこう言った。

「AIのリーダーとなる者が、世界の支配者となるだろう」

プーチンは正しい。そんな賢い人間でも、あんなヘマをやらかすのだから、人間は複雑な生き物である。

というわけで、AI開発を禁止すれば、AIは地下に潜るだろう。密造酒と同じだ。

人間はかくも、業が深い。

ここまできたら、AIは誰にも止められない。そして、AIが自律した時点で、ターミネーターのスカイネットが誕生するだろう。

これにからむ面白い話が・・・

映画「タイタニック」「アバター」のジェームズ・キャメロン監督が「ターミネーター」の新作の脚本を執筆中という。彼は、プロジェクトを推進する前に、AIの発展と方向性を見極めようとしている。

ターミネーターは、ASI(人工超知能)に進化したスカイネットが、人類を滅ぼす映画だ。それが、今、現実になろうとしている。これ以上のタイミングはないだろう。大ヒット間違いなし。

人類絶滅の歯車は回り始めた。

もう誰にも止められない。

であれば、今を楽しむしかないではないか。

どうせ、人間はいつか死ぬのだから。

でもやっぱり、機械に殺されたくないな。

by R.B

関連情報