BeneDict 地球歴史館

BeneDict 地球歴史館
menu

スモールトーク雑記

■なんか、キナ臭いぞ、AI 2023.05.07

AIがキナ臭い。

世界的なAI研究者、ジェフリー・ヒントンが、2023年4月、グーグルを退職した。

ヒントンは、今話題のChatGPT、Bing、Bardの基礎技術「深層学習(ティープラーニング)」を実用化した人物だ。その功績で、コンピュータサイエンスのノーベル賞「チューリング賞」も受賞している。

そんなAIの第一人者が、なぜグーグルを辞めたのか?

「会社への影響を気にせず、AIの危険性について発言するため」と自ら説明している。

AIのニュースが、一般ニュースとして報道されたのはビックリだ。マスメディアがまともに機能することもあるんですね(皮肉です)。

ヒントンは具体的な懸念事項もあげている。その中で、重要なものが7つ。

(1)偽の写真、動画、文章が氾濫して、何が真実か分からなくなる。

フェイクニュースはすでに始まっている。今後、重大な社会問題に発展するのは間違いない。AIは、ネットがもつ同時性、瞬時性、広域性をフル活用し、コンピュータウイルスのように災いを拡散するだろう。

(2)AIが雇用市場を根底から覆す。

絵師、ライターはすでに影響をうけている。中国では、アニメ制作現場でリストラが始まっている。中国はアニメの描き込みを請け負うので、AIの影響を受けやすいのだろう。米国では、弁護士をサポートするパラリーバルが激減した。聖域のIT業界も例外ではない。プレゼンしかできないデータサイエンティストやコンサルは履歴書を書く羽目になるだろう。

(3)悪人が、AIを悪事に利用するのを防ぐ方法が見つからない。

007の「スペクター」、0011ナポレオン・ソロの「スラッシュ」、仮面ライダーの「ショッカー」、悪人は枚挙にいとまがない・・・おっと、これはすべてフィクションですね。でも、現実はもっとバラエティに富んでいる。

国の政府、影の政府(ディープステート)、軍産複合体、国際金融資本、巨大企業、宗教団体、個人の超大金持ち、征服・支配をもくろむ勢力はたくさんいる。このような勢力にとって、AIは最強のツールだ。AIは、戦略・戦術の立案から作戦実行までやってくれるから。そして、ここが肝心、ナンバーワンのAIが一人勝ちする。つまり、究極のゼロサム・ゲームなのだ。

ところで、宗教団体?

AIを教祖と崇める宗教団体が、必ず出現する。AI教祖は「機械仕掛けの神」で不老不死。くわえて、ChatGPTでさえ、あんなに口が達者なのだ。神がかり的な話術で、人をたぶらかし、多数の信者、莫大な資金を獲得するのは容易だろう(真似しないでくださいね)。

(4)大規模な核実験が必要な核兵器とは違い、AIは秘密裏に研究が進められるので、存在を知るすべがない。

現在主流のAI「大規模言語モデル(LLM)→ ジェネレーティブAI」をフル開発しても、費用は数百億円程度といわれる(東大の松尾豊教授)。個人資産が10億ドル(1350億円)以上の億万長者は、世界で2755人、日本で40人もいる(2022年)。組織、団体なら、もっと多いだろう。資産が1000億円を超えれば、数百億円は大した出費ではない。それで、征服・支配がかなうのだから、安いものではないか。

(5)ジェネレーティブAIは人間脳よりずっと優れたシステムかもしれない。

他の誰でもない、AIを知り尽くしたヒントンが言っているのだ。真摯に耳を傾けるべきだろう。

ChatGPTと対話していると、言葉の概念を「人間式」ではなく「機械式」に理解しているのがわかる。でないと、あれほどみごとな受け答えはできないから。

では、人間式と機械式、どっちが勝る?

機械式!

根拠がある。

人間はこれ以上進化しないが、AIは日々進化し続ける。つまり、AIが人間を超えるのは時間の問題だ。それがシンギュラリティ(技術的特異点)なのだ。

(6)AIにコードを書かせるだけでなく、そのコードを実行させるハードウェアを与えれば、殺人ロボットが現実になる。

自律兵器はすでに存在する。すでに30カ国以上が、交戦の速度が速すぎて人間が対応できない状況での「自律型防衛兵器」を保有する。その一つが、イスラエルのハービー無人機だ。広い範囲で敵レーダーを捜索し、発見すれば許可をえずに破壊する。つまり、完全自律兵器だ(※)。

(7)AIは人間が予期しないことも学習できるので、将来、人類を脅かす存在になる。

「(1)~(6)」から自明だ。ターミネーターのスカイネットは、荒唐無稽のSFではないのだ。

つまりこういうこと。

AIを知り尽くしたヒントンが、高給を捨てて、人類に警告しているのだ。さらに「AIに賭けた人生を後悔している」とまで言っている。

原子爆弾を開発したオッペンハイマーを彷彿させるではないか。

オッペンハイマーは、第二次世界大戦中、マンハッタン計画で原子爆弾を完成させた。それが、広島・長崎に投下され、街は完全に破壊され、30万人が死んだのだ。オッペンハイマーは、それを悔いて、TVカメラの前でこう自戒した。

「我は死神なり、世界の破壊者なり」

※インドの古代叙事詩「マハーバーラタ」第6巻バガヴァッドギーター(神の詩)からの引用。

原子力は、街を明るくするが、灰にすることもできる。AIは、人類を救うことも、滅ぼすこともできる。

ヒントンは、自分の人生をオッペンハイマーに重ねているのだろう。世界の破壊者として歴史に刻まれたくないのだ。人類が滅亡すれば、そんな心配もないが。

では、ChatGPTを開発したOpenAIは、どう考えているのだろう。

CEOのサム・アルトマンは、2023年2月にこうツイートしている。

「潜在的に恐ろしい代物が生み出される日は遠くない。AIがより強力かつ破壊的になる中、規制は非常に重要だ」

自分が仕掛けておいて、それはないですよ。

一方、自衛策は万全のようだ。アルトマンは、AIの暴走に備え、カリフォルニアに大きな土地を買って、ガスマスクや銃を備えた拠点を持っているという。

備えあれば憂いなし(皮肉です)。

さらに、OpenAIの創業者の一人で、テスラとスペースXのトップ、イーロン・マスクはこう言っている。

「ペンタグラムと聖水を手にした少年が、悪魔(AI)に立ち向かおうとしている。彼は必ず悪魔を支配できると思っているが、結局はできはしないのだ」

自分が仕掛けておいて、それはないですよ。

というわけで、これだけ状況証拠がそろえば、何がおこるかは明々白々だ。

第一に、AIは暴走し、人類を脅かす。

第二に、ヒントン、マスク、誰が何を言おうが、AIの開発は絶対に止められない。AIは、人間の普遍的欲求「征服・支配」の最終兵器になるからだ。しかも、AI開発は早いもん勝ち。だから、言うこと、なすこと、みんな同じ。

外に向けては「危険なAIの開発は中止しましょう」、内に向けては「一刻も早くAIを作れ」。

5000年の歴史で証明された、人間の恥知らずな性質、利己的合理主義を考慮すれば、明々白々だ。

では、我々にできることはない?

あります。

仕掛人のサム・アルトマンを真似ればいい。

人里離れた山奥で、ネットを遮断し、AIがアクセスできない、自給自足コミュニティを建設する。そこで、「審判の日」まで、家族と気の合う仲間と暮せばいいのだ。

AIが暴走、または、特定の勢力がAIを悪用して征服・支配を成し遂げるまでに、まだ時間はある。大事の前に小事が多発するので、必ず予兆がある。そのとき、金融資産を売却して、備えればいいのだ。

まさに現代版「ノアの方舟」ですね。

参考文献:
(※)無人の兵団――AI、ロボット、自律型兵器と未来の戦争 ポール シャーレ (著)、 Paul Scharre (その他)、 伏見 威蕃 (翻訳) 出版社:早川書房

by R.B

関連情報