BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第574話) OpenAI o1の衝撃~1位:ASI、2位:人間、3位:猿~

カテゴリ : 社会科学終末

2024.10.07

OpenAI o1の衝撃~1位:ASI、2位:人間、3位:猿~

■人工超知能への道

とうとう、人間はお猿さんに格下げ?

なんのことかって?

地球上の食物連鎖の話です。

1位はASI(人工超知能)、2位は人間、3位はお猿さん・・・ただし、2位以下の序列は忘れていい。地球のルールを決めるのは1位だけ、その他は十把一絡げで支配されるだけなので。これまで、人間が格下の動物に何をしてきたか、思い出そう。

ヒドい話だが、皮肉でも、もののたとえでも、SFでもない、2030年まで到来するリアルな世界だ。

AIの殿堂「オープンAI」の元研究員レオポルド・アッシェンブレナーは、こんなメッセージを発している。

「2027年にAGI(人工汎用知能)、それから1年以内にASI(人工超知能)が誕生する」

一方、オープンAIのサム・アルトマンCEOは控え目だ。

2024年9月23日、自身のブログでこう発信している。

「ASIは数千日以内に誕生するかもしれない」

というわけで、ASIが誕生するまで、あと数年か十数年か?

かなり差があるが、一つ確かなことがある。今生きている人のほとんどが、ASIを目撃すること(個人的には見たくないです)。

では、あらためて、ASIは、数年、十数年、どっち?

サム・アルトマンは、事実を隠蔽している可能性がある。

というのも、彼は2つの顔をもっている。

大金持ちへの顔・・・オープンAIのAIは、世界を変える大発明なので、ウチに投資してださい!(2024年10月2日、約1兆円を追加調達)

一般大衆への顔・・・AIは人類に危害をくわえるほどの大発明ではないので、警戒しないでください!

どっちやねん?

あからさまな二律背反だが、これには理由(わけ)がある。

彼には苦い経験があるのだ。

■サム・アルトマン解任劇

2023年11月、サム・アルトマンは、突如、オープンAIのCEOを解任された。

すると、こんな噂が・・・

オープンAIで、極秘プロジェクト「Q*(キュースター)」が進行中である。詳細は不明だが(だから極秘)、論理的思考する画期的なAI!?

2023年にブレイクしたChatGPT(生成AI)は、国語は得意だが、数学、物理学、プログラミングのような「論理的思考」は苦手。というか、そもそも論理的思考の「仕掛け」がない。ところが、Q*はそれが備わっているというのだ。

一方、オープンAIの理事会は、Q*プロジェクトに危機感をもっていた。CEOのサム・アルトマンは前のめりだが、Q*は人類に危害を加える可能性があると判断したのだそこで、Q*にブレーキをかけるべく、サム・アルトマンを解任したのである。

この時点では、噂の域をでなかったが、今となれば事実だった可能性が高い。

ところで、「理事会」が、会社のトップ「CEO」を解任できる?

イエス。

理事会は、株式会社の取締役会にあたる最高経営意思決定機関だから。

オープンAIは会社では?

ちょっとややこしいので、手短に説明する。

オープンAIは、営利法人と非営利法人の二重構造になっている。

営利法人は利益追求はOKだが、非営利法人はNG、というわけではない。非営利法人も金儲けができるのだ。

ただし、一つ大きな違いがある。

営利法人は、利益がでたら、株主へ「配当金」として利益分配することができる(しなくてもいい)。残りを「利益余剰金」として積み上げるわけだ。

一方、非営利法人は、株主が存在しないので、株主に配当する必要がない。利益はすべて利益余剰金に上乗せされるわけだ。

ここでいう利益は「純利益」で、社員の給与などの経費や税金を売上から差し引いたもの。つまり、非営利法人も、人件費は経費として認められるわけだ。

であれば、非営利法人の方がいいのでは?

そうでもない。

株主配当がないので、誰も投資してくれない。

だってそうではないか。

強欲な投資家が、見返りがないのに出資しますか?

しません。

早い話、非営利法人への出資は「投資」ではなく「寄付」なのだ。

もし、出資する者がいたとしたら、お金よりもっと恐ろしいものを狙っている。コワイコワイ・・・

というわけで、非営利法人は資金調達が難しい。AIビジネスのような「ん兆円」の大金食い虫は、非営利団体ではムリなのだ。

ではなぜ、オープンAIは営利法人にしなかったのか?

創業時に「人類の利益のためのAI開発」を掲げたから。

崇高で素晴らしい理念だが、AIは大金食い虫なので、きれいごとばかり言っていられない。

そこで、オープンAIは、非営利法人「OpenAI, Inc.」の配下に、営利法人「OpenAI LLC」と「OpenAI GP LLC」をおいた。営利法人がAIの開発と資金調達を担当し、非営利法人がそれを監視・監督するのである。

手短に説明するといいながら、ずいぶん長くなったが、これでも最短とご理解ください。

さて、営利法人(会社)の取締役会にあたるのが、非営利団体の理事会だ。

つまり、理事会がオープンAI全体の最高経営意思決定機関だったのだ。だから、非営利団体の理事会が、営利法人CEOのサム・アルトマンを解任できたのである。

ところが、話はこれで終わらなかった。

オープンAIの社員がこれに猛反対、サム・アルトマンをCEOにもどせ、さもないと、俺たちが辞める、と理事会を脅したのである。

これに大喜びしたのがマイクロソフトのナデラCEOだ。オープンAIを辞める社員を、全員引き取ると宣言したのだ。もちろん、善意ではない。世界最強のAI開発集団をタダ同然でゲットできるのだ(維持費はかかる)。これを漁夫の利といわず、なんという。

ところが、ナデラCEOの夢ははかなく消えた。サム・アルトマンは、オープンAIのCEOに返り咲いたのである。すべて、元の鞘(さや)に戻ったわけだ。

それはそうだろう。

AIモデルのような技術基盤を開発する会社は、人材がすべてといっていい。理事会は、たしかに会社で一番偉いが、中身が空っぽになれば、会社に価値はない。なんの価値もない会社で、一番偉いといわれても・・・

ではなぜ、オープンAIの社員はサム・アルトマンを支持したのか?

理由は説明するまでもない。

とはいえ、それでは身もフタもないから、説明する。

社員にしてみれば、Q*の開発に成功すれば「俺たちが世界を変えたんだ!」と生きている実感が得られる。さらに、給与やストックオプションなど報酬も期待できるだろう。そんな黄金のトロフィーを目の当たりすれば、Q*が社会を害しようが、人類を滅ぼそうが、知ったこっちゃない。万一、良心の呵責を感じたら、自分たちがやらなくても他の誰かがやる、というありがちな理屈でナットクできるだろう。

一方、サム・アルトマンはこの事件で重要な教訓を得た。

人間はリスクを怖がる生き物である。自分が恩恵をうければ、目をつぶるが、オープンAIの理事会のように良心に従う者もいるのだと。

というわけで、サム・アルトマンは2つの顔をもつ。

だから、彼の発言は鵜呑みにはできない。

一方、アッシェンブレナーが発信するメッセージは、若さゆえの純粋な「真実を伝えたい」を感じるが、だからといって、それが真実とは限らない。勘違いしている可能性もあるからだ。

■AGIへのロードマップ

話をもどそう。

ASIの誕生は、数年後か十数年後か?

数年後だろう。

つまり、AGI誕生から、1年以内。

以下その根拠をしめす。

ASIへの道は、まずAGIから。

AGIに至るロードマップは、オープンAIが公開している。5段階をへて、AGIに達するという。

第1段階(チャットボット):言葉を巧みに操るAIで、国語が得意。ただし、論理的思考が基本できない。

第2段階(論理的思考):論理的思考が可能で、数学、物理、プログラミングが得意。

第3段階(エージェント):大きな目標を与えるだけで、自分で段取りして(プロセスに分解)、一つづつ処理する。

第4段階(発明・発見):新しい発見・発明をする。

第5段階(組織管理):組織のすべての業務(分野もフォーマットも異なるタスク)を一気通貫で処理する。

まず、第1段階(チャットボット)は、2022年11月、ChatGPTによって達成された。

つぎに、第2段階(論理的思考)。

個人的にはココが最難関と考えていた。

チャットボットは、学習したテキストから、言葉をそれらしくつむいで回答する。一方、論理的思考は、筋道立てて、理詰めで考えて、回答する。つまり、暗記科目と数学・物理の違いがあるわけだ。

三角形の面積を求める問題を考えてみよう。

底辺10センチ、高さ10センチの三角形の面積は?

まず、第1段階(チャットボット)なら・・・

学習したテキストに、たまたま同じような問題があったら、「覚えている」答えを返す。つまり、数学ではなく国語で解くわけだ。当然、同じような問題がなかったら、間違える、それも自信たっぷりに。これが有名な「ハルシネーション」だ。

一方、第2段階(論理的思考)なら・・・

①公式を探す。

②公式に数値を代入する。

③計算する。

実際に計算するので、正しい答えを返す。

ところが、「①~③の各プロセスを処理する」のはカンタンだが、「①~③の各プロセスに分解する」のは難しい(人間ならカンタンだが)。というのも、プログラムは、データ処理は得意だが、プロセス(アルゴリズム)を動的に生成することはできない。プログラムを書く汎用的なプログラムを作るのはムリと、プログラマーは感覚的に知っている。

サム・アルトマンも、こう言っている(2024年1月)。

「我々が追求するべき最も重要な進化の方向は『論理的思考』である。GPT-4では、まだ限定的な『論理的思考』しかできていない」

うーん、本当のことを言っている。

論理的思考は、「個々に」やるのは難しくないが、「汎用的」にやるのはムリ。見方を変えれば、現在主流のノイマン型コンピュータは、アルゴリズム(処理手順)を自動生成するのは至難なのだ。

■OpenAI o1 爆誕

2024年9月13日、オープンAIは「OpenAI o1(オーワン)」をリリースした。

正直、仰天した。

最難関と信じていた第2段階(論理的思考)が突破されたのだ。

ただし、突然というわけではない。

じつは、オープンAIの極秘プロジェクト「Q*(キュースター)」は、o1のことだったのだ。

では、困難な論理的思考を、どうやって実現したのか?

ここだけ(オープンAI)の秘密です。

陽気にはぐらかすつもりはない、本当なのだ。

前述したように、オープンAIの創業理念は「人類の利益のためのAI開発」。だから、非営利法人が営利法人の上位におかれたのである。

ところが、2024年9月25日、OpenAIは、非営利法人から営利法人に全面移行する計画であると発表した。金の亡者になった?と悪くとらえていけない。単純に、AGI開発には莫大な資金が必要なのだ。

さらに気になることが。

ChatGPTは、チューリングテストを突破した最初のAIだが、基本原理は公開されている。キーテクノロジーの「トランスフォーマー」の論文は公開されているのだ。ところが、最近、AIは論文が公開されず、秘密裡に開発がすすんでいる。AGIは、企業、国家どころか、人類の存続をかけた最大の安全保障案件だから当然だろう。

何が言いたいのか?

オープンAIにかぎらず、AI業界はオープンからクローズにシフトしている。

OpenAI o1は、ChatGPTよりはるかに強力なAIだ。

覚えていることから答える「考えないAI」から、理詰めで論理思考する「考えるAI」に進化したのだから。

では、o1はどうやって「考える」のか?

「思考の連鎖(Chain of Thought)」を使う。

三角形の面積を求めたように、タスクを複数のプロセスに分割し、1つづつ処理する。難しい問題も、細かく刻んで、理詰めで考えれば、解けるといわけだ。

事実、o1は、物理学、化学、生物学では博士課程の学生レベル、数学は、国際数学オリンピックの予選試験で83%の正答率、プログラムのコーディングはプロラミング競技で、上位11%に入ったという。o1は原始的なレベルながら、汎用的な論理思考に一歩踏み出したことは間違いない。

次は、第3段階(エージェント)だ。

大きな目標を与えるだけで、自分で段取りして(プロセスに分解)、一つづつ処理する・・・難しい問題も、細かく刻んで、理詰めで考えれば、解ける・・・o1の得意技ではないか!

というわけで、間をおかず、突破されるだろう。

さらに、第4段階(発明・発見)は、論理的思考のカタマリなので、これもo1の範疇だ。

でも、o1は、まだ博士課程の学生レベルです。

じつは、現在のo1は、2つのモデルがある。「o1-preview」と「o1-mini」だ。o1-miniは、その名のとおり、軽量化・高速化したバージョンだが、「o1-preview」が気になる。「preview」は「予告編」を意味するからだ。つまり、今後、「o1-本編」が登場するのだ。

というわけで、o1は今後「o1-本編」に進化し、第3段階~第4段階を一気に駆け上がるだろう。

それを裏付ける驚くべき情報が、発信された。

ある宇宙物理学者が、宇宙の観測データを分析するプログラムを、1年かけてPythonで書いた。彼は、o1-previewに興味を持ったので、宇宙物理学の論文を読ませ、それから宇宙の観測データを分析するプログラムを書くよう命じた。すると、実行時にエラーが発生。そこで、エラーをo1-previewに読ませたら、バグを修正し、完成させたという。論文を読ませて、プログラムが完成するまで「1時間」。

学者が1年かかったプログラムを、たった1時間で!?

じつは、もっと驚嘆すべきことがある。

o1-previewに論文を読ませたら、プログラムを書いたということは・・・学術論文を理解している!

o1は、間をおかず論文も書くようになるだろう。

当初は、1.5流か2流の論文だろうが、書くスピードがハンパないので、1年に何万本も量産する。人間は読みきれないので、書くこともできない。真打ちの「o1-本編」が出てくれば、科学者・技術者は廃業するだろう。

第5段階(組織管理)は、組織のすべてのタスクを一気通貫でこなすAIである。この第5段階(組織管理)が、第3段階(エージェント)と第4段階(発明・発見)と違うのは、複数の分野を一気通貫で処理できること。これまでのAIは、異なる分野を通して処理できなかったのだ。ところが、論理的思考ができれば、因果関係を解するので、分野をとわない。

ここで結論。

今後、o1-本編が登場すれば、第3段階から第5段階までは、2、3年で突破されるだろう。

AGIの誕生は、2026年~2027年で間違いなさそうだ。

■ASIは手の届くところにある

AGIの先は、人間の知能を凌駕するASI(人工超知能)。

それはいつ?

アッシェンブレナーは、AGI誕生から1年以内という。

ところが、最近、AGI誕生から「数時間」という説が囁かれている。

何桁も違うが、さて、どっち。

おそらく、後者。

精確な計算はムリだが、大雑把な計算をしてみよう。

AIモデルは、巨大なAIスパコンで作る。

2023年にブレイクしたChatGPT(GPT-3)は、エヌビディアのGPU「A100」数千基をフル稼働させて、約300日かかったたという。

2024年末時点のエヌビディアの最新GPUは「ブラックウェル (B100)」だ。演算性能はA100の約30倍といわれる。ブラックウェルで、GPT-3を作るなら、単純計算で10日。ただ、現在、大規模言語モデルをつくるとき、最低数万基のGPUを使うから、その場合、1日で完成。

さらに・・・

アッシェンブレナーは、AGIが発明されたら、AGIを10万個コピーし、同時並行処理でAIモデルを開発するといっている。仮にAGIが10万個とすると、単純計算で「10万個(AGI)×数万基(GPU)=数十億基(GPU)」がフル回転する。

すべて、単純化した計算だが、ChatGPTなら1秒もかからないので、さらに複雑なASIでも「数時間」は妄想とは言い切れない。

だが、別の問題がある。

数十億基のブラックウェルを揃えるのは至難だ。設計するエヌビディアと製造するTSMCにかかっているが、膨大な電力も欠かせない。データセンターに横付けする原子力発電所は、何十基も必要になるだろう。

そこは目をつむり、別の根拠をみてみよう。

サム・アルトマン解任劇に加担したイリヤ・サツケバーだ。

彼は、オープンAIの設立者の一人で、理事会のメンバー、さらにQ*の技術リーダーだったが、バックグランドが凄い。トロント大学教授ジェフリー・ヒントンと共に、畳み込みニューラルネットワークであるAlexNetの共同発明者なのだ。

このAlexNetが、ディープラーニング、大規模言語モデル(生成AI)の基盤となったことは言うまでもない。エヌビディアのジェンスン・ファンCEOも、AlexNetは「AIのビッグバン」と最大級の賛美をおくっている。もっとも、エヌビディアの歴史的成功は、AlexNetなくしてありえなかったのだが。

ちなみに、この業績で、ジェフリー・ヒントンは2018年に「計算機科学のノーベル賞」といわれるチューリング賞、2024年にノーベル物理学賞を受賞している。

そのサツケバーはこう言う、

「ASIは手の届くところにある」

マジか!

サツケバーは、オープンAIを退職し、2024年6月に新会社を設立し、こう宣言した。

「最初の製品は安全なASIであり、それまでは他のことは何もしない」

なんと!

1位はASI(人工超知能)、2位は人間、3位はお猿さん・・・は遠い未来ではなさそうだ。

by R.B

関連情報