OpenAI o1の衝撃~1位:ASI、2位:人間、3位:猿~
■人工超知能への道
とうとう、人間はお猿さんに格下げ?
なんのことかって?
地球上の食物連鎖の話です。
1位はASI(人工超知能)、2位は人間、3位はお猿さん・・・ただし、2位以下の序列は忘れていい。地球のルールを決めるのは1位だけ、その他は十把一絡げで支配されるだけなので。これまで、人間が格下の動物に何をしてきたか、思い出そう。
ヒドい話だが、皮肉でも、もののたとえでも、SFでもない、2030年まで到来するリアルな世界だ。
AIの殿堂「オープンAI」の元研究員レオポルド・アッシェンブレナーは、こんなメッセージを発している。
「2027年にAGI(人工汎用知能)、それから1年以内にASI(人工超知能)が誕生する」
一方、オープンAIのサム・アルトマンCEOは控え目だ。
2024年9月23日、自身のブログでこう発信している。
「ASIは数千日以内に誕生するかもしれない」
というわけで、ASIが誕生するまで、あと数年か十数年か?
かなり差があるが、一つ確かなことがある。今生きている人のほとんどが、ASIを目撃すること(個人的には見たくないです)。
では、あらためて、ASIは、数年、十数年、どっち?
サム・アルトマンは、事実を隠蔽している可能性がある。
というのも、彼は2つの顔をもっている。
大金持ちへの顔・・・オープンAIのAIは、世界を変える大発明なので、ウチに投資してださい!(2024年10月2日、約1兆円を追加調達)
一般大衆への顔・・・AIは人類に危害をくわえるほどの大発明ではないので、警戒しないでください!
どっちやねん?
あからさまな二律背反だが、これには理由(わけ)がある。
彼には苦い経験があるのだ。
■サム・アルトマン解任劇
2023年11月、サム・アルトマンは、突如、オープンAIのCEOを解任された。
すると、こんな噂が・・・
オープンAIで、極秘プロジェクト「Q*(キュースター)」が進行中である。詳細は不明だが(だから極秘)、論理的思考する画期的なAI!?
2023年にブレイクしたChatGPT(生成AI)は、国語は得意だが、数学、物理学、プログラミングのような「論理的思考」は苦手。というか、そもそも論理的思考の「仕掛け」がない。ところが、Q*はそれが備わっているというのだ。
一方、オープンAIの理事会は、Q*プロジェクトに危機感をもっていた。CEOのサム・アルトマンは前のめりだが、Q*は人類に危害を加える可能性があると判断したのだ。そこで、Q*にブレーキをかけるべく、サム・アルトマンを解任したのである。
この時点では、噂の域をでなかったが、今となれば事実だった可能性が高い。
ところで、「理事会」が、会社のトップ「CEO」を解任できる?
イエス。
理事会は、株式会社の取締役会にあたる最高経営意思決定機関だから。
オープンAIは会社では?
ちょっとややこしいので、手短に説明する。
オープンAIは、営利法人と非営利法人の二重構造になっている。
営利法人は利益追求はOKだが、非営利法人はNG、というわけではない。非営利法人も金儲けができるのだ。
ただし、一つ大きな違いがある。
営利法人は、利益がでたら、株主へ「配当金」として利益分配することができる(しなくてもいい)。残りを「利益余剰金」として積み上げるわけだ。
一方、非営利法人は、株主が存在しないので、株主に配当する必要がない。利益はすべて利益余剰金に上乗せされるわけだ。
ここでいう利益は「純利益」で、社員の給与などの経費や税金を売上から差し引いたもの。つまり、非営利法人も、人件費は経費として認められるわけだ。
であれば、非営利法人の方がいいのでは?
そうでもない。
株主配当がないので、誰も投資してくれない。
だってそうではないか。
強欲な投資家が、見返りがないのに出資しますか?
しません。
早い話、非営利法人への出資は「投資」ではなく「寄付」なのだ。
もし、出資する者がいたとしたら、お金よりもっと恐ろしいものを狙っている。コワイコワイ・・・
というわけで、非営利法人は資金調達が難しい。AIビジネスのような「ん兆円」の大金食い虫は、非営利団体ではムリなのだ。
ではなぜ、オープンAIは営利法人にしなかったのか?
創業時に「人類の利益のためのAI開発」を掲げたから。
崇高で素晴らしい理念だが、AIは大金食い虫なので、きれいごとばかり言っていられない。
そこで、オープンAIは、非営利法人「OpenAI, Inc.」の配下に、営利法人「OpenAI LLC」と「OpenAI GP LLC」をおいた。営利法人がAIの開発と資金調達を担当し、非営利法人がそれを監視・監督するのである。
手短に説明するといいながら、ずいぶん長くなったが、これでも最短とご理解ください。
さて、営利法人(会社)の取締役会にあたるのが、非営利団体の理事会だ。
つまり、理事会がオープンAI全体の最高経営意思決定機関だったのだ。だから、非営利団体の理事会が、営利法人CEOのサム・アルトマンを解任できたのである。
ところが、話はこれで終わらなかった。
オープンAIの社員がこれに猛反対、サム・アルトマンをCEOにもどせ、さもないと、俺たちが辞める、と理事会を脅したのである。
これに大喜びしたのがマイクロソフトのナデラCEOだ。オープンAIを辞める社員を、全員引き取ると宣言したのだ。もちろん、善意ではない。世界最強のAI開発集団をタダ同然でゲットできるのだ(維持費はかかる)。これを漁夫の利といわず、なんという。
ところが、ナデラCEOの夢ははかなく消えた。サム・アルトマンは、オープンAIのCEOに返り咲いたのである。すべて、元の鞘(さや)に戻ったわけだ。
それはそうだろう。
AIモデルのような技術基盤を開発する会社は、人材がすべてといっていい。理事会は、たしかに会社で一番偉いが、中身が空っぽになれば、会社に価値はない。なんの価値もない会社で、一番偉いといわれても・・・
ではなぜ、オープンAIの社員はサム・アルトマンを支持したのか?
理由は説明するまでもない。
とはいえ、それでは身もフタもないから、説明する。
社員にしてみれば、Q*の開発に成功すれば「俺たちが世界を変えたんだ!」と生きている実感が得られる。さらに、給与やストックオプションなど報酬も期待できるだろう。そんな黄金のトロフィーを目の当たりすれば、Q*が社会を害しようが、人類を滅ぼそうが、知ったこっちゃない。万一、良心の呵責を感じたら、自分たちがやらなくても他の誰かがやる、というありがちな理屈でナットクできるだろう。
一方、サム・アルトマンはこの事件で重要な教訓を得た。
人間はリスクを怖がる生き物である。自分が恩恵をうければ、目をつぶるが、オープンAIの理事会のように良心に従う者もいるのだと。
というわけで、サム・アルトマンは2つの顔をもつ。
だから、彼の発言は鵜呑みにはできない。
一方、アッシェンブレナーが発信するメッセージは、若さゆえの純粋な「真実を伝えたい」を感じるが、だからといって、それが真実とは限らない。勘違いしている可能性もあるからだ。
■AGIへのロードマップ
話をもどそう。
ASIの誕生は、数年後か十数年後か?
数年後だろう。
つまり、AGI誕生から、1年以内。
以下その根拠をしめす。
ASIへの道は、まずAGIから。
AGIに至るロードマップは、オープンAIが公開している。5段階をへて、AGIに達するという。
第1段階(チャットボット):言葉を巧みに操るAIで、国語が得意。ただし、論理的思考が基本できない。
第2段階(論理的思考):論理的思考が可能で、数学、物理、プログラミングが得意。
第3段階(エージェント):大きな目標を与えるだけで、自分で段取りして(プロセスに分解)、一つづつ処理する。
第4段階(発明・発見):新しい発見・発明をする。
第5段階(組織管理):組織のすべての業務(分野もフォーマットも異なるタスク)を一気通貫で処理する。
まず、第1段階(チャットボット)は、2022年11月、ChatGPTによって達成された。
つぎに、第2段階(論理的思考)。
個人的にはココが最難関と考えていた。
チャットボットは、学習したテキストから、言葉をそれらしくつむいで回答する。一方、論理的思考は、筋道立てて、理詰めで考えて、回答する。つまり、暗記科目と数学・物理の違いがあるわけだ。
三角形の面積を求める問題を考えてみよう。
底辺10センチ、高さ10センチの三角形の面積は?
まず、第1段階(チャットボット)なら・・・
学習したテキストに、たまたま同じような問題があったら、「覚えている」答えを返す。つまり、数学ではなく国語で解くわけだ。当然、同じような問題がなかったら、間違える、それも自信たっぷりに。これが有名な「ハルシネーション」だ。
一方、第2段階(論理的思考)なら・・・
①公式を探す。
②公式に数値を代入する。
③計算する。
実際に計算するので、正しい答えを返す。
ところが、「①~③の各プロセスを処理する」のはカンタンだが、「①~③の各プロセスに分解する」のは難しい(人間ならカンタンだが)。というのも、プログラムは、データ処理は得意だが、プロセス(アルゴリズム)を動的に生成することはできない。プログラムを書く汎用的なプログラムを作るのはムリと、プログラマーは感覚的に知っている。
サム・アルトマンも、こう言っている(2024年1月)。
「我々が追求するべき最も重要な進化の方向は『論理的思考』である。GPT-4では、まだ限定的な『論理的思考』しかできていない」
うーん、本当のことを言っている。
論理的思考は、「個々に」やるのは難しくないが、「汎用的」にやるのはムリ。見方を変えれば、現在主流のノイマン型コンピュータは、アルゴリズム(処理手順)を自動生成するのは至難なのだ。
■OpenAI o1 爆誕
2024年9月13日、オープンAIは「OpenAI o1(オーワン)」をリリースした。
正直、仰天した。
最難関と信じていた第2段階(論理的思考)が突破されたのだ。
ただし、突然というわけではない。
じつは、オープンAIの極秘プロジェクト「Q*(キュースター)」は、o1のことだったのだ。
では、困難な論理的思考を、どうやって実現したのか?
ここだけ(オープンAI)の秘密です。
陽気にはぐらかすつもりはない、本当なのだ。
前述したように、オープンAIの創業理念は「人類の利益のためのAI開発」。だから、非営利法人が営利法人の上位におかれたのである。
ところが、2024年9月25日、OpenAIは、非営利法人から営利法人に全面移行する計画であると発表した。金の亡者になった?と悪くとらえていけない。単純に、AGI開発には莫大な資金が必要なのだ。
さらに気になることが。
ChatGPTは、チューリングテストを突破した最初のAIだが、基本原理は公開されている。キーテクノロジーの「トランスフォーマー」の論文は公開されているのだ。ところが、最近、AIは論文が公開されず、秘密裡に開発がすすんでいる。AGIは、企業、国家どころか、人類の存続をかけた最大の安全保障案件だから当然だろう。
何が言いたいのか?
オープンAIにかぎらず、AI業界はオープンからクローズにシフトしている。
OpenAI o1は、ChatGPTよりはるかに強力なAIだ。
覚えていることから答える「考えないAI」から、理詰めで論理思考する「考えるAI」に進化したのだから。
では、o1はどうやって「考える」のか?
「思考の連鎖(Chain of Thought)」を使う。
三角形の面積を求めたように、タスクを複数のプロセスに分割し、1つづつ処理する。難しい問題も、細かく刻んで、理詰めで考えれば、解けるといわけだ。
事実、o1は、物理学、化学、生物学では博士課程の学生レベル、数学は、国際数学オリンピックの予選試験で83%の正答率、プログラムのコーディングはプロラミング競技で、上位11%に入ったという。o1は原始的なレベルながら、汎用的な論理思考に一歩踏み出したことは間違いない。
次は、第3段階(エージェント)だ。
大きな目標を与えるだけで、自分で段取りして(プロセスに分解)、一つづつ処理する・・・難しい問題も、細かく刻んで、理詰めで考えれば、解ける・・・o1の得意技ではないか!
というわけで、間をおかず、突破されるだろう。
さらに、第4段階(発明・発見)は、論理的思考のカタマリなので、これもo1の範疇だ。
でも、o1は、まだ博士課程の学生レベルです。
じつは、現在のo1は、2つのモデルがある。「o1-preview」と「o1-mini」だ。o1-miniは、その名のとおり、軽量化・高速化したバージョンだが、「o1-preview」が気になる。「preview」は「予告編」を意味するからだ。つまり、今後、「o1-本編」が登場するのだ。
というわけで、o1は今後「o1-本編」に進化し、第3段階~第4段階を一気に駆け上がるだろう。
それを裏付ける驚くべき情報が、発信された。
ある宇宙物理学者が、宇宙の観測データを分析するプログラムを、1年かけてPythonで書いた。彼は、o1-previewに興味を持ったので、宇宙物理学の論文を読ませ、それから宇宙の観測データを分析するプログラムを書くよう命じた。すると、実行時にエラーが発生。そこで、エラーをo1-previewに読ませたら、バグを修正し、完成させたという。論文を読ませて、プログラムが完成するまで「1時間」。
学者が1年かかったプログラムを、たった1時間で!?
じつは、もっと驚嘆すべきことがある。
o1-previewに論文を読ませたら、プログラムを書いたということは・・・学術論文を理解している!
o1は、間をおかず論文も書くようになるだろう。
当初は、1.5流か2流の論文だろうが、書くスピードがハンパないので、1年に何万本も量産する。人間は読みきれないので、書くこともできない。真打ちの「o1-本編」が出てくれば、科学者・技術者は廃業するだろう。
第5段階(組織管理)は、組織のすべてのタスクを一気通貫でこなすAIである。この第5段階(組織管理)が、第3段階(エージェント)と第4段階(発明・発見)と違うのは、複数の分野を一気通貫で処理できること。これまでのAIは、異なる分野を通して処理できなかったのだ。ところが、論理的思考ができれば、因果関係を解するので、分野をとわない。
ここで結論。
今後、o1-本編が登場すれば、第3段階から第5段階までは、2、3年で突破されるだろう。
AGIの誕生は、2026年~2027年で間違いなさそうだ。
■ASIは手の届くところにある
AGIの先は、人間の知能を凌駕するASI(人工超知能)。
それはいつ?
アッシェンブレナーは、AGI誕生から1年以内という。
ところが、最近、AGI誕生から「数時間」という説が囁かれている。
何桁も違うが、さて、どっち。
おそらく、後者。
精確な計算はムリだが、大雑把な計算をしてみよう。
AIモデルは、巨大なAIスパコンで作る。
2023年にブレイクしたChatGPT(GPT-3)は、エヌビディアのGPU「A100」数千基をフル稼働させて、約300日かかったたという。
2024年末時点のエヌビディアの最新GPUは「ブラックウェル (B100)」だ。演算性能はA100の約30倍といわれる。ブラックウェルで、GPT-3を作るなら、単純計算で10日。ただ、現在、大規模言語モデルをつくるとき、最低数万基のGPUを使うから、その場合、1日で完成。
さらに・・・
アッシェンブレナーは、AGIが発明されたら、AGIを10万個コピーし、同時並行処理でAIモデルを開発するといっている。仮にAGIが10万個とすると、単純計算で「10万個(AGI)×数万基(GPU)=数十億基(GPU)」がフル回転する。
すべて、単純化した計算だが、ChatGPTなら1秒もかからないので、さらに複雑なASIでも「数時間」は妄想とは言い切れない。
だが、別の問題がある。
数十億基のブラックウェルを揃えるのは至難だ。設計するエヌビディアと製造するTSMCにかかっているが、膨大な電力も欠かせない。データセンターに横付けする原子力発電所は、何十基も必要になるだろう。
そこは目をつむり、別の根拠をみてみよう。
サム・アルトマン解任劇に加担したイリヤ・サツケバーだ。
彼は、オープンAIの設立者の一人で、理事会のメンバー、さらにQ*の技術リーダーだったが、バックグランドが凄い。トロント大学教授ジェフリー・ヒントンと共に、畳み込みニューラルネットワークであるAlexNetの共同発明者なのだ。
このAlexNetが、ディープラーニング、大規模言語モデル(生成AI)の基盤となったことは言うまでもない。エヌビディアのジェンスン・ファンCEOも、AlexNetは「AIのビッグバン」と最大級の賛美をおくっている。もっとも、エヌビディアの歴史的成功は、AlexNetなくしてありえなかったのだが。
ちなみに、この業績で、ジェフリー・ヒントンは2018年に「計算機科学のノーベル賞」といわれるチューリング賞、2024年にノーベル物理学賞を受賞している。
そのサツケバーはこう言う、
「ASIは手の届くところにある」
マジか!
サツケバーは、オープンAIを退職し、2024年6月に新会社を設立し、こう宣言した。
「最初の製品は安全なASIであり、それまでは他のことは何もしない」
なんと!
1位はASI(人工超知能)、2位は人間、3位はお猿さん・・・は遠い未来ではなさそうだ。
by R.B