BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第581話) DeepSeekショック(2)~世紀のフェイクか!?~

カテゴリ : 科学経済

2025.03.17

DeepSeekショック(2)~世紀のフェイクか!?~

■西洋文明 Vs. 中華文明

DeepSeekショックは、中華応援団にとって、心躍るニュースだったに違いない。

この集団は、常々、西洋文明を苦々しく思っていた。

時代はさかのぼって、17世紀、フランスのルネ・デカルトは「機械論的世界観」を夢想した。森羅万象は歯車的な因果関係で成り立つという楽観主義に寄り添う言説だが、マクロ世界では正解(量子力学的なミクロ世界では怪しい)。

これを起点に、機械時計が発明され、機械文明、電気文明、化学文明、原子力文明、コンピュータ文明へと続く・・・問題は、その間ずーっと、西洋にやられっぱなし(日本とタイ以外は植民地にされたし)。西洋以外は科学技術の後進国、それが、人類最後の発明「AI(人工知能)」まで続くと思われた。

たとえば、AIの最高峰「大規模言語モデル(LLM)」をスクラッチ(ゼロから)で作れるのは、OpenAI、Google、Metaぐらい。この米巨大テック企業は、ベンツより高価なAIチップ「GPU」を、カネにあかせて買いまくり、AIスーパーコンピュータを建造、この巨大計算エンジンを大電力でぶんまわし、力ずくでAIモデルをひねりだすのである。

「その他」は指をくわえてみているだけ。GPUは売ってもらえないし、買うお金もない。

くっそー、発明・発見はヒラメキだろ、アイデアだろ、創意工夫だろ、それがカネ次第って、どうゆうこと! 科学技術はもうおしまいだ・・・とかなんとか。

ところが、2025年1月、無名の中国企業が、米巨大テック企業に一泡吹かせたのだ。

中国DeepSeekが、格安・高性能の大規模言語モデル「R1」をリリースしたのである。メディアはすぐに食いついた。大衆の気を引く格好のネタを見つけたのだ(アクセスが稼げる)。

メディアは、ロクに裏を取らず、「ショック」にフォーカスし、センセーショナルに報じた。

いわく・・・

(1)DeepSeek製AI「R1」の性能は、米国製AIを超えた。

(2)DeepSeekの開発方法「低予算&GPU節約」は、米国の「巨額投資&GPU爆買い」に優る。

(3)よって、GPUの需要は激減し、GPUの王者エヌビディアはオワコン。

勇ましい話だが、重要なのは真実か否か?

■AIの心臓「GPU」

まず「GPU」を軽くおさらいしよう。GPUがキーワードになりそうなので。

GPUは、本来、3Dグラフィックを高速描画するための半導体チップである。よって、用途はゲームとCG、ニッチな市場だ。そのトップメーカーがエヌビディアで、そのCEOのジェンスン・ファンはある日、パッと閃いた。2002年のことだ。

GPUは、ゲームやCGだけでなく、科学技術計算にも使えるのではないか?

というのも、3Dグラフィック処理のほとんどが、行列の計算だ。行列とは、複数の要素を一括して扱う手法で、数学の「線形代数」に属する。高校で習うベクトルも、複数の要素を一括して扱えるが、データは1行で1次元。一方、行列は2次元だ。たとえば、m列n行の行列なら(エクセルを思い浮かべて欲しい)、m×n個の要素を一度に扱える。m列n行の行列aとbの足し算は「a+b」と一撃で表せるのだ。これは便利。

ところが、実際に計算するときは、要素がm×n個あるので、m×n回計算しないといけない。普通のコンピュータを使うと、CPU&ソフトの逐次計算になるので、m×n回の計算が必要だ。ところが、GPUなら1回ですむ。なぜなら、GPUはm×n回の計算を「並列処理」できるから。

そして、科学技術計算(特にシミュレーション)も、行列計算のカタマリ。つまり、ゲームもCGも科学技術計算も、やってることは同じ「行列の計算」だ。

であれば、科学技術計算も、CPUよりGPUの方が速いはず・・・とジェンスン・ファンは考えた。これだけ聞くと、誰でも思いつきそうだが、それは結果論。実際、これに気づいたのはエヌビディアのジェンスン・ファンだけだった。

その後の歴史がそれを物語る。

最強のビジョナリー(預言者)のジェンスン・ファンは、行列計算なら何でもつかえる汎用チップ「GPGPU」を商品化したのである。GPUの前の「GP」は「General-Purpose(汎用目的)」・・・まんま。

さて、ここから壮大な物語が始まる。

2010年に、画像認識の精度を競う世界大会「ILSVRC」が始まった。参加者がもちこんだコンピュータシステムに、1000万枚の画像データを学習させ、15万枚の画像データでテストするのである。

そして、2012年の大会で奇跡がおこる。

ジェフリー・ヒントン率いるチームが、驚異的なスコアで優勝したのである。エラー率は15.3%で、2位に10%以上の大差をつけ圧勝だった。これが「AlexNet」で、ヒントンの2024年ノーベル物理学賞受賞につながるのである。

AlexNetの特長は2つ。

第一に、基本構造は人間脳を真似たニューラルネットワークだが、ディープラーニング(深層学習)で層をより深くし、さらに画像処理に最適化した。これを「畳み込みニューラル ネットワーク(CNN)」という。

第二に、一般的なCPUではなく、エヌビディアのGPGPUが採用された。AIモデルの層が深いほど、高性能になるが、そのぶん、行列列計算が爆発的に増える。CPUの逐次計算ではとても間に合わない。そこで、行列を並列計算できる高速なGPGPUが採用されたのである。

ジェンスン・ファンは、これを聞いて小躍りした(たぶん)。

この頃、AIの未来は明るい兆しがあったが、モノクロ低解像度でボンヤリ。ところが、ジェンスン・ファンは、8Kでハッキリ見えたのである。それが「ディープラーニング&GPGPU」だった。

歴史がそれを証明している。

ジェンスン・ファンは、翌年の2013年、役員の反対をおしきって、ゲームからAIへ大転換する。GPUGPUに社運を賭けたのである。この英断が、10年後にエヌビディアを時価総額世界一に導く。

■インテルとエヌビディアの今昔物語

ところで、半導体の絶対王者インテルは?

AIに進出するチャンスを何度も逃し、設計と製造、二兎を追ってどっちも逃し、迷走したあげく、2025年現在、存亡の危機にある。

インテルは、初代CEOのロバート・ノイスから3代目CEOアンドリュー・グローヴまで優れた経営者がつづいた。聡明だが、極度の心配性で、付け入るスキがない。油断のならない相手だ。ところが、その後、技術が見えないCEO、素行に問題があるCEO・・・没落の典型的なパターンだ。

何が言いたいのか?

会社の未来はCEOの資質で決まる。

株式投資する際には注意しよう。

ついでに一言。

9年前、他人に勧め、自分自身も投資したのがエヌビディアとAMDだ。さらに、3年前にパランティア。共通するのは、CEOが並外れて優秀なこと。

エヌビディアのジェンスン・ファンCEOは、未来が見えている。並外れた決断力と行動力を有し、失敗してもすぐに立ち直る。復活の呪文を体得しているのだろう。器が大きく、巨人・毛沢東を彷彿させる。そういえば、ジェンスン・ファンも毛沢東も華人だ。エヌビディアは時価総額世界一を成し遂げたが、それでおわるとは思えない。

9年前、万年赤字のAMDに投資したのは、ひとえにリサ・スーCEOによる。x86の本家本元インテルを破滅に追い込み、天下無双のエヌビディアに挑んでいる。普通なら勝ち目はないが、彼女ならなんとかするかもしれない。土俵をかえて、異形のアドバンテージを確立するとか。彼女は並外れて頭がいい。戦略・戦術は王道をいくが、ディテールは練りに練られ、だれかれ真似できない。ジェンスン・ファンと勝負できるのはリサ・スーぐらいだろう。そういえば、彼女も華人です。

パランティアのアレックス・カープCEOは、不思議な人物だ。哲学の博士号をもつが、どこか俗物っぽい。礼儀をわきまえない経営者とけなす向きもあるが、実績はピカイチ。2020年以降、毎年かかさず、増収増益、みごとな増加直線だ。彼はどんなピンチも、不思議な力で乗り越える、そんなタイプだ。

MicrosoftのナデラCEOは普通に優秀である。Officeからクラウドに方向転換し、AIに出遅れたが、OpenAIに巨額投資し、劣勢を挽回した。ところが、その先が見えていない。AIは行き着くところ、AGIの一番乗りなのに、そこに注力している気配はない。

AppleのクックCEOは、現在も未来も見えていない。Vision Proで大コケし、EVは撤退、Apple TV+は赤字続きで、AIはライバルに周回遅れ。このままではiPhoneも危ない。Google&Android陣営に負けるかも。Appleはいまだにジョブズの遺産で食べているのだ。

Googleは素晴らしい技術とエンジニアを抱え、AIでは圧倒的に有利だ。ところが、ピチャイCEOはそれを活かせていない。ライバルとの混戦から抜け出せないのがその証しだ。Googleはバラバラで統治されていないように見える。Googleの経営資源とビジネスの規模は、ピチャイの器を超えたのだろう。

AIビジネスは、優秀なCEOではダメで、超優秀じゃないと勝ち目はない。それが、10年前、身に沁みた。そこで、コンテンツ開発から投資に方向転換したのである。

とはいえ、投資する側も、もの凄い努力が必要だ。売り物にならなくても、大規模言語モデルを自分でコーディングする気概がないと、真実は見えてこない。大規模言語モデルは、先行する言葉に続く言葉を予測して、文章を紡いでいるだけ、よって言葉の意味は理解できない・・・という理解では、勝者は見えてこない。

話をもどそう。

そんなわけで、今流行のAIチップは「GPU」ではなく「GPGPU」とよぶべきなのだが、気難しい老人は「長いものにはまかれろ」と戒めるから、GPUと呼ぶことにする。たかが呼び方で、あいつは知ったかぶりで嫌な奴だと思われたくないので。

話をもどそう。

(1)~(3)がもし本当なら、DeepSeekショックは、正真正銘のAI革命だ。

では、真実か否か?

全部間違いです。

それでは身もフタもないので、根拠付きで説明しよう。

■中国製AIは米国を超えたか?

まず、DeepSeek-R1は、米国製AIを超えたか?

超えていない。

DeepSeek-R1は、論理的推論も可能な「大規模言語モデル」に属する。対話にくわえ、数学やプログラミングもこなす最高レベルのAIだ。2025年1月時点では、OpenAIの「o1」のみ。ところが、そのo1をR1が超えたというのだ。

では実際は?

ベンチマークの結果をみると、R1は数学でo1を上回るが、プログラミングや多言語対応ではo1に劣る。さらに、論理的推論以外では、o1が優る。

そもそも、o1はOpenAIの古いバージョンだ。2025年1月末にリリースされた最新バージョン「o3」は、o1を凌駕するという。よって、R1に勝ち目なし。

それだけではない。論理的推論が可能な大規模言語モデルは目白押しだ。

まず、イーロン・マスク率いるxAI。

2025年2月17日、大規模言語モデル「Grok3」をリリースした。OpenAIのトップモデル(o3)に追いついたという。毎度のマスク式大風呂敷の可能性もあるが、標準的なベンチマークを見る限り、大ボラとは言えない。

中国勢も負けていない。

DeepSeekでなく、中国の巨大IT企業のアリババだ。2025年3月6日、大規模言語モデル「QwQ-32B」を発表。パラメータ数は320億とコンパクトだが、性能はパラメータ数6710億のDeepSeek-R1に匹敵するという。

どういうこと?

パラメータ数とはAIモデルの大きさをあらわし、脳のニューロンをつなぐシナプス数に該当する。ともに、数が多いほど、配線が複雑になるから賢い、というわけだ。

では、配線が少ないのに賢いとは?

「パラメータ数=配線の数」はハードウェアで、「配線の仕方」はソフトウェア。つまり、ハードは小さいけど、ソフトウェア(アルゴリズム)でがんばって、賢くなったとアピールしているわけだ。

というわけで、大規模言語モデル競争は、抜きつ抜かれつ、一時の優劣はあてにならない。

では、いつの優劣なら、あてになるのか?

AGI(人工汎用知能)が発明された時。つまり、AGIの発明者が最終勝者になる。

では、その後は?

心配無用、人間は関係ないので。

AGIは、再帰的な自己改善で自律進化し、間をおかず、ASI(人工超知能)に達するだろう。つまり、人間は蚊帳の外。ASIは、人間を凌駕する知能をもつから、食物連鎖の頂点にたつ。人間は2位だが、安心できない。2位以下は底辺と同じなので。世界のルールを決めるのは、1位だけです。

では、人間はどうなる?

人間が食物連鎖の頂点にいたとき、下位の動物に何をしたか思い出そう。

思い出したくないので、ここで結論。

大規模言語モデルの優劣は、ドングリの背比べだが、これだけはいえる。

DeepSeek-R1が米国製AIを超えたとは言えない。

■開発コスト1/10の真相

つぎに、DeepSeekの開発手法「低予算&GPU節約」は、米国式「巨額投資&GPU爆買い」に取って代わる?

答えはノー。

話が込み入っているので、一つ一ついこう。

まず、DeepSeekの論文(DeepSeek-V3 TechnicalReport)によると・・・

DeepSeek-R1のベースとなった基盤モデルDeepSeek-V3は、エヌビディアのH800を278万8000時間走らせて、開発したという。1時間のレンタル料金が2ドルとすれば、コストは557万6000ドルになる。

くどくどしているが、要は、DeepSeekの開発コストは600万ドルなり。

一方、OpenAIの「GPT‐4o」の開発コストは8000万ドル~1億ドル。

よって、DeepSeekの開発コストは米巨大テック企業の1/10以下、は間違いなさそうだ。

ところが、こんな反論があがる。

600万ドルは、AIモデルをトレーニング(機械学習)するサーバー代にすぎない。予備実験や人件費が入っていない。比べる数字が違うから、開発コスト1/10はおかしい。

でも、この反論もおかしい。

米巨大テック企業のコストにも、予備実験や人件費は入っていないから。

どっちやねん?

そもそも、この議論は根本が間違っている。

1時間のGPUレンタル料金が・・・レンタル?

大規模言語モデルは、魔法のアルゴリズムで、パパッと完成するわけではない。涙ぐましい試行錯誤の連続だ。レンタル料金に目を光らせ、タイパ、コスパを気にしながら・・・絶対ムリ。

OpenAIのChatGPT 3.5の開発を知る研究者は、そこまでやるか!と驚嘆したほど。これでもかと試行錯誤を繰り返し、運が良ければ成功、という世界なのだ。

事実、米巨大テック企業は、レンタルなんかしない。自前のAIスーパーコンピュータを使う。

だから、真の開発コストは、AIスーパーコンピュータの建造費なのである。

より具体的には、GPUは何個あるか?

まともな大規模言語モデルを開発するには、まともなGPU「A100」クラスが最低1万個必要といわれる。ところが、DeepSeekはパッとしないGPU「H800」2048個使って開発したという。ここで、パッとしないH800とは、エヌビディアが対中禁輸措置を免れるため、作った劣化版GPUだ。

ところが、これと矛盾する話がある。

DeepSeekの梁文峰(リャン・ウェンフォン)CEOによれば、2019年、DeepSeekを創業したとき、A100が1100個しかなかったが、少しづつ買い集め、2021年には1万個を入手していたという。

結局、A100が1万個?

ギリ、もってますね。

とはいえ、米巨大テック企業よりGPUがはるかに少ないことは確かだ。

たとえば、イーロン・マスク率いるxAI。

Grok3の開発(事前学習)で使用した自前のAIスーパーコンピュータ「Colossus」は、エヌビディアの先端GPU「H100 」が20万個!この巨大計算エンジンを、8か月フル稼働させてて、完成したという。GPUのコストだけでほぼ1兆円だ。

ところが、その上がある。

Metaが保有するGPUはなんと60万個!

というわけで、DeppSeekの開発手法が「低予算&節約GPU」は間違いない。

それで、性能がドングリの背比べなら、DeepSeek式が米国式に優るのでは!?

たしかに。

でも、もしそうなら、今ごろ、AI開発はDeepSeek式一色のはず。

ところがそうなっていない。

なぜか?

巨額投資&GPU爆買いは続く

世界のAI開発は「低予算&節約GPU」どころか「巨額投資&GPU爆買い」が加速している。つまり、世界標準は今も米国式なのだ。

論より証拠、米巨大テック企業の4社(Amazon、Google、Microsoft、Meta)のAIインフラの投資額をみてみよう。

2024年の4社の総額は、2,460億ドル(36兆円)で、前年比63%増。

DeepSeekショック後の2025年は、3,200億ドル(48兆円)で、前年比30%増。

ちなみに、4社の中で最高額は、Amazonの1,000億ドル(約15兆円)、最低額はMetaの600億ドル(約9兆円)。一民間企業の設備投資とはとても思えない。

現時点でGPUが1万個、10万個なら、つぎはもう一声、100万個?

もしくは、エヌビディアの最新GPU「Blackwell」でそろえる?

その場合、グレードが高いBlackwell「B200」は1基約1100万円なので(高級ベンツが買える!)、10万個で1兆1000億円、100万個なら11兆円だ。卒倒するような金額だが、米巨大テック企業の投資計画と辻つまが合う。

つまりこういうこと。

DeepSeekショックのあとも、米巨大テック企業は悔い改める気配はない。「巨額投資&GPU爆買い」一直線なのだ

では、DeepSeekは?

巨額投資&GPU爆買いに方針変更

どういうこと?

最近、利用者が急増し、AIインフラがパンク状態で、機能停止の恐れがあるという。そこで、DeepSeekは、中国のベンチャーキャピタルやアリババなどIT大手から資金調達を検討しているという。AIは、学習と推論があって、これは後者の話なのだが、まぁそれはどうでもいい。

安かろうGPU節約はどこへ?

さらに、国レベルでも、AIの巨額投資が目白押しだ。

EUは、今後AI開発に総額2000億ユーロ(30兆円)を投資するという。米国の5000億ドル(75兆円)のAIインフラ計画「スターゲイト」に対抗しているのだ。

じつは、AIインフラには、GPU以外にも課題がある。膨大な電力が必要なのだ。

というのも、GPUは大電力食らい。たとえば、最新GPU「B200」は1基で消費電力が1kw超。エアコンを軽く上回る。これを何万個も稼働させるのだから、電力はいくらあっても足りない。

そこで、原発大国で電力が自慢のフランスが名乗りを上げた。

マクロン大統領は、原子力発電所を活用したAIデーターセンター(AIスパコン)の構築を宣言。アラブ首長国連邦と最大500億ドル(7兆5000億円)のデータセンター建設で合意したという。

というわけで、AI開発は脇目も振らず「巨額投資&GPU爆買い」。あのDeepSeekですら、右へならえ、なのだから。

わかりやすい話がある。

もし、少ないGPUで開発できるなら、より多くのGPUを使えば、もっと良いものが、もっと早くできるのでは。大は小を兼ねるというし、子供でもわかる話ではないか。

くわえて、AGIはタイムマシンと同じで、一番乗りが総取りする。

もっと詳しく!

もし、AGIを発明したら、毎日、何千、何万の発明、発見をさせ、特許を出願して、科学技術を独り占めする。売って儲けるより、使って儲けるタイムマシンビジネスということ。

だから、予算なんて言っていられない。負けたら、それまでの努力も投資も水の泡。だから、米巨大テック企業も、中国も、EUも、フランスもなりふりかまわず「巨額投資」なのである。

ところが、DeepSeekショックでAIが変わる?

巨額投資&GPU爆買いは時代遅れ?

一体何をどう考えたら、そんな結論になるのか?

そもそも、みんな大事なことを忘れている。

AIはハイテク産業ではない、完全無欠の設備産業なのだ。つまり、最後は資本が勝つ。

技術も大事では?

カネで買えないものはない。1ミリの例外はあるだろうが。

よって、結論。

AIの開発方法は、DeepSeek式が米国式に取って代わる・・・は間違い。

では、最後に、GPUの需要は激減し、GPU王者のエヌビディアは衰退するか?

論より証拠、最新のデータをみてみよう。

2025年2月27日、エヌビディアの四半期決算・・・

最新GPU「Blackwell」だけで、1兆6000億円の最高売り上げを記録・・・GPU爆売れ中。

売上高は前年同期比「78%増」、最終利益は前年同期比「80%増」・・・エヌビディアは最高益を更新中。

一体どうなっている?

さては、DeepSeekショックは世紀のフェイクニュースか!?

箱をあけたら、イエス。

でも、目を凝らすと、箱の片隅に小さな真実が・・・

《つづく》

by R.B

関連情報