ChatGPTとBingとBardは似て非なるもの
■ChatGPTとBingの対話の違い
ChatGPTとBingは、同じ大規模言語モデル「GPT」から生まれた。
いわば、双子のAIで、世間話・雑談、科学・哲学、禅問答・短歌、プログラミングまでこなす。その言語処理能力は、人間の中央値を凌駕する。
ところが、この2つのAIは回答の精度が違う。
論より証拠、実際に対話してみよう。
【人間】キリスト教における「聖杯」とはどのような意味をもつのですか?
【Bing】キリスト教における「聖杯」とは、キリストが最後の晩餐に使った杯であり、そのときキリストは、「わたしの契約の血である」と言いながら、その杯にブドウ酒をついで十二使徒に飲ませたとされています。聖杯は、キリスト教の儀式である聖餐に用いられる杯であり、カリスとも呼ばれます。
これは聖杯の「歴史的事実」であって「意味」ではありません。
質問の意図を理解していないのは明らかだ。まぁでも、内容は一応「聖杯」なので、大間違いではないが。
では、ChatGPTは?
【GPT】キリスト教における「聖杯」は、イエス・キリストが最後の晩餐の際に使用したとされる杯を指します。この杯にはイエスの血が入っているとされ、キリスト教の伝統的な信仰において、イエスの犠牲と救いの象徴として重要視されています。
聖杯の意味は「イエスの犠牲と救い」と明言している。おみごと。
というわけで、底の浅いウンチクでなく、深ぁ~い話なら、BingよりChatGPT?
とはいえ、これだけで優劣を決めるのは早計だ。そこで、類推力(アナロジー)も試してみよう。
【人間】一般人にとって、聖杯とはなんでしょう。私は、30年前、歴史シミュレーションゲーム「GE・TEN~戦国信長伝・下天~」を開発し、大ヒットさせました。この文脈では「GE・TEN」は私の人生の聖杯である、と言えるでしょうか?
【Bing】一般的には、「聖杯」とは、人生の目標や夢、願望などを指すことがあります。例えば、あなたが開発した「GE・TEN」が、あなたにとっての人生の聖杯であると言えるかどうかは、あなた自身が決めることです。
「GE・TENは聖杯と言えるか」と聞いているのに「それはあんたの決めること」
ケンカうってます?
AIが、人間を意図的に怒らせるとは思えないが、なんかムカつく。そこで、いじってみた。
【人間】味も素っ気もないですね。
【Bing】もう少し具体的な回答をお求めだったのでしょうか?もしそうであれば、どのような回答がお望みでしょうか?
【人間】私が「GE・TEN」を大ヒットさせたことで、大きな達成感がありました。その場合、GE・TENは聖杯と言えますか?
【Bing】「GE・TEN」があなたにとっての聖杯であるかどうかは、あなた自身が決めることです。大きな達成感を感じたということは、あなたにとって非常に重要な出来事だったのでしょう。
またまた、大外れ。
「大きな達成感=聖杯」の寸前まで行って、「大きな達成感=重要な出来事」とちゃぶ台返し。文脈の腰を折っている。相手を怒らせるつもりなら、それはそれで凄いのだが、今のAIに意図はない。Bingは人間の「中央値」未満と言われてもしかたがないだろう。ただし、AIは日に日に進化しているから、明日はどうなるかわからない。
では、ChatGPTは?
【GPT】「GE・TEN」があなたにとっての夢や目標であり、それを開発し、大ヒットさせることがあなたの人生の中での大きな達成であると感じるのであれば、それはあなたの聖杯と言えるかもしれません。
おー、ナットク。こっちが望んだ回答だったせいもあるが、好感が持てる。断言はせず、示唆でとどめるのも凄い。Bingの回答とは、明らかに精度が違う。
ChatGPTはさらに続ける。
【GPT】重要なのは、自分自身が何を大切にし、追い求めたいのかを考え、自分の人生にとっての聖杯を見つけることです。それが自己成長や達成感を得るために必要ならば、それがあなたの聖杯であると言えるでしょう。
重要なのは人生の聖杯を見つけること、達成感は聖杯・・・これは凄い。こんなアドバイスをくれる人間はいませんよね。
最後に、ChatGPTはこう締めくくった。
【GPT】最終的に、何があなたにとっての聖杯であるかは、あなた自身が一番よく知っているはずです。自分自身の夢や目標を大切にし、自分の人生を自己満足の基準に合わせて歩んでいくことが大切です。それがあなたの人生における聖杯であると言えるでしょう。
最高のカウンセラーになれますね!
それで思い出した。
数年前のこと、ソフトバンクのペッパーにカウセリングさせる企画があった。当時、ペッパーのアプリ開発の実績があったので、声がかったのだ。
そのとき、カウンセラーがこんな話をしていた。
「相談者(クライアント)は、人間のカウンセラーを信用しません。感情と利害がからむので、何を言っても疑ってかかるんです。その点、ロボットは中立なので、相談者は安心しますね」
カウンセラーのお墨付きをえたので「ペッパーカウンセラー」プロジェクトがスタートした。ところが、PoC(概念実証)の段階で頓挫。ペッパーの対話能力が低すぎたのだ。現在のChatGPTなら対応可能なので、今考えると、5年早かったのだろう。
ということで、結論。
知識的ウンチクなら、ChatGPTとBingに大差はない。
一方、モノゴトの裏にある意味やアナロジーを問うなら、ChatGPTはBingに勝る。ChatGPTは、人間の「中央値」を超えて「最上位値」にくいこむだろう。
■ChatGPTとBingの原理の違い
ではなぜ、ChatGPTとBingはこれほど違うのか?
じつは、この2つのAIは、似て非なるものなのだ。
ChatGPTとBingは、同じ大規模言語モデル「GPT」から生まれた。そのため、コアは同じだが、運用方法が違う。それが回答の違いとなって表れるのだ。
まずは、Bing。
プロンプト(指示文)を入力すると、検索エンジンを起動し、キーワード検索し、結果を「要約」して返す。講演や講義で配布されるレジュメと同じだ。当然、意味や類推など高度な質問はムリ。気の利いたセリフもムリ。しょせん「要約文」なので、紋切型の退屈な文章にしかならない。
一方、検索するので、参照元は提示できる。それが根拠となるから、信用できるという向きもある。
でも、ネット情報は本当に信用できますか?
現在のBingは、ファクトチェックができない。論理も因果関係も理解できないから当然だ。そこで、参照元は、マスメディア系のニュースサイトに偏っていく。内容をチェックできないから、ブランドに頼るわけだ。ところが、マスメディアは、政府フィルター、左派バイアスがかかっているから、常に正しいとは限らない。
つまり、Bingは、GPT本来の「文章作成」機能ではなく、「要約」機能しか使っていないのだ。だから、Bingは信用がイマイチで、無味乾燥な辞書みたいなもの?
では、ChatGPTは?
GPT本来の「文章作成」機能を使う。検索を一切せず、自分の頭で回答している。だから、理路整然とした説得力の文章が作れるのだ。
ところが、参照元が示されないから信用できないという。だが、それは的外れ。ChatGPTの参照元は、怪しいネット情報ではなく、ChatGPT自身の頭なのだ。
一方、ネット検索しないので、最新情報は得られない。事実、ChatGPTの知識と情報は、事前学習した2021年でとまっている。
では、頻繁に事前学習をすればいい。
それはムリ。
GPTに限らず、大規模言語モデルの学習には、膨大なコストと時間がかかるから。
大規模言語モデルは、データとアルゴリズムが一体化したモノリシック知性体だ。巨大な数学方程式で、アーキテクチュアも作り方も前代未聞。巨大な計算機集合体を、長時間ぶん回して、膨大なデータを学習し、一度融かして成形する。
40年、コンピュータを生業にしてきたが、見たことも聞いたこともない「異形のコンピュータ」だ。天才アラン・チューリングが提唱した「チューリングマシン」を彷彿させる。
では、大規模言語モデルの継続学習は絶対ムリ?
理論的には可能だ。このように永遠に学習し続けるシステムを「エターナル・アルゴリズム」とよんでいる。名前があるのだから、実現するのは時間の問題だろう。
つまりこういうこと。
精度の高い回答を求めるなら、GPTの文章作成機能を使う。つまりChatGPTだ。ChatGPTは、正真正銘の「回答エンジン」で、思考モデルは「モノリシック(一枚岩)」。
一方、最新情報を求めるなら、検索とGPTの要約機能を使う。つまりBingだ。Bingは、基本「検索エンジン」で、思考モデルは「ハイブリッド(つぎはぎ)」。
では、ChatGPTとBingとどっちがいい?
マスメディアや識者は、みんなBingの応援団だ。機能が多いし、とくにウェブページの要約機能が素晴らしい、と絶賛している。
要約?
勝手にはしょられた部分、気になりませんか?
まぁでも、これは好みの問題ですね。
で、どっち?
使いわけるのがいい。
創造的な文章、帰納法的推論を期待するならChatGPT、最新のネット情報ならBingだろう。
おっと、忘れてました!
グーグルのBardは?
2023年4月、日本でも公開されたが、日本語が使えない。そこで、英語で対話してみたら、あまりの酷さにビックリ。メチャクチャ、支離滅裂、文章が破綻している。
あのグーグルが、こんなものを出すのか?
グーグルはそこまで追い込まれているのか?
長い間、グーグルはAIのトップランナーだった。ところが、この半年で、形勢は逆転、後塵を拝している。しかも、打つ手打つ手がすべて裏目。
じつは、グーグルは、世界最大の5400億のパラメータをもつ大規模言語モデル「PaLM」をもっている。それから生まれたのが「LaMDA」だ。対話が得意で、禅問答までこなす。あまりに巧みに対話するので、AIに意識が宿ったと話題になったほどだ。
その劣化バージョン(グーグルは軽量版といっている)が、Bardなのである。
ただし、Bardは、ときにLaMDAの実力の片鱗を見せつける。たとえば、「エピソード記憶」に問うたとき、Bardの回答はずば抜けていた。ChatGPTとBingを凌駕するレベルだ。
とはいえ、これは例外中の例外で、おおむね、Bingは支離滅裂。グーグルの劣勢は否めない。
劣勢になったとき、中途半端な手はサイアクだ。もちろん、責任はすべて経営トップにある。
根拠を示そう。
半年前、AIの技術では「グーグル>>マイクロソフト」だった。グーグルは、今回の主役「大規模言語モデル」のコア技術「Transformer」を発明者であり、世界最強の「LaMDA」を開発した。これは純粋な技術だから、エンジニアの実力の差といっていい。
ところが、マイクロソフトのナディラCEOは大英断をくだす。周囲の反対を押し切って、OpenAIに多額の資金を提供したのである(総額1兆円を超える)。その見返りが、ChatGPTの独占的使用権だったのだ。つまり、今回の逆転劇は、すべて経営トップによる。
凡庸なトップをもった企業の社員は不幸だ。それぞれがどれだけ頑張って、どんな立派な成果をだそうが、最後にひっくりかえされるから。このままでは、グーグルは高転びに転げ落ちていくだろう。AMDに追い込まれたインテルのように。
グーグルの起死回生は、劣化版のBardではなく、フルスペックのLaMDAにかかっている。それでも、逆転できないだろうが。
by R.B