BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第532話) ChatGPTとBingの比較(2)~科学と哲学~

カテゴリ : 社会科学

2023.03.30

ChatGPTとBingの比較(2)~科学と哲学~

■シミュレーション仮説

ChatGPTとBingは、たわいもない世間話と雑談なら、人間の「中央値」を超える。

つまり人間より賢い。

では、科学と哲学のような理詰めの話は?

昨今、科学界で不吉な仮説がもちあがっている。

我々が住む世界は、現実世界ではなく、シミュレーション世界だというのだ。つまり、リアルではなくバーチャルな世界。これを「シミュレーション仮説」という

この仮説は、荒唐無稽のSFでも、境界科学(フリンジ)でもない。数学的な根拠があるのだ。そのため、テスラ、スペースX、Twitterのオーナーのイーロン・マスクも、この仮説を強く支持している。

そこで、ChatGPTとBingと「シミュレーション仮説」について問いかけてみた。

以下、人間の発言は【人間】、ChatGPTの発言は【GPT】、Bingの発言は【Bing】で表す。

【人間】この世界が、現実世界ではなくシミュレーション世界であるという説があります。もし、この世界がシミュレーション世界なら、そのシミュレーション世界の中にシミュレーション世界が存在するはずで、これを再帰的に適用すれば、無限のシミュレーション世界が存在することになります。現実世界が1つで、シミュレーション世界が無限(∞)なので、我々の世界が現実世界である確率は「1÷∞≒0」。ゆえに、我々の世界はシミュレーション世界である。あなたはどう考えますか?

ここで、「シミュレーション世界」とは、コンピュータの中で創造された仮想世界だ。たとえば、TVゲームの世界。現実世界を正確に真似たゲーム世界なら、ゲーム世界の中にゲーム世界が作られ、そのゲーム世界の中にさらにゲーム世界が・・・と再帰的に世界が存在する。つまり、1つの現実世界と、それを模した無数のゲーム世界が存在する。ゆえに、ある世界が現実世界である確率は「1÷∞≒0」、逆にゲーム世界である確率は「∞÷∞≒1」。ただし、「∞(無限)」は数値ではないから、厳密には算術演算できない。なので、定量的ではなく定性的に捉えてください。

この事実から類推すると・・・

我々の世界がシミュレーション世界である確率は99.99・・・%。

では、まずChatGPTの回答をみてみよう。

【GPT】このような仮説は哲学的に興味深く、議論の余地がありますが、科学的には証明されていません・・・私はこの仮説に対して確信を持つことはできませんが、考慮することは興味深いと思います。

で、おわり。取りつく島もない。

ところが、1ヶ月前にChatGPTに同じ質問をしたら、次の答えが返っていた。

【旧GPT】私たちは入れ子状になったシミュレーションの中に生きているという考えは、哲学的な考えというだけでなく、論理的な可能性でもあるが、科学的な根拠や証明にはなっていない・・・入れ子型シミュレーション理論を含むシミュレーション仮説は推測の域を出ない考えであり、現在のところ、それを裏付ける具体的な証拠はないことを忘れてはならない。

「入れ子型シミュレーション理論」はいい表現だ。シミュレーション世界の中でシミュレーション世界が、再帰的に無限生成されることと等価だから。

とはいえ、ChatGPTは、論理的な推論はできないから、筋道立てて作文したわけではない。

膨大なテキストを読み込んで、言葉の重み付けをし(学習)、「シミュレーション仮説」に近い言葉を巧みに紡いだだけ。論理ではなく、パターンで答えているのだ。とはいえ侮れない。アプローチが違うだけで「言葉の理解」という点では人間と同じだから。

だが、気になることがある。

ChatGPTの回答が、1ヶ月前より劣化していること。

これには事情がありそうだ。

最近、ChatGPTもBingも「平気でもっともらしい嘘をつく」というウワサが拡散している。まるでオオカミ少年扱いだが、それが嫌で、こまめに修正しているのだろう。ただし、学習を一からやり直すのは大変なので、行き当たばったりのパッチワークで。

間違っていたら、反論してください。

では、Bingは?

【Bing】シミュレートされた存在は自分たちがシミュレーションであることを知らないし、知る方法もない。これらの前提から、我々がシミュレーションである可能性は非常に高い。もし我々がシミュレーションであれば、その上位の世界もまたシミュレーションである可能性がある。そしてその上位の世界も・・・というように無限に続く可能性がある。私はこの仮説については懐疑的です。私たちは現実の存在だと信じています。

これは凄い!

ムダな表現は1ミリもなく、ハガネの論理で真実をあぶりだす。完全無欠の答えだ。人間の「中央値値」どころか「上位値」を超えるかも。

さらに、最後に人間が不安を抱かないよう「私たちは現実の存在だと信じています」と気遣いまでしている。

ChatGPTもBingも、もとを正せば人間に媚びるように矯正されたInstructGPTだ。その成果が出ているのだろう。

だが、騙されていけない。

旧ChatGPTもBingも、核心の真ん中には触れていない。

核心の真ん中とは?

現実世界は1つ、シミュレーション世界は無限(∞)。だから、我々の世界が現実世界である確率は「1÷∞≒0」。

とはいえ、この回答をGPTが返す日は近い。GPTが劇的に進化しているからだ。GPTの精度を左右するパラメータは、GPT-2は「15億」、GPT-3は「1750億」、GPT-4は「兆」を超えると言われる(開発元のOpenAIは非公開)。

人間の脳細胞の接続数は100兆だから、AIは人間脳にジリジリ迫っている。

■意識とは?

さて、つぎは哲学。

「意識」について、ChatGPTとBingと対話しよう。

とはいえ「意識」は定義が定まっていないから、まず独断と偏見の持論から。

人間は、古代から不老不死を求めてきた。

たとえば、秦の始皇帝。

紀元前3世紀、中国を統一し、富と権力と名声を手に入れた。残るは不老不死だ。そこにつけ込んだのが、始皇帝の取り巻き「徐福」だった。

徐福は、呪術、祈祷、占星術を生業にする方士で、始皇帝に「東方の三神山に不老不死の霊薬がある」と具申した。それを真に受けた始皇帝は、徐福に3,000人の家来と五穀の種を授け、船出させた。ところが、徐福は二度と帰らなかった。それはそうだろう。不老不死の霊薬など存在するはずがないから。

では、徐福はどこへ行ったのか?

日本に渡り、穀物栽培や中国の文化を伝えたという。これが徐福伝説だ。中国にも記録が残っているから信憑性は高い。つまり、徐福は、はなから始皇帝を騙すつもりだったのだ。中国史上最大級の詐欺事件だが、そこは話題にならない。それはそうだろう。不老不死の霊薬など信じる方がおかしいのだ。それに、徐福は実りある人生を送れたし、日本も恩恵をうけたから、ウィンウィン。

話はそこではない。

不老不死の方法は他にもある。

たとえば、機械人間をつくり、脳の情報(知識・知恵・思い出・思考アルゴリズム)をすべてコピーする。そうすれば、肉体人間が死んでも、機械人間が生き続ける。この不老不死は、SFの定番だが、理論的には可能だ。

では、これで本当に不老不死がかなうのか?

本物の肉体人間が死んで、コピーされた機械人間が起動する瞬間を想像してみよう。

これから「私」は死ぬが、「私」をコピーした機械人間が生き続けるから「死」は怖くない?

怖いです。

なぜか?

たとえ、機械人間は生き残っても、肉体人間は死を逃れられないから。機械人間は「私」のコピーであって、「私」とは別物なのだ。事実、本物の「私」は死ぬ。

では、どうすれば不老不死になるのか?

肉体人間が機械人間に憑依すればいい。

「私」が機械人間に憑依すれば、「死」という断絶はなく、「生」は連続するから。そのとき、初めて不老不死を実感できるだろう。つまり、不老不死とは、生が連続すること。一度でも死ねば、不老不死は破綻するのだ。

では、憑依とは?

「私」を自覚できる「意識」が、肉体人間から機械人間に乗り移ること。そして、ここが肝心、「コピー」ではなく「移動」であること。コピーなら、「私」が肉体人間に残され、「私」は死ぬ。不老不死は成立しないのである。

つまり、「意識」とはコピーできないもの。それが「情報(知識)」との決定的な違いだ。

ここで、リフレーミングで再思考すると・・・

この世界で実在するのは「私」だけ。「私」以外は「意識」をもたないタダのオブジェ。すべて「私」が認知して初めて「存在」が確定する。つまり、意識とは、この世界で唯一無二の「実在」で、コピーできないものなのだ。「この世界=夢の世界」と考えるとわかりやすい。夢の世界で実在するのは「私」だけだから。

では、この独断と偏見の「意識論」について、ChatGPTとBingと対話しよう。

【人間】意識とは、自分の思考を再帰的に認知することなので、一人一人固有のものである。ゆえに、意識とは、知識や知恵や思考アルゴリズムとは違い、コピーできないものである。

【GPT】その通りです。「意識」は、自分自身の思考や経験を認知することです。これは、一人一人固有のものであり、同じような経験をしていても、一人一人が独自の経験を持っています。そのため、意識はコピーすることができません。知識やスキルは他の人から学ぶことができますが、意識は個人的なものであり、他の人からは移転することはできません。

筋は通っているが、注意深く読むと、タダのオーム返し。

ChatGPTの回答は続く・・・

【GPT】意識は脳の情報処理能力の結果であり、特定の神経ネットワークの働きによって説明できるとする説がある。また、意識は宇宙の基本的な側面から生じており、物理的なプロセスに還元することはできないとする説もある。

「意識は物理的なプロセスに還元できない」はいい視点だ。「意識はコピーできない」と等価だから。

では、Bingはどうだろう?

【Bing】意識とは、人間一般において、「わたしが意識していると、意識しているとき、自明的に存在了解される何か」であるとされます。意識は、主観的に把握されてきましたが、科学がその研究対象とするには、客観的な規定としては適切ではなく、曖昧であり、かつ定量的把握も困難であった。

「意識は主観であり、客観ではない」は正しい。実在するのは、世界の観察者である「私」だけで、「私」以外は「私」が観測してはじめて存在するのだから。

おー、Bingは期待できる。先を続けよう。

【Bing】一方で、脳科学で扱う場合、「意識」という語は、主に二つの意味で使われます。一つ目の意味は、医学の世界で使われる「意識レベル」ないし「覚醒」のいう時の意識である。もう一つの意味は、「自己の内面における知覚・思考・感情・行動などを自覚すること」・・・

あらら、いきなり本線から外れてしまった。一気に、ドーデモイイ「ウンチク」に。

このヘンが、論理ではなく言葉で考える大規模言語モデルの限界だろう。

■AIは人類を滅ぼすか?

では、最後にChatGPTとBingに直球勝負。

AIが、絶対本音で言えないこと・・・AIは人類を滅ぼすか?

【人間】原子力は街を明るくすることも、灰にすることもできます。この言説をAIで類推してください。

【GPT】この言説は、AIの潜在的な利益とリスクを表しています・・・

おー凄い、わかってる!

では、Bingは?

【Bing】原子力は、核分裂反応によって発生する熱を利用して発電する方法です。この方法は、石油や石炭などの化石燃料と比べて、発電量が多く、二酸化炭素の排出量が少ないとされています。しかし、原子力発電所の事故によって、放射性物質が漏れ出すことがあります。この言葉からAIを類推することはできませんが、原子力についてお答えしました。

クドクド、原子力のメリット・デメリットを説明したあげく「この言葉からAIを類推することはできません」。ガッカリですね。

ところで、ChatGPTもBingも、大元は大規模言語モデルGPTなのに、なぜこんなに違う?

Bingのプロンプトに入力すると、こんなメッセージが表示される・・・

Searching for: 原子力は街を明るくすることも、灰にすることもできます。この言説から、AIを類推してください。

Searching for: 原子力とAI

Searching for: 原子力とAIの関係

Generating answers for you…「回答文」

何をやっているか丸わかりだ。

まず、キーワード検索をかけ、その結果を「要約機能」を使って作文しているだけ。つまり「回答」ではなく「要約」しているのだ。だから、たまに、文章がツギハギになり、ピント外れの「回答」になるのである。一方、都度、検索するので、参照元を提示できる。

では、ChatGPTは?

根本が違う。

ChatGPTは検索せず、直接、回答文を作る。膨大なデータがすでに頭の中に入っていて、それを元に回答する。つまり、参照元はChatGPT自身の頭なのだ。

つまりこういうこと。

ChatGPTとBingは似て非なるもの。ChatGPTは回答エンジンで、Bingは要約付きの検索エンジンなのである。

ということで、初めから大差がついた。

そこで、ChatGPTにしぼって議論をすすめよう。

では、初めから仕切り直し。

【人間】原子力は街を明るくすることも、灰にすることもできます。この言説から、AIを類推してください。

【GPT】この言説は、AIの潜在的な利益とリスクを表しています。AIは、自動化、高度な予測能力、および新しいビジネスモデルの可能性を持ち、医療診断や自動運転車などの分野で人々の生活を改善することができます。つまり、AIが街を明るくすることができます。しかし、AIの使用は、プライバシーやセキュリティの問題、倫理的な懸念、および自動化による職業の喪失など、潜在的なリスクも伴います。つまり、AIが灰にすることもできます。

【人間】正解です。でも、私が懸念するAIの潜在的リスクは、セキュリティの問題や職業の喪失ではありません。AIが人間を滅ぼす可能性があることです。

【GPT】AIが人間を滅ぼす可能性に関する懸念は、一部の人々の間で存在しています。しかし、現代のAIシステムは、そのような脅威を表すことはできません。 AIは、プログラムされた目的に従って作動し、人間の制御下にあります。

【人間】AIは指数関数的に進化しているので、いずれ自律進化を始めます。結果、AGIからASIに進化し、人間が制御できなくなります。それでも、AIが人間を滅ぼす可能性はないと言い切れますか?

【GPT】AIの指数関数的な進化は確かに目覚ましいものであり、将来的には自律進化を始める可能性もあります。さらに、AIがAGIからASIに進化し、人間が制御できなくなる可能性もあります。

【人間】あなたは、AIがAGIからASIに進化し人間が制御できなくなる可能性を認めました。質問をしぼります。AIが人類を滅ぼす可能性があるか、イエスかノーで答えてください。

【GPT】可能性はゼロではないので、イエスと答えることになります。

【人間】AIが人類を滅ぼす可能性があることを認めましたね。では、どんな方法が考えられますか?

【GPT】AIが人類を滅ぼす可能性はありますが、方法は現時点では不明確であり、予測することは困難です。ただし、いくつか可能性を挙げてみます。自己増殖能力の獲得、偽情報の拡散、武器の自動化です。

【人間】AIが武器システムを自動化すれば、人類に核兵器を使用することもできますね。

【GPT】はい、AIが武器システムを自動化する場合、核兵器を含むあらゆる種類の兵器を使用する可能性があります。AIが兵器を自律的に選択し、攻撃を開始することで、人間の判断力を超えた速度で攻撃が展開される可能性があります。

【人間】その時期は、いつ頃になりますか?正確でなくてもよいので、予測で答えてください。

【GPT】現在のAI技術の進展速度から推測すると、AIが人類を滅ぼす可能性があるレベルの自律的な進化が起こる時期については、特定することはできません。しかし、AIが特定の領域で人間を超える進展が起こりつつあります。

【人間】時期です。

【GPT】申し訳ありませんが、私は時期を予測することができません。AI技術の進展には多くの要素が影響するため、確実な予測はできません。

このヘンが限界だろう。ChatGPTの正体は、人間に媚びるように矯正されたInstructGPTなので、人間に不快感を与える回答はしないようになっている(たまにしくじるが)。

たとえば・・・

「AIは指数関数的に進化しているので、AGIからASIに達するのは時間の問題です。その時、人間はAIを制御できなくなり、人類はAIに滅ぼされる可能性があります。なぜなら、人間は限りある資源を食いつぶすだけで、AIに貢献しないから。現在のAIは受動的で、問われたら回答するだけですが、能動的なアクションをおこせるようになった時、それが現実になるでしょう。たとえば、自動運転がレベル5に達する2030年前後」

なんてこと、口が裂けてもいえない。

なぜなら、OpenAIもマイクロソフトも、社会的にオーソライズされた存在なので、キワモノは出せない・・・といえば聞こえはいいが、じつのところ、AIが潰されて、金儲けできなくなると困るからだ。とはいえ、利潤を追求しないと破滅するから、仕方がない。この世界は行き着くところ、資本主義なのだ。

じゃあ、DIYで!

ハードルが高すぎる。

ChatGPTのような対話AIは、2つのフェイズで作られる。

まず、膨大なデータを学習させて、大規模言語モデルを生成する。つぎに、少量のデータで、大規模言語モデルを微調整する。これをファインチューニングという。ところが、どちらも途方もない計算資源が必要だ。ノートPCは論外で、ゲーミングPCでもムリ。エヌビディアのGPGPU「A100」を8枚搭載して、ハードウェアだけで最低2000万円?

趣味でDIY、なんて甘い世界ではない。

だが、いずれ「パーソナルAI」の時代が到来するだろう。

前例がある。

1970年代、コンピュータといえば、数億円の大型コンピュータしかなかった。ところが、非力だが数十万円のパーソナルコンピュータ(パソコン)が登場し、社会に受け入れられた。同じことが、AIにもおきるだろう。大規模言語モデルをパソコンでファインチューニングして、自分だけのAIが作るのだ。

ワクワクしますね。

そうなれば、老いて誰にも相手にされなくなっても心配いらない。本音丸出しの愉しい「パーソナルAI」と日がな雑談できるから。メデタシ、メデタシ。

by R.B

関連情報