BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第527話) AI革命2023(1)~ChatGPTの衝撃~

カテゴリ : 社会科学

2023.02.16

AI革命2023(1)~ChatGPTの衝撃~

■読み書きできるAI

世界中が、ChatGPT(チャットジーピーティ)に熱狂している。

数字をみれば明らかだ。

100万人のユーザーを獲得するまでの期間は、インスタグラムが2ヶ月半、ツイッターが2年・・・ところが、ChatGPTは5日!

さらに、2023年1月、公開後わずか2ヶ月で、アクティブユーザーが1億人に達した。こちらも、史上最速だ。

では、ChatGPTに何ができるのか?

・たわいもないおしゃべり(チャット)

・専門分野の質疑応答(専門家は不要)

・課題や論文の作成(先生も学生も重宝)

・文章の要約(超便利、何にでも使える)

・プログラムの作成(プログラマーは楽ちん)

・データ分析(データサイエンティストは廃業)

つまり、「言葉を使って言葉で完結する」なら何でもOK。

それって、人間の知的活動のすべてでは?

そうです。

しかも、2022年末、精度が一気に跳ね上がった。誕生後、わずか1年で実用レベルに達したのだ。AIがこの域に達するのは、数年はかかると思っていたのに、ビックリだ。

ひょっとして、機械仕掛けの神(デウス・エクス・マキナ)の誕生が迫っているのかもしれない。

AIの進化がハイパー加速している。

だが、人間は指数関数的な変化を読むことができない。

結果、何がおきるか?

人間はおいてけぼり。

その象徴が、TVに出ずっぱりの専門家や識者だ。

あるTV番組で、某大学の情報系の教授がこんな発言をしていた。

「ChatGPTも間違った回答をすることがあるので、注意が必要です」

はぁ、そこ?

精度が上がるのは時間の問題だし、人間だって間違えるし、知らないことが多い、たとえ大学の先生でも。そもそも、ChatGPTの本質はそこではないでしょう。

さらに、AIを少し聞きかじった専門家はこう言う。

「ChatGPTは、言葉も文章もまったく理解していない。人間が書いたテキストを学習して、言葉をつなぐだけ。ツギハギのハイブリッド文で、それらしく見えるだけ。まやかし、トリックにすぎない」

完全に間違ってます。

しかも、AI専門家の発言というから、ビックリだ。

たしかに、ChatGPTは人間が書いたテキストを学習しているが、一度融かして、特徴を抽出している。つまり、ツギハギではない。この「特徴抽出」こそが、機械学習の基本原理で、ChatGPTはそこから生まれたのだ。

そんな基本中の基本も知らずに、AIの専門家を名乗りますか?

とはいえ、ホンモノのAI専門家は、研究に忙しくてメディアに出る暇がない(現場の研究者はもの凄く優秀です)。結果、国民はメディアに出ずっぱりの怪しい専門家の話しか聞けないわけだ。

さらに、怪しい専門家は、ChatGPTは言葉を理解していないから、回答は怪しいと言う(どの口が言うのか)。

こんなAI専門家に出会ったら、こう問い返してください。

潜水艦は泳げるか?

■潜水艦は泳げるか?

潜水艦は泳げるとは言えないが、水中を高速で移動するから、「泳げる」に等しい。

であるなら、言葉の意味がわからなくても、文章が正しいなら「意味がわかっている」に等しい。

つまり、アプローチが違っても、結果が同じなら等価なのである。

飛行機は、鳥のように羽ばたけないから、空を飛べない?

そんなわけないですよね。

この命題をChatGPTになげたら、驚くべき回答が返ってきた。

【質問者】「潜水艦は泳げる」と言えないが、魚のように水中を移動できます。「泳ぐ」は「水中を移動する」ことなので、リフレーミングの発想で「潜水艦は泳げる」といえるのでは?

【ChatGPT】「泳ぐ」は一般的には「身体を動かして水中を進むこと」を意味する言葉ですが、潜水艦は推進システムなどを使って水中を移動するため、身体を動かすという点では泳ぐとは言えません。しかし、リフレーミングの発想から考えると、「魚のように水中を移動する」ことが「泳ぐ」という行為に相当すると解釈することもできます。つまり、「潜水艦は泳げる」という言い方は、文脈によっては正確であると言えるかもしれません。

完璧だ・・・

これまで、同じ質問を人間にもしてきたが、こんなみごとな回答は初めてだ。ちなみに、「リフレーミング」とは、モノゴトを見る枠組み(フレーム)を変えて、違う視点で解釈すること。ChatGPTは「リフレーミング」も知識として知っていたわけだ。

つまりこういうこと。

ChatGPTは、潜水艦、魚、泳ぐ、水中移動、リフーレミング、の意味を人間式には理解していないが、回答は完璧だ。であれば、ChatGPTは、人間と違ったアプローチで言葉を理解していると考えるべきだろう。

本質はこうだ。

会話、思考、創作などの知的活動は、人間式がすべてではない、コンピュータ式もあるのだ。それぞれのアプローチで理解して、正しい結果がでれば、すべて等価と考えるべきだろう。

ところが、マスメディアで、このような言説は、見たことも聞いたいこともない。

なぜか?

マスメディアに露出すればカネになるが、勉強してもカネにならないから。

つまり、メディアの露出が多い専門家や識者は、カネにならないインプット(勉強)をおろそかにし、カネになるアウトプット(情報発信)に精を出している。的外れな発言が飛び出すのは、当然だろう。

とはいえ、専門家や識者が、メディアで誤情報を流するのは危険である。世論をミスリードするから。

もし、それがAIなら最悪だ。

■AIの正体を見極める方法

AIは、人類史上、最良で最悪の発明である。

原子力は街を明るくすることも、灰にすることもできる。それと同様、AIは人類を助けることも、人類を滅ぼすこともできる。人間から仕事を奪う、ニセ情報を流して社会を混乱させる、原発を乗っ取る・・・どころではない。いつか、AIがICBMのスイッチを握る日が来るだろう。こんなアホな指導者なら、AIの方がマシ、というノリで。映画ターミネーターの「スカイネット」は荒唐無稽な話ではないのだ

大袈裟?

すでに、身近なところで、前兆がある。

大学の先生が、プログラムの課題をChatGPTでつくり、学生がChatGPTで回答している。

大学の意味ないじゃん、勉強の意味ないじゃん、賢くなる意味ないじゃん、働く必要ないじゃん。

人間は何のために存在するのか?

我々は、そんな究極の問題を突きつけられている。

落合陽一は好きではないが、ChatGPTについてこんな発言をしていた。

論文を5秒で作成するAIが、出てきたらどうしますか?

2年かけて論文だしたら、その間に進化していたら、どうしますか?

それでも、論文書きますか?

ここで、ChatGPTの本質を復唱しよう。

「言葉を使って言葉で完結する」タスクなら何でもできる。

人間の知的活動を、ほとんど網羅しているではないか。

この先、どんな世界が待っているのだろう?

それに不安を覚えるなら、自分の頭でAIを見極めるしかない。カネにならないインプット(勉強)をおろそかにし、カネになるアウトプット(メディア露出)に精を出す専門家は、信用ならないから。

では、具体的にどうすればいい?

投資とプログラミング。

まず、グローバルなAI企業に投資する。投資目線でAIを俯瞰すれば、AIが社会にどんな影響を与えるか把握できる。しかも、身銭を切っているので、真剣味が違う。

つぎに、AIのプログラムを書く。これで、AIにできることできないことが、カンカクでわかる。これはAIを理解する上で、重要なプロセスだ。元野球選手でないと、まとな野球解説ができないのと同じ。

それに、今はプログラミングにはいい時代だ。

AIのライブラリ(プログラムの部品)は、ネットでゴロゴロ落ちているから。しかも、ほとんどが無料だ。

AIのプログラミング言語といえば「Python(パイソン)」だが、これも無料。ただし、Pythonは、AIに最適化されているわけではない。それ以前に、言語そのものに問題がある。長年慣れ親しんだC++と比べると、言語仕様が汚く、洗練されていない。プロフェッショナルな言語とは思えないのだ。

とはいえ、AIのライブラリは、Pythonが圧倒的に多い。しかも、かなり高機能なので、それらを組み合わせれば、そこそこのAIが作れる。趣味で十分、なんでもいいから、動くものを作ればいい。それだけで、AIへの理解は劇的に深まるだろう。

というわけで、やるべきことは明快だ。

マクロ視点(投資)とミクロ視点(プログラミング)で、AIの本質を見抜く。それをベースに、AIと折り合いをつける。それしかないだろう。

とはいえ、時間はあまり残されていない。AIが人間を超えるシンギュラリティ(技術的特異点)が、迫っているからだ。おそらく、数年もかからないだろう。

おっと、大事なことを忘れていた。

AIのプログラムは、言葉で指示するだけで、ChatGPTが書いてくれます。

いくつか試してみたけど、ビックリ。100%正解したからではない。バグがあっても、理路整然と論理的に間違っているのだ!

《つづく》

by R.B

関連情報