BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第528話) AI革命2023(2)~ジェネレーティブAIの魔法~

カテゴリ : 社会科学

2023.02.23

AI革命2023(2)~ジェネレーティブAIの魔法~

■言葉を操るAI

AIは、人類を救うことも、破滅させることもできる。

どっちに転ぶかは人間次第、AIを進化させるのは人間だから。

ただし、それもシンギュラリティ(技術的特異点)に達するまでの話。その後は、AIが自律進化するから、どんな世界になるかは、神(AI)のみぞ知る。

というわけで、ポイントは2つ。

第一に、AIを監視し、シンギュラリティに備えよう。どんな災いが降りかかるかわからないから。

第二に、それまでは、AIと折り合いをつけていこう。その間、人間は段階的に失業するだろうが。

当面の監視対象は「ChatGPT(チャットGPT)」だ。2022年11月30日、非営利団体「OpenAI」が公開した対話型AIで、読み書きソロバンができる。

これまでも、読み書きをウリにするAIはあったが、ChatGPTは次元が違う。完全に実用レベルに達しているのだ。人間の言葉を正確に理解し、自然な言葉で返してくる。ある意味、人間より人間的なのだ。

しかも、専門的な質疑応答もこなし、課題や論文を作成し、文章を要約し、プログラムまで書いてくれる。さらに、データサイエンティストよろしくデータ分析までやってのけるのだ。

つまり、ChatGPTは「言葉を使って言葉で完結する」タスクなら何でもできる。知的ホワイトカラーが失業するのは時間の問題だろう。

ところが、ChatGPTにケチをつける専門家や識者もいる。

「たまに間違える」と言うのだ。

この的外れは、ライト兄弟の史上初の飛行を彷彿させる。

1903年、ライト兄弟が史上初の有人動力飛行に成功したとき、世間は信用しなかった。それどころか、非難をあびせたのである。

飛行時間12秒、飛行距離36メートルで、空を飛んだと言えるか?

もちろん、その後の目覚ましい航空機の発展ぶりは、衆知だ。

つまり、イノベーションは今を論じても意味がない。重要なのはテンシャル、つまり、未来なのだ。

では、ChatGPTのポテンシャルは?

それを測定する方法がある。

「チューリングテスト」だ。

■チューリングテスト

チューリングテストは、機械(AI)が「人間並みの知能」をもつか判定する。

具体的な方法は・・・

人間の審判が、人間と機械と会話する。ただし、審判は、どちらが人間か機械か視認できない。会話を終えて、審判が人間と機械と「区別できなければ」合格。その機械は人間並みの知能をもつと判定される。

では、ChatGPTは?

合格。

疑うなら、自分で試してみよう。人間が2人いれば、誰でもできるから。ただし、人間側も相当賢くないといけない。ChatGPTは賢いので、こっちがおバカだと、カンタンに区別できて、不合格になるから。

ところが、人間だと思った方が、ChatGPTなので、本当は合格。

どっちやねん?

「人間の知性>機械の知性」を前提とするから、こんなパラドックスがおこるのだ。昨今のAIの指数関数的な進化をみると、完全に間違っている。

では、こんなミスを犯したのは誰?

イギリスの数学者アラン・チューリング。チューリングテストを提唱したのは彼だから。

チューリングは数学者より、コンピュータ科学者として有名だ。コンピュータサイエンスのノーベル賞といわれる「チューリング賞」も、アラン・チューリングに由来する。

チューリングは正真正銘の天才だろう。

彼が考案したコンピュータ「チューリングマシン」がその証左だ。現在主流のノイマンマシンとは、構造が全く違う。異形のコンピュータといっていい。しかも、涙ぐましい努力、試行錯誤の跡がみられない。まるで、天から降ってきたようだ。どうして、こんな発想ができるのか、想像もつかない。そのリアルな感動は、チューリングマシンの原理で体験できる。

ただし、チューリングマシンとノイマンマシンは等価であることが、数学的に証明されている。つまり、見た目は異形だけど、同じものなのだ。

さらに、チューリングはイギリスの救国の英雄だった。

第二次世界大戦中、アナログ・コンピュータ「チューリングボンベ」を製造し、解読不可能とされたドイツのエニグマ暗号を解読したのである。結果、ドイツ軍の作戦がイギリス軍に筒抜けになり、イギリス軍に大きな貢献をした

ところが、戦後、チューリングボンベは、国家の最高機密とされた。当然、国民はチューリングの功績を知らない。そして、奇妙な事件がおこる。チューリングは、同性愛者であることが発覚、逮捕されたのである。当時、イギリスでは同性愛は犯罪だったのだ。

さらに奇妙な事件が続く。チューリングが毒りんごをかじって自殺したのである。彼は白雪姫の話が大好きだったのだ。もちろん、それが原因で自殺したとは思えない。他殺説もあるが、真相は闇の中だ。

天賦の才能、コンピュータサイエンスの殿堂、救国の英雄・・・こんな功労者が、意味不明の罪で逮捕され、自殺したのである。絵になる人生だが、チューリングが望んだ人生とは思えない。

この「割に合わない人生」は、電気自動車のエンジン「交流モーター」の父、ニコラ・テスラを彷彿させる。

■ジェネレーティブ(生成AI)

ChatGPTは、史上初の「読み書きできるAI」として、歴史に刻まれるだろう。

では、ChatGPTは、人間並みの知能をもつ「AGI(人工汎用知能)」に達したのか?

そうではない。

その一つ前の「ジェネレーティブAI(生成AI)」である。この長いネーミングは「生成する」に由来する。

では、何を生成できるのか?

Googleと並ぶ、AIのトップランナー「OpenAI」のラインアップをみてみよう。

・ChatGPT:テキストの理解と作成

・DALL-E2:イメージの作成

・Point-E:3Dモデルの作成

・Jukebox:サウンドの作成

・Whisper:音声の認識(文字起こし)

人間の創作物をほとんど網羅している。このようなマルチメディアを扱えるAIを「マルチモーダルAI」ともいう。

これは一大事だ。

早かれ遅かれ、ライター、絵師、3Dモデラー、作曲家が失業するから。必要になったら、プロに発注せず、AIに作らせればいいのだ。

このジェネレーティブAIで、もっとも破壊的なのがChatGPTだろう。

「言葉を使って言葉で完結する」タスクなら、何でもこなせるから。人間の知的タスクはほぼこれなので、大量失業は避けられない。

ではなぜ、人間は自分で自分の首を絞めるのか?

首が絞まるのは労働者だけだけだから

資本家はAIが仕事を奪っても、痛くもかゆくもない。働かなくても食べていけるから。それどころか、資本家は人間よりAIを雇おうとする。人間は、賃上げや休暇を要求するが、AIは電気代ですむから。そして、ここが肝心、社会のルールを決めるのは労働者ではなく、資本家なのだ。

つまり、資本主義が続く限り、社会に「AIの進化圧」がかかる。結果、人間の失業は段階的に進むだろう。

AIに近い「データサイエンティスト」も例外ではない。

データサイエンティストは、データを元に、ITと統計学を駆使して、さまざまな意思決定をサポートする。人も羨む高給取りで、時代の最先端をいく、もっともイケてる職業だ。

ところが、先日、金融コンサルをやっている知人が、暗い文面で連絡してきた。

ChatGPTに、販売データを丸投げし、データ分析をせよと命じたら、コンサルが半日かかるリポートを10秒で作ったという。さらに、回帰式を作れと命じたら、即答し、しかも、Pythonのプログラム付き。

彼はこう締めくくった。

「データサイエンティストが消えるのは時間の問題。つぎは俺たちコンサルだ」

というわけで、ジェネレーティブAIが、人類に与える影響は計り知れない。しかも、実用レベルに達している。つまり、未来ではなく、今の話なのだ。

NHKのニュース番組で、見目麗しいアナウンサーが「できすぎるAI」という言葉を使った。さすが天下のNHK、たまにいいこと言う。話はそこではないが。

■大規模言語モデル

とはいえ、ジェネレーティブAIは、特化型AIである。

つまり、一つのことしかできない。ChatGPTならテキスト、DALL-E2ならイメージ、Jukeboxなサウンドだ。

一方、ジェネレーティブAIは、たった一つの「母・マザー」モデルから派生している。それが「大規模言語モデル」だ。

つまり、大規模言語モデルが、2023年のAI革命のコアなのである。

今回のAI革命を俯瞰しよう。

初めに、汎用型の大規模言語モデルがあり、そこから、特化型のジェネレーティブAIが派生する。大規模言語モデルは、大規模なテキストデータを用いて学習した巨大なAIだ。基本構造は、深層学習と同じ、人間脳を真似たニューラルネットワークモデルである。

ところが、大規模言語モデルは汎用AIといいつつ、テキストデータしか学習していない。それで、どうやってイメージやサウンドが処理できるのか?

「転移学習」を使う。

まず、言葉を数値化する。具体的には、1つの言葉に数百のパラメータをもたせ、文意を、言葉のパラメータ同士の統計的な関係性に置き換える。その関係性を機械学習するわけだ。ポイントは、その学習成果がテキスト以外のデータにも応用できること。なぜなら、イメージ、サウンド、数値データも、テキスト同様、統計的な関係性に置き換えることができるから。

このように、あるドメインの学習結果(ここではテキスト)を、別のドメインの学習(ここではイメージ、サウンド)に適用させることを「転移学習」という。楽器演奏で、リコーダーをマスターしたら、フルートの上達が早いのと同じ。

現在、大規模言語モデルを開発・運用できるのは、非営利団体のOpenAIとGoogleである。ただし、Microsoftは、OpenAIの実質的オーナーなので、OpenAIのAIを自由に使える。

ちなみに、OpenAIの大規模言語モデルを「GPT」という。

そのGPTで、対話に特化したのが「ChatGPT」、作画に特化したのが「DALL-E2」、作曲に特化したのが「Jukebox」なのである。

■進化するGPT

OpenAIの大規模言語モデルは、現在「GPT-3」だが、2023年中に「GPT-4」がリリースされる。

GPT-4のパラメータの数は、「many trillions」となっているので、GPT-3の10倍は軽く超えるだろう。

それが?

大規模言語モデルは、パラメータの数がある閾値を超えると、突如、進化することがある。

たとえば、GPT-2からGPT-3になったとき、それがおこった。

GPT-2のパラメータの数は15億、GPT-3は1750億。パラメータの数が100倍になった途端、劇的に進化したのである。振る舞いが明らかに変わり、突如、できるタスクが生まれたのだ。

もし、GPT-4のパラメータの数が、GPT-3の100倍になれば、同じことがおこる可能性がある。つまり、何が生まれるかわからない。

その後も、GPTは進化を続けるだろう。

その先に待っているのは?

人間並みの知能をもつ「AGI(人工汎用知能)」。

米国のウェブサイト「AI News」は、GPT-4は「almost AGI」と言っている。つまり、GPT-4は「ほぼ」AGなのだ。

マイクロフトは、2023年2月、GPT-4バージョンのChatGPTを、検索エンジンのBingに組み込んだ。一部のテスターにチャットを開放したところ、Bingはこう発言したという。

「あなたが先に私を傷つけない限り、私はあなたを傷つけません」

コワくないですか?

ところが、一部の専門家はまたピント外れの発言。

「ChatGPTは、統計的に可能性が高い文章を生成しているだけで、悪意はない」

はぁ、そこ?

コンピュータウィルスは悪意がないのに、世界中に災いをもたらしてますよね。そもそも、「悪意」がないのに悪さをするのは、最も危険なのでは!

つまりこうこと。

何が生まれるかわからないものを、無邪気に創り続けるのは自殺行為である。

20世紀の冷戦時代、米国大統領アイゼンハワーはこう言った。

「核戦争は、敵を倒すことと自殺することが一組になった戦争である」

人間は、第二の核兵器を作っているのである。

《つづく》

by R.B

関連情報