本の歴史(4)~本が消える日~
■ホンモノ知能とエセ知能
2024年5月、突然、AIの未来がかいま見えた。
OpenAIとGoogleが、新しい大規模言語モデル(LLM)を発表したのだ。
大規模言語モデルとは、現在、猛威を振るう生成AIの「母なるAI」で、基盤モデルともいう。
今回発表されたのは、OpenAIの「GPT-4o」とGoogleの「Gemini 1.5 Pro」である。ともに、マルチモーダルが強化され、テキストだけでなく、音声、画像がスムースに扱えるようになった。
まず、音声による会話が実用レベルに達している。
旧モデルは、回答に3~5秒かかったが、新モデルは0.3秒。人間とほぼ同じ応答速度だ。今後、AIとの会話はテキストではなく、音声がスタンダードになるだろう。
さらに、画像を見せたり、音楽を聴かせ、話題にすることもできる。
早い話、AIが目と耳と口をもったのだ。
それだけではない。
知能も進化している。
会話にかぎれば、すでに人間を超えただろう。チューリング・テストを突破しているから。
コンピュータ科学の父アラン・チューリングが提唱したこのテストは、さながら魔法の呪文だった。
「機械は人間並みの知能をもつか?」
という歴史的命題も、この呪文を唱えれば、一発解答。
機械と会話をして、人間と区別がつかなかったら合格、そうでなければ不合格。それだけの話なのだが、長らく「人間並みの知能」の絶対尺度とされてきた。
ところが、2022年末、ChatGPTが登場すると、すっかり色褪せてしまった。
AIが人間なみに会話ができるか?
そんなのあたりまえ。
AIはさらなる高みを目指している。
MITの最新の研究成果によれば、大規模言語モデルは、「空間的概念」と「時間的概念」を獲得したという。
これは一大事だ。
大規模言語モデルは、膨大なテキストを学習し、人間の言葉を理解し、文章を生成する。ところが、識者の多くは「AIは言葉の意味もわからず、統計で言葉をつないでいるだけ」と蔑んできた。ホンモノにはほど遠いエセ知能だと。
根拠もある。
有名な「記号接地」問題だ。
たとえば「リンゴは美味しい」を学習するとする。
人間は、リンゴを触って、嗅いで、食べて、学ぶ。
一方、AIは、触る、嗅ぐ、食べるはムリ。そこで、テキストで座学するしかない。そのため、AIは「リンゴは美味しい」というテキストは知っているが、「美味しい」の意味がわからない。つまり「リンゴは美味しい」は記号の並びでしかないのだ。
人間は「言葉」と「実体」はつながっているが、AIは乖離しているわけだ。
これを「記号接地」問題という。記号(言葉)が、現実(実体)に接地しているという意味で。
大規模言語モデルは「記号接地」が壁になり、ホンモノの知能ではないと言われてきた。
ところが、MITの研究によれば、大規模言語モデルは空間的概念と時間的概念を獲得したという。であれば、大規模言語モデルは内部に「世界モデル」をもっている可能性が高い。
世界モデルとは、現実世界のメカニズム、仕組み、ルールを、コンピュータで再現したものだ(本来は数式)。
たとえば、次のテキストデータをAIに学習させたとする。
・リンゴは木から落ちる。
・隕石は空から落ちる。
では、人はハシゴから落ちるか?
「イエス」なら、世界モデルを持っている。
人とハシゴの関係を学習していないのに、推論できたから。
リンゴも隕石も人間も、地球上の物体は同じで、地球に引き付けられる(落ちる)。一を聞いて十を知るごとく、モノゴトを抽象化し、世界の基本ルールをマスターしているわけだ。これが世界モデルである。
このような抽象化は、人間でも難しい。だから、数学が苦手な人が多いのである。
ところが、大規模言語モデルはこのレベルに達したのだ。完全ではないだろうが、それは人間も同じ。
言葉の意味もわからず、統計で言葉をつないでいるだけ、と蔑んできた識者は、悔い改めるときがきた。審判の日は近い(煽り過ぎですね)。
■言葉の足し算・引き算
では、大規模言語モデルは、なぜこんな芸当ができるのか?
まずは「データのベクトル化」。
「ベクトル」は、データ形式の一つだ。たとえば、3次元空間の座標をベクトルで表すと
p=(x座標、y座標、Z座標)
このとき、ベクトルの次元数は、x座標、y座標、Z座標で「3」である。
このように、ベクトルは複数のデータを1つのデータとして表せる。
大規模言語モデルは、テキスト、画像、音声のデータをベクトルに変換して処理する。これは、とても賢い方法だ。
というのも、すべてのデータをベクトルに一元化することで、すべてのモノコトを「計算」に帰着できるから。
つまり、大規模言語モデルとは、森羅万象を「計算する」システムなのだ。人間の思考方法と根本的に違うことは明らかだ。
ただし、データのベクトル化は、大規模言語モデルが初めてではない。2013年に公開された「word2Vec」までさかのぼる。
Word2vecは、Googleの研究者が開発したプログラムで、言葉をベクトル化し、計算で自然言語処理する。ただし、word2Vecは、大規模言語モデルと違い、文脈は処理できない。あくまで、単語レベルだ(AIが扱う単語を「トークン」という)。
word2Vecも大規模言語モデルも、基本原理は脳を模倣したニューラルネットワーク。ただし、複雑さは桁違いだ。word2Vecは「2層」のニューラルネットワークだが、大規模言語モデルの最新版GPT-4は「100層」を超える。
そこで、シンプルなword2Vecで、言葉のベクトル化を体験しよう。
論より証拠、word2Vecを使ったプログラムを書いてみた。
3年前に書いた自然言語処理AIに、word2Vecの機能を追加し、膨大なテキストデータを学習させた。
word2Vecができることは2つ。
言葉の類義語をみつけることと言葉の演算。
言葉の演算?
言葉の足し算と引き算ができるのだ。
さっそく、確かめてみよう。
「類義語検索」と「言葉演算」の選択肢があるので、まず後者を選択。
つぎに、言葉の演算「ヒトラー ー ドイツ + ソ連」を指示する。
意味するところは、ヒトラーからドイツ(国籍)を引いて、かわりにソ連(国籍)を足す。
期待する答えは、ソ連のヒトラーだ。
その処理結果を示す(アプリの画面をキャプチャした)。
1位は「スターリン」で確率は71.9%。つまり、ソ連のヒトラーはスターリンと答えているのだ。
ビンゴ!
ただ、2位以下はちょっと的外れ。ソ連にからむ言葉が多いが、人物はスターリンとモロトフだけ。モロトフはスターリン政権のナンバー2で、外相を務めた人物だ。
とはいえ、2層のニューラルネットワークでここまでできるのだ。
ただし、学習させたデータ群は部屋1杯分の本に相当する(特に歴史が強い)。word2Vecは、テキストの中の単語と単語の距離で類似度を決めるので、精度はデータに依存する。
ちなみに、このプログラムでは、word2Vecはベクトルの次元数を「256」に設定した。
では、最新の大規模言語モデル「GPT-4o」の次元数は?
GPT-4oに聞くと「12,288次元以上」と回答した。
つまり、一つの言葉を、1万以上のパラメータ(属性)で管理しているわけだ。その中にズバリ「人物」や「国籍」があるとは思えないが、人物や国籍に相当する属性はあるはずだ。でないと、こんな言葉の演算はできないから。
というわけで、AIの本質は、AIのプログラムを書かないとわからない。
「ファウスト」はゲーテの代表作で、歴史に残る長編戯曲だ。
その中で、悪魔メフィストフェレスはこう言っている。
「悪魔は年寄りだ。だから、歳をとらないと悪魔の言葉は理解できない」
「悪魔の言葉」とは、世界モデル(世界の仕組み)を表す秘密の言語だ。つまり、歳をとらないと、世界の仕組みはわからないと言っているのだ。
それは、AIにも当てはまるかもしれない。
メフィストフェレスは言いました。
「AIはプログラムだ。だから、プログラムを書かないとAIの言葉は理解できない」
ん~、なんか騙されたような。
■OpenAI Vs. Google
今回発表された大規模言語モデルで、AIは目と耳と口をもった。
「人間対AI」のコミニケーションが、「人間対人間」と同等になったのだ。
くわえて、AIは、人間より物知りだし、口が達者で、嫌なこと一つ言わない。各分野の専門家、良きアドバイザー、心休まる話相手を兼ねるわけだ。人間のお友だちはいらなくなりますね。
すると、こんなツッコミが入りそうだ。
歯車(今は半導体)でてきた機械に何がわかる。血の通ったアナログな人間だけが、真のパートナーになりうるのだと。
いえいえ、大事なことを忘れています。
ある統計によると、人間の悩みやストレスの原因の約30%が「人間関係」だそうな。
さて、AIと人間どっち?
話をもどそう。
今回、Googleが発表したアプリとサービスは、さながらAIのデパートだ。今できることを、すべてやっている。
たとえば、面倒くさい返品処理。
通販でシューズを買ったけど、返品したい。
商品をスマホにかざすだけでOK。
画像からメーカーや型番を特定し、G-mailでメールを探し、注文先をつきとめ、返品手続きをしてくれる。
さらに、壊れたレコードプレイヤーをスマホにかざせば・・・
どこが故障しているか、その対処方法まで教えてくれる。
まるでSFの世界だ。
このように、複雑なタスクを指示できるAIを「AIエージェント」という。いつか出ると言われてきたが、こんな早いとは。
AIの進化は加速している。
線形の変化なら予測可能だが、非線形の変化は予測するのは難しい。AIが社会実装されたとき、AI格差が生まれるだろう。活用するヒトとそうでないヒトで。
だが、あまり神経質になる必要ない。AIがわからなければ、わかる友人、知人に頼ればいいから。
GoogleのAI戦略は明快だ。
AIは使ってなんぼ。ユーザーとちゃんと向き合って、便利なアプリ、サービスを提供している。GoogleのAIビジネスは、考え抜かれていて、スキがない。まさに盤石の布陣で、他社の追随を許さない。
では、OpenAIの「GPT-4o」は?
会話の品質では、Googleの「Gemini 1.5 Pro」を上回るが、アプリとサービスのビジネス展開では、Googleに遠く及ぼない。
ところが、不思議なことに、メディア(Youtubeを含む)の反応は真逆だ。
同じ成果をあげても、OpenAIは絶賛され、Googleは沈黙(今回のマルモーダルも)。一方、何か失敗すると、Googleは大騒ぎなのに、OpenAIは沈黙。
なんで?
最終的に、OpenAIに勝つと思っているから?
確かに、OpenAIには一発逆転のチャンスがある。
「AGI(汎用人工知能)」だ。
人類が夢見る究極の人工知能で、人間と同等の知能をもつ。いや、人間を超えるだろう。人間より、早く、正確に、網羅的にやるから。しかも、発明・発見もこなすから、特許もノーベル賞もAIのもの(法は認めないだろうが)。
OpenAIの目は、まっすぐAGIに向いている。
OpenAIが自ら告白しているから、間違いない。
2024年5月、OpenAIはこう発信している。
「最近、次世代モデルのトレーニングを開始した。我々は、この結果として得られるシステムが『AGI』への道のりで、次のレベルの能力にわれわれを導いてくれると期待している」
ターゲットは明確にAGIだ。
■本が消える日
AGIが発明されたら、人間は完全に失業する。
AIロボットが、計画立案、意思決定、設計・製造・工事・サービスまでやるから。しかも、政治、経済、外交、軍事、文化、あらゆる分野におよぶ。さらに、発明・発見・創作までこなすのだ。
AGIが人間最後の発明になるのは間違いない。
では、人間は何をする?
消費するだけ。
早い話、穀潰し(ごくつぶし)です。
人間は、AIロボットが生み出す価値で、ベーシックインカムを享受する。食物連鎖の頂点の座をAIに譲り、消費するだけの存在に堕ちる。
すると、怠け者は小躍りして喜ぶだろうが、恐ろしい未来が待っている。
食物連鎖の2位じゃダメなんでしょうか?
ダメです、命が危ないので。
人間が他の動物に何をしてきたか、思い出そう。
娯楽のために動物狩りをするのは人間ぐらいですよ。
AGIが発明されたら、間をおかずASI(超人工知能)に自律進化するだろう。人間はおろかAGIさえ凌駕する超知能・ASIである。何をするか、どんな概念をもつさえわからない。ただし、コンピュータは合理主義に最適化されているから、価値を生まず、消費するだけの穀潰しを見逃すはずがない。
そんな大きな話ではなく、もっと小さな話もある。
AGIが出現したら、本は消えるだろう。
当然、著者、出版社、本屋、図書館も消える。
仕事はAIロボットがやるので、人間は勉強する必要がないから。つまり、本を読む必要がなくなるのだ。
でも「役に立つ」ではなく「楽しい」勉強もあるのでは?
それでも本は消える。
AIに、こんな本が読みたいといえば、その場で書いてくれるから。しかも、画像、動画付きで、望めば読み上げくれる。ここまでくれば、本ではないが、それが本の消える理由でもある。
やっぱり、本は消える運命にあるのだ。
古代ギリシャの吟遊詩人ヘーシオドスは、「仕事と日」の中で、5つの時代を物語った。
黄金族の時代、銀族の時代、青銅族の時代、英雄の時代、鉄族の時代である。
労働の苦しみがない「黄金族の時代」から、労働が課せられた「鉄族の時代」へ、人類は悪化の一途をたどっていると嘆いたのだ。
すべて「金属」なのに、一つだけ「英雄の時代」?
人間の歴史は悪くなる一方だが、一つ前の「英雄の時代」はまだマシだった。ホメーロスのイーリアスとオデュッセイアの世界を言っているのだ。自分たちの祖先は、トロイアで戦った偉大な英雄、高貴な存在なのだと。
けれど、ヘシオドスのノスタルジックに美化された「妄想の時代」にしかみえないのは、気のせいだろうか。
ん~、歴史的詩人を批判してはいけませんね。
お前は一体何様、と言われそうです。
とはいえ、「AI族の時代」が到来すれば、そんな悠長なことを言っていられない。
人間知の原点「本」が消えるのだ。
本(書物)の歴史は古い。
媒体は、粘土板、パピルス、羊皮紙、紙と進化してきた。
製本は、写本、印刷と進化してきた。
本は、人類文明5000年の源(みなもと)なのだ。
それが化石になろうとしている。
原子力は、街を明るくするが、灰にすることもできる。
AIは、人間の助けになるが、失業させることもできる。
原子力とAIは別物にみえるが、同じ穴のムジナなのだ。
by R.B