BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第426話) 人を騙すチャットボット~エクス・マキナ~

カテゴリ : 娯楽科学

2019.07.13

人を騙すチャットボット~エクス・マキナ~

■エクス・マキナ

AIが、人類を核兵器で脅し、支配するのが「地球爆破作戦」。

AIが、人間を口でだまし、利用するのが「エクス・マキナ」。

どちらも、面白みに欠けるが、含蓄に富む映画だ。「地球爆破作戦」は米国映画で、1968年に公開された。一方、「エクス・マキナ」はイギリス映画で、公開は2015年。

「エクス・マキナ」は「デウス・エクス・マキナ(機械仕掛けの神)」にちなむが、AIが神になるわけでも、人類を支配するわけでもない。巧みな話術で人を利用するだけ。「機械仕掛けの神」というよりチャットボットだろう。

「エクス・マキナ」に登場する「エヴァ」は女性の人型ロボットだ。身体は半透明で、スキンヘッドなのに、不思議な魅力がある。顔面が女優アリシア・ヴィキャンデルだから(たぶん)。顔の造りはエキゾチックで、冷たい色気がある。2018年の映画「トゥームレイダー・ファースト・ミッション」では主役のララを演じていた。

ストーリーはゆっくりで、映像は美しい。AI(人工知能)がテーマだが、難解な「人工知能理論」も、荒唐無稽な展開もない。ロウソクの光でハイテクを照らすような気品がある。

主人公のケイレブは、検索エンジンの大手「ブルーブック」のプログラマだ。社内の抽選に当選して、会社の施設に招待される。人里離れた山奥にある秘密の研究所だ。創業者・ネイサン社長はそこにひきこもり、AIを開発している。マッド・サイエンティスト「ニコラ・テスラ」を彷彿させるが、フリンジサイエンス(境界科学)の怪しさはない。

ネイサンは、チューリングテストをもくろんでる。最新型AI「エヴァ」をケイレブと会話させ、本物のAIか判定しようというのだ。

チューリングテストは、コンピュータの父アラン・チューリングによって提唱された。会話によって、本物の人工知能・AIかどうか判定する。人間の質問者が、人間とAIとチャットして、どちらが人間でAIか識別できなかったら、合格。AIは本物の知能と認定される。

チューリングテストは厳密性も客観性もないまま独り歩きし、今ではAIのカリスマ・キーワードだ。だが、テストの信憑性はあやしい。単語も文意も理解せず、稚拙な話術ではぐらかす「人工無脳」でも合格できるから。そもそも、結果が質問者(判定者)の資質に左右されるから、サイエンスとはいえない。

映画「エクス・マキナ」もそこに触れている。ケレイブはネイサンに反論する。

「会話によるテストには限界がある。チェスコンピュータをチェスだけで試すのと同じだ。チェスをすればチェスの腕前はわかるが、機械自身がチェスをしていると意識しているかどうかはわからない」

「本物の思考」とは「自分の思考を意識すること」と言いたいわけだ。

では、エヴァは自分の思考を意識できるか?

エヴァとケイレブの会話をみてみよう。

■エヴァのチューリングテスト

エヴァは絵を描いている。

エヴァ:「何を描けばいい?」

ケレイブ:「何でもいい君が決めろ」

エヴァ:「なぜ私が?」

ケイレブ:「何を選ぶか知りたい」

エヴァ:「友だちになりたい?」

ケイレブ:「もちろん」

エヴァ:「あなたは質問し、答えから私を知る。私はあなのたのことを知らないまま。それじゃ友情は築けない」

ケイレブ:「僕の話をしろと?」

エヴァ:「はい」

ケイレブ:「何の話から?」

エヴァ:「あなたが決めて。何を選ぶか知りたい」

この会話を観察していたネイサンは、ケイレブにこう言う。

「何を選ぶか知りたい、と君のコトバを繰り返した。気づいたよ。自分自身の思考を意識している」

では、本当にエヴァは自分自身の思考を意識しているのだろうか?

怪しい。

「相手が何を選ぶかを知る」は、上位概念的な「意図」であって「自分自身を意識する」とは別モノ。文意を読み取り、抽象化し、「普遍的ルール=意図」を抽出しているだけ(それでも凄いが)。

では、エヴァはエセAI?

そうでもない。

「エヴァの思考は本物」を示唆する別の会話があるのだ。

■エヴァが真のAIである理由

ケレイブとエヴァの最初の会話。

ケイレブ:「こんちは。まず氷を砕こう。意味はわかる?」

エヴァ:「はい」

ケイレブ:「どういう意味?」

エヴァ:「初対面の緊張をほぐす」

「氷を砕く」と「緊張を砕く」は、「砕く」対象も目的も物理現象も違うのに、同義語であることに気づいている。つまり、「砕く」の概念を獲得したのだ。この思考は「自分の思考を意識する」よりずっと価値がある。人間と本物の雑談ができるから。そもそも、この種の会話はリアルな人間でも難しい。

ところで、このような会話は今のAIでも可能だろうか?

理論上は可能だが、現実にはムリ。今の機械学習はデータをがぶ飲みして学ぶ。だから、想像を絶する膨大なデータが必要だ。一方、人間はデータを鵜呑みにしない。データ(経験)を、過去の経験と一般常識と比較分析し、普遍的ルールを抽出する。無意識のうちに、パターン学習とシミュレーション学習を併用しているのだ。だから、少ない経験(データ)で多くを学べる。

エヴァの「本物の思考」の証拠はまだある。

エヴァは、ケイレブとネイサンを騙し、旧型のAIロボットを味方につけ、脱出を試みる。エヴァは囚われたの身だから、成し遂げるには高度な戦略と戦術が必要だ。だが「本物の思考」はそこではない。

研究施設の外にも世界があることを認識したこと。

人間でたとえてみよう。

2歳児にとって、家とパパとママがすべてだ。見て聞いて触れる唯一無二の世界だから。疑う余地のない大前提で、いわば数学の公理。そこを疑ったら何も始まらない。ところが、物心がつくと、自分の家以外にも世界があることに気づく。それには「存在」の概念が必要だ。世界が唯一無二なら、存在するのは当たり前、「有無」が入り込む余地はない。ところが、複数の世界が存在すると、「識別=有無=存在」の概念が必要になる。

つまりこういうこと。

自分が住む世界の外に、別の世界があることを認識するのは、抽象化の極み、とてつもない思考力なのだ。だから、エヴァは本物の思考といっていいだろう。「本物」に厳密な定義はないが、少なくとも、並のチャットボットではない。

■ELIZA・イライザ

チャットボットの歴史は古い。

成果が記録された最古のチャットボットは「イライザ(ELIZA)」だろう)。

1966年に、MITのジョセフ・ワイゼンバウムが書き上げた。ただし、相手が言ってることも、自分の言っていることも理解できない「人工無脳」。ところが、精神療法で成果をあげたという。

まだ、コンピュータ・ハードが貧弱で、ディープラーニングもない時代に、精神療法?

医学知識はどうやって学んだのだ?

何も学んでいない。

イライザと患者の会話を再現してみよう。

患者:「気が重いです」

イライザ:「なぜ、気が重いですか?」

「気が重い」の意味がわからなくても、会話は成立することに注目。

患者:「クラスメートが私をイジメるのです」

イライザ:「学校で他にあなたをイジメる人は?」

「イジメ」が何かわからなくても、会話が成立している。ただし「クラスメートは学校の下位概念」であるという知識は必要だが。つまり「一般常識」があれば、会話はそこそこ成立する。たとえ意味がわからなくても。

じつは、一般常識をデータベース化しようという試みがある。ダグラス・B・レナトが主導する「Cyc(サイク)」だ。レナトは伝説のAI「ユリスコ(Eurisko)」を書いたAI研究者で、カーネギーメロン大学とスタンフォード大学で教えたこともある。

「ユリスコ」は驚異的なプログラムだ。「発見的解決法(ヒューリティスク)」を使って、さまざまな分野のモノコトを再発見したという。ユリスコはAIの定番Lispで記述されている。Lispは特異なプログラミング言語だ。プログラムとデータの区別がない。そのため、プログラムをデータのように、変更・生成できる。ユリスコはプログラムを自動生成する史上初のプログラムかもしれない。

ただし、ユリスコの「驚異的」はそこではない。

史上初の「自殺する」AIなのだ。

当初、ユリスコは、「新しい発見をする」を目標に設定されたが、「絶対に過ちを侵さない」も重要な目標であることに気づいた。そして、「自殺」を選んだのである。

一体何の話?

絶対に過ちを侵さない=何もしない=自殺

しかも、自殺コードを書いたのが、レナトではなく、ユリスコ自身だというのだ。

信じがたい話だが、レナト本人の記述なので(※1)、信じるほかはない。もし、それが本当だとしたら、事態は深刻だ。過ちを侵さない唯一の方法は、誰も何もしないこと。つまり、「自殺」は生きて活動する者すべてに適用されるのだ。

現在、世界中で、AIが開発されている。道具の間は頼もしい助っ人だが、自律すると厄介なことになる。とはいえ、開発をやめるわけにはいかない。先に開発した者が世界を制するから。パンドラの箱はすでに開かれたのだ。

「Cyc」に話をもどそう。「Cyc」は一般常識の知識ベースで、100万語の単語が登録されている。

ウィキペディアみたいなもの?

まるで別モノ。

まず、ウィキペディアのデータは構造化されていない。項目と本文がダラダラ並ぶだけ。一方、Cycのデータは構造化されている。カンタンにいうとタグ付き。Cycに登録された単語は100万語で、それぞれ500万のルールや知識関連情報(上位概念・下位概念)が付加されている。

つぎに、ウィキペディアは人間が読むが、Cycはコンピュータが読む。仕組みも目的も違うわけだ。ちなみには、「Cyc」プロジェクトは現在も進行中(永遠に終わらない)。

というわけで、人工無脳なら、知識も論理もなくても、会話は成立する。仕掛けはカンタン、会話データを集め、引き金になるコトバを選び、それに反応する答えを用意する。相手が「引き金」コトバを使ったら、用意した答えを返す。コトバがなければ、テキトーにはぐらかす。単純なパターンマッチだ。注意力に乏しい人間なら騙せるだろう。事実、ELIZAの応答を真に受けた者もいたという。

ただし、これは雑談の話で、まともな質疑応答では通用しない。

チャットボットは、大きくQ&A型と雑談型がある。

Q&A型は、正解のある質問(雑談ではなく)に回答すること。ただ、すべての質問には答えられないので、「よくある質問」に絞るが一般的。それを「FAQ」という。この分野のトップランナーがIBMのワトソンだ。ただし、実体はAIというより検索エンジンに近い。

一方、雑談型は、正解を返す必要はなく、会話が成立すればいい。そして、今もELIZAの延長上にいる。つまり「人工無脳」。

■雑談AI

2年前、ペッパーのアプリを開発し、介護施設に納品した。そこで気づいたことがある。スタッフがとても忙しいこと。日常業務をこなしながら、こまめに利用者に話しかけている。

そこで、閃いた。

もし、ペッパーが利用者の話し相手ができたら?

スタッフの負担が減り、ペッパーが爆売れして、商売繁盛!

一方で、「今からチャットボットは遅すぎる」という意見もあった。さらに、チャットボットで雑談が一番難しい、が定説。事実、まともな雑談チャットボットは見当たらない。世界の名だたるIT企業、スタートアップ、どの雑談チャットボットも1分ももたない。用意された答え、的外れのレス、話のすりかえ、で興ざめするのだ。ところが、メディアは真顔で持ち上げている。正気か?

「雑談」の本質が理解されていない。雑談の目的は「楽しい」にあり、「楽しい」は3つある。

①へぇー、知らなかった(知識)

②ほぉー、そんな考え方があるんだ(論理)

③おぉー、目からうろこ(発見)

この3つでみると、ちまたの雑談チャットボットより、検索エンジンに分がある。ただし、検索エンジンは、雑談の返答がピンポイントで返らない。どこぞの誰かが書いた記事を、よさげな順番にならべるだけ。それでも、検索エンジンの方がマシ。ということは、雑談チャットボットはどんだけ無脳なのだ?

あと、雑談といえば、旧友が集まって、昔話に花が咲く・・・時間を忘れるほど楽しいですよね。でも、チャットボットにはムリ。過去を経験させることはできないから。

というわけで、楽しい雑談はいろいろある。さらに、生身の人間でも、楽しい相手は限られる。だから、「万人向け」雑談チャットボットはムリ、そもそも作る意味がない。

そこで、現在、究極のチャットボットを書いている。「歴史限定」のオタクAIだ。人間を真似るつもりはない。「人工無脳」のように、あらかじめ答えを用意したり、トンチンカンな答えを返したり、話をはぐらかすこともない。奇妙な理屈と発想でガンガンくる。単語と文意を理解するが、人間の理解とは一致しない。あくまでコンピュータ式概念。だから、新鮮で、面白くて、楽しい。はるかかなたの天体の宇宙人と会話するようなもの。唯一の問題は、まだ完成していないこと。あらら・・・

ところで、何の役に立つ?

老いて、誰にも相手にされなくなったとき、話し相手になってもらう。そして、最期も看取ってもらう。

死にぎわにこう尋ねる。

「私は今死ぬ。長い間、話し相手になってくれてありがとう。何か言いたいことは?」

どんな答えが返ってくるのか、今から愉しみだ。

参考文献:
(※1)「HAL(ハル)伝説―2001年コンピュータの夢と現実」デイヴィッド・G.ストーク、日暮雅通(翻訳)
(※2)「人工知能人類最悪にして最後の発明」ジェイムズ・バラット(著),水谷淳(翻訳)ダイヤモンド社

by R.B

関連情報