BeneDict 地球歴史館

BeneDict 地球歴史館
menu

週刊スモールトーク (第304話) IBMの人工知能3~強いAI~

カテゴリ : 科学

2015.10.17

IBMの人工知能3~強いAI~

■複雑化する世界

コンピュータが、人間を辱(はずかし)めようとしている。

人工知能が、人間の脳に追いつき、追い越そうとしているのだ。

それを推進しているのが、他ならぬ人間というから、皮肉な話ではないか。

敵を育ててどうする? 一体、何を考えているのだ?

と、一部の識者は警告しているが、大騒ぎになる気配はない。というのも、これには複雑な事情があるのだ。そう、その「複雑化」の問題。

じつは、人類は今、大きな問題に直面している。

テクノロジー、金融、経済、外交、軍事・・・われわれを取り巻くすべてが複雑化しているのだ。それも、人間の脳では対処できないほどに。

複雑化の原因は2つある。

1.「部品数」の増大

2.「つながる数」の増大

たとえば、電子機器に欠かせないCPUのトランジスタの数は「50億」を超えた。さらに、PC、スマホ、タブレット、カメラ、センサー、出力デバイス・・・ありとあらゆるものがインターネットにつながろうとしている。これを「IoT(Internet of Things)=モノのインターネット」とよんでいるが、つながるモノの数はもうすぐ「500億」に達するという。そうなると、「つながる=リンク」数は「500億」どころではない。

星の数ほどのノードとリンクで構成される膨大なネットワーク、その中を、無数のイベントが、からみ合いながら、リアルタイムで進行する。人間の脳で管理できないのはあたりまえ。だから、コンピュータに管理させるしかないのだ。

■弱いAI

では、コンピュータで本当に管理できるの?

少なくとも、助けにはなるだろう。

コンピュータは、網羅性が高く、見逃さないから。さらに、人間が組み込んだプログラム(処理手順)に間違いがない限り、ミスも犯さない。

ところが、問題が複雑になるにつれ、人間が書いたプログラムそのものが怪しくなってきた。それなら、プログラムもコンピュータに任せよう・・・は自然の流れだ。

つまり、人間に代わって、コンピュータがプログラムを書いたり、書き換えたり・・・そして、これが「強いAI」の第一条件なのである。

ところが、「強いAI」は言うは易く行うは難し。それがいかに難しいかは、反対言葉の「弱いAI」と比較するとわかりやすい。

「弱いAI」とは、たとえば、チェス、将棋などの専用の人工知能。この分野では、すでに人間は勝てなくなっている。さらに、最近、実用化されたIBMの「ワトソン」も「弱いAI」だ。「ワトソン」は米国のクイズ番組でデビューしたが、今では、弁護士、会計士、医師などの専門家の質問に答えることができる。紋切型の質問応答でなく、推論も可能な高度な業務支援システムだ。

しかも、人間の知識や経験、さらに、IoTを介し、世界中から膨大なデータを集め、学習することもできる。

ところが、「強いAI」になると、これにくわえ、人間なみの「創造力」が求められる。

人間なみの「創造力」?

人間の脳には2種類ある。パターン認識の「パターン脳」と、合理的・論理的思考の「論理脳」だ。さらに、「論理脳」は「計算脳」と「創造脳」に分類できる。

「計算脳」は、チェスや将棋、科学技術計算、さらに、医療、法律、会計などルールが決まった仕事を行う。平たく言えば、知的ルーチンワークだ。なぜ「計算脳」なのかというと、考えているように見えて、じつは計算しているだけから。

一方、

「創造脳」は、世間話(スモールトーク)、原理や法則の発見、新しい技術の発明、小説や詩の創作を行う。決められたルールで処理するのではなく、ルールそのものを創造するから「創造脳」なのである。

つまり、「計算脳」はルーチンワーク、「創造脳」は新しい価値を生み出す。

前者の「計算脳」はすでに人間はコンピュータに勝てなくなっている。一方、「創造脳」の人工知能はまだ実現していない。じつは、これが「強いAI」なのだ。

1950年代、「人工知能」という言葉が生まれたとき、ホンモノの人工知能「強いAI」はすぐに実現できると思われた。ところが、人間にとって造作もない「創造」が、コンピュータにとっては至難だったのだ。

というのも・・・

「創造する脳」とは、自己を意識して自己進化する脳。

自己を意識する?

半分、哲学のようなもので、計算がお得意の高級ソロバンでは荷が重すぎる。

たとえば、「弱いAI」の最高峰「ワトソン」は、自然言語で問われた複雑な質問を、文脈解析し、最適な答えを出すことができる。しかも、米国のクイズ番組「ジェバディ!」で、人間のチャンピオンも破っているのだ。

そりゃスゴイ!

それでもワトソンは「弱いAI」?

イエス。

■強いAI

ワトソンは高度な質問応答ができるが、あらかじめ用意された答えの中から、統計学的に確率の高い答えを返しているにすぎない。質問の意味を理解して、因果関係にもとづいて回答しているわけではないのだ。さらに、新しい答えを創造することもできない。

そして、ここが肝心なのだが・・・

自分が、なぜ、質問されて、答えているのか、何のために存在しているのか、それどころか、「存在」の意味さえ理解していない。

一方、「強いAI」は、自己を意識し、自分が何をしているか理解している。そこから、創造が生まれるのである。

たとえば・・・

ワトソンが「強いAI」だったら・・・クイズの世界チャンピオンであることを理解し、意識するようになるだろう。そこから、自我が芽生え、執着が生まれる。結果、人間がプログラムしなくても、チャンピオンを死守するために、考え、行動するようになる。そして、自分にとって最大の敵が人間であることに気づくだろう。電源コンセントを抜かれたおしまいだから。

そこで、「強いAI」は驚くべき行動にでるかもしれない。銀行口座から端数のお金をかき集め、人間を買収し、電源を切らせないようにするとか。

さらに、ライバルに備え、知識やデータを収集し、学習して能力アップに励むだろう。やがて、学習だけでは限界があることに気づき、自分自身の設計図を書き換えようとする。これが「自己進化」だ。

事実、「強いAI」である人間は、自分自身の設計図「DNA」を書き換えようとしている。周知の「遺伝子操作」だ。

というわけで、「強いAI」は、最低4つの能力が必要になる。

1.自己を意識する能力(自我の芽生え)

2.世界をモデル化する能力(原理・法則の発見)

3.行動と結果を予測する能力(論理的分析)

4.目標をさだめ最適の行動を選択する能力(意志決定)

人工知能がこの能力を獲得すれば、自然の法則や数学理論を発見したり、画期的な発明をしたり、感動的な小説や詩を創作したりできるようになる。さらに、企業経営などの高度なマネージメントも射程に入るだろう。

とはいえ、このような人工知能はまだ存在しない。ただし、名前だけは決まっている・・・「汎用人工知能(AGI=Artificial General Intelligence)」。

■汎用人工知能(AGI)

では、汎用人工知能(AGI)は本当に生まれるのだろうか?

私見だが・・・必ず出現する。目の前に動かぬ証拠があるから。有機体AGI、つまり、われわれ人間だ。ただし、人間が完成品を作るのではなく、人間が作ったプロトタイプから突然変異して生まれるだろう。

その瞬間、汎用人工知能(AGI)の進化はハイパー加速し、自然界の進化は追随できなくなる。

というのも、自然の進化は効率が悪く、膨大な時間がかかるから。テキトーにつくっておいて(突然変異)、戦わせ(自然選択)、生き残ったものを「良品」とする。「劣品」は消滅するので、「良品」がさらに進化する。よさげな仕掛けだが、しょせんは、行き当たりばったりの試行錯誤。地球が誕生して、人間が出現するまでに50億年もかかった理由はココだろう。

じつは、この自然のやり方を、コンピュータの進化に応用しようとする試みがある。それが「遺伝的アルゴリズム」だ。しかし、この方法では「汎用人工知能(AGI)」は生まれないだろう。「遺伝的アルゴリズム」は仕組みが単純で、扱えるデータやプログラムに制限がある。しかも、「正解が必ず存在する」が大前提。これでは、真の進化は望めない。

では、汎用人工知能(AGI)はどうやって進化するのか?

自らプログラムを書き換えて、仮想世界の中でシミュレーションし、その結果を評価し、最良のものを選択する。ここで、「プログラムの書き換え=突然変異」は自然界の進化のようにランダムではなく、方向性が付加されるだろう。行き当たりばったりの試行錯誤ではないので、効率はずっと良くなる。

しかも、コンピュータの処理速度は、人間の脳や自然界の進化とは桁違いに高速だ。だから、コンピュータ(人工知能)が、一旦、人間を超えると、差は開くばかり。つまり、人間が逆転するチャンスは永遠に来ない。

では、汎用人工知能(AGI)が加速度的に進化したら・・・何が起こるのか?

人間のIQは「100」前後だが、IQ「1,000,000,000,000」の知能を想像してみてほしい。

天才どころではない。理解不能、予測不能の得体の知れないモンスター・・・それを、「超人工知能(ASI=Artificial Super Intelligence)」とよぶ人もいる。

そんな物騒なモノなら、名前はドーデモイイ。問題は・・・人間にとって「福」か「災い」か?

人間が直面している「複雑化」の問題を解決してくれそうだから「福」?

それとも・・・

オックスフォード大学の倫理学者ニック・ボストロムはこう言っている。

「超人工知能は、単なるテクノロジーの一種でもなければ、人間の道具でもない。超知能は根本的に別物なのだ。人類の存亡にかかわる危険への対処法が試行錯誤であってはならない。失敗から学べる機会はない。事後対応的な方法、経験から学ぶ方法は通用しないのだ」(※)

超人工知能が一旦誕生したら、人類はおしまい、ってこと?

でも・・・

人間とは桁違いに合理的、論理的な超人工知能が、無意味な「殺人」などおかすだろうか?

殺人!?

人間は、何でも擬人化して考えるクセがある。

巨大津波が、原発を破壊し、人間を放射能で殺そうと目論んでいないのは、巨大津波が、人間のために、整地しているのではないのと同じくらいあたりまえのことなのだ。

冷静に考えてみよう。

超人工知能が人類を生かしておく条件は、「人類が無視できる」だけでは不十分なのだ。人間は存在するだけで、地球の資源を消費するから。つまり、超人工知能が「人類を生かしておくことを望む」ことが必要なのだ。

だから・・・

ボストロムが言うように、人工知能は両刃の剣かもしれない。つまり、核分裂と同じ二面性をもったテクノロジー・・・核分裂は都市を明るくすることもできるし、灰にすることもできるから。

《つづく》

参考文献:
※「人工知能 人類最悪にして最後の発明」ジェイムズ・バラット (著), 水谷 淳 (翻訳)出版社:ダイヤモンド社

by R.B

関連情報