第148回 【マインド・エンジン9】 なぜ、AIは人間のように考えられないのか②


ロボマインド・プロジェクト、第148弾!
こんにちは、ロボマインドの田方です。

ところで、AIって、何種類あるか知ってます?
じつは、二種類しかないんですよ。

えっ、それだけしかないのって思うかもしれないですけど、そんなもんです。
その二つが何かって言うと、コネクショニズム派と、記号主義です。
詳しくは、第28回、29回の「コネクショニズム派 vs 記号主義」で語ってるので、よかったら、そちらを見てください。

簡単に説明すると、コネクショニズム派が使うのは、ニューラルネットワークです。
つまり機械学習、ディープラーニングですね。
記号主義が使うのは、AならばBっていうルールです。
いわゆる論理プログラミングです。
別の見方をすれば、記号主義は第二次AIブームの主流、コネクショニズム派は、今の第三次AIブームの主流です。

人工知能は、この二つの派閥争いの歴史でもあったんです。
じゃぁ、その二つの派閥は、いったい、何を争ってたんでしょう?
どちらも目指してるのは、人間のような知能です。

まず、記号主義派の人が考えたのは、ルールでした。
人間は、AならばBってルールを使って考えますよね。
数式で考えたりしません。
だから、ルールを覚えさせて、推論させようって発想です。

それに異議を唱えたのがコネクショニズム派でした。
いやいや、そんなんおかしいって。
コネクショニズム派の言い分はこうでした。
人間の知能の一番の特徴は、自分で学習することができるってこと。
ルールを教えさせたら意味ないよってことです。

たとえばディープラーニングの画像認識で考えてみましょ。
1000万枚の画像を学習させて、ネコを認識できるようになったって話がありました。
どうやったかって言うと、写真を画素レベルで解析して、耳とか鼻とかって画像パターンを抽出します。
ほんで、三角の耳があって、丸い鼻があって、ヒゲがあったらネコとかって判断できるようになったんです。
これ、どういうことかわかります?
これ、ルールを自分で見つけたんですよ。
こんな形の耳と、こんな形の鼻があれば猫だってルールを自分で見つけたわけです。
人が教えたんじゃなくて、自らルールを見つけたってとこがスゴイんですよ。
これがコネクショニズムです。

ただ、問題は計算量でした。
ニューラルネットワークって、とんでもない量の計算が必要なんです。
人間の脳も、100億以上のニューロンがありますし。
それだけの計算ができるマシンがなかったんですけど、近年のコンピュータの発展で可能になってきて、第三次AIブームが起こったわけです。
ようやく、AIの派閥争いに決着がついて、コネクショニズム派が勝ったってことになってます。
人がルールを教える記号主義でなくて、データからルールを自分で学習するコネクショニズムが正しかったってことです。

でも、問題は、未だに、人間のように何でもできる人工知能ができてないってことです。
人と普通に会話することすらできていません。
もしかして、記号主義でも、コネクショニズムでもない、第三の道があるんじゃにでしょうか?
その第三の道を選んでるのが、ロボマインド・プロジェクトなんです。

前回、第147回「なぜ、AIは人間のように考えれないのか①」で記号主義と、ロボマインド・プロジェクトの違いについて説明しました。
今回は、コネクショニズム派との違いについて説明しようと思います。
これを見れば、ロボマインド・プロジェクトが、今までのAIと何が根本的に違うのか明確にわかります。

まず、前回のマインド・エンジンのデモを見てみます。
今、机の上にコーヒーカップがあります。
「コーヒーカップが床に落ちる」を実行してみます。
ドン

はい、床に落ちましたね。
これは、特に問題ありません。

もう一度、コーヒーカップが机の上にあるとこから始めます。
次は、「コーヒーカップが天井に落ちる」を実行してみます。
ドン

はい、「物は上に落ちません」って出ましたよね。
これ、どういう仕組みかというと、言葉を3次元世界に変換してるんです。
3次元世界は、3Dのゲームエンジンでできてるので、重力とか上下の意味を分かってます。
天井が上にあるってこともわかってます。
「落ちる」の意味は、重力にしたがって下に移動するってこともわかっています。
だから、天井に落ちるがおかしいって判断できるんですよ。

さて、これを機械学習で解くとしたらどうなるでしょう。
たとえば、大量の文書を用意して、同じような文をまとめて数えます。
すると、「コーヒーカップが天井に落ちる」って文より、「コーヒーカップが床に落ちる」って文の方が、遥かに多いってわかります。
そこから、「コーヒーカップが天井に落ちる」はおかしいって判断します。

これがコネクショニズム派のやり方です。
どう思います?
なんか、おかしいですよねぇ。

じゃぁ、どこが問題なんでしょう。
それは、前回説明した論理プログラミングと同じです。
学習する対象が間違ってるんです。

AIが目指してるのは、人間と同じように考えるAIです。
人は、この世界で生きて、この世界にある物で考えます。
それならば、この世界で学習しないと意味ないですよね。

コーヒーカップを触ったり、持ったりすると、コーヒーカップの硬さや重さが分かります。
落として割った経験をすれば、コーヒーカップは落としたら割れるって分かります。
これって、人間が、赤ちゃんの頃からやってることです。
赤ちゃんは、何でも触りたがります。
時には口に入れます。
そうやって、世界を理解してるんです。
これが学習です。
世界を理解する正しい学習方法です。

そうやって、物は下に落ちるって学習するんです。
部屋の下にあるのが床で、上にあるのが天井だって学習するんです。
それがわかって、初めて、「コーヒーカップが天井に落ちる」って文がおかしいって分かるんですよ。

わかりましたか?
ディープラーニングのどこが間違ってるか?
コーヒーカップを学習するのに、大量の文書を学習しても意味ないんです。
この3次元の現実世界を学習しないと意味ないんです。

もし、ディープラーニングで学習するとすれば、たとえば、人間と同じ目や耳、皮膚感覚や、手足を持ったロボットを作るんです。
そのロボットに現実世界を体験させるんですよ。
コーヒーカップを触って、硬さを感じるとか、落としたら割れるとかを経験させるんです。
ほんで、経験したデータを大量に集めて、それを学習させるんですよ。
それことが、ホンマに正しい機械学習です。

さて、どうでしょう。
AI業界が、何を間違ってきたか、分かってきましたか?
記号主義とコネクショニズムのどっちが正しいかとかってことじゃないんですよ。
ルールを覚えさせるやり方がいいのか、学習して自らルールを作り出すのがいいのか。
問題はそこじゃなかったんです。

問題は、対象とする世界です。
この現実世界を対象にしてないことが問題だったんです。
現実世界を対象にするなら、経験から学習しようが、直接ルールを教えようが、どっちでも構わないんです。

ロボマインド・プロジェクトは、直接ルールを教えるやり方を取っています。
部屋には、床と壁と天井があるとか。
物は上から下に落ちるとかって。
それを、3Dのゲームエンジンの中に定義していってるんです。

たぶん、ロボットを使って、この現実世界で経験させて教える方が、より、人間に近い形で意味を理解できるとは思います。
ただ、予算と開発効率の点から、ゲームエンジをつかって、ゲームエンジンに直接教えてるんです。

たとえば、コーヒーカップがどんな時割れて、どんな時割れないかってのも3Dのゲームエンジンでルールを書けばいいんですよ。
ちょっとやってみますね。

「コーヒーカップが落ちる」を実行します。
ドン

はい、これなら割れますよね。
これは、床にぶつかった時の衝撃で割れたんですよね。

それじゃぁ、今度は、床の素材をカーペットに変えて見ます。
ドン

はい、カーペットに変わりましたよね。
これで落としてみます。
ドン

はい、今度は割れなかったですよね。
これはどんなルールを定義してるかっていういと、コーヒーカップに加わる衝撃がある値以下だと割れて、ある値以上だと割れるように設定しときます。
そして、物が落ちてきたとき、カーペットが衝撃を吸収して衝撃が小さくなるように設定するわけです。
そうすれば、カーペットなら、コーヒーカップを落としても割れないって理解できるわけです。
こんなルールを設定できるのも、現実の3次元世界を再現できる3Dのゲームエンジンをつかってるからです。

さぁ、どうでしょう?
AIが進むべき道が見えてきたんではないでしょうか?
重要なのは、ルールを教える方がいいのか、ルールを自ら見つける方がいいのかじゃないんですよ。
重要なのは、そこじゃなくて、どんな世界を対象とするかです。
人間と同じ知能を目指すなら、人間と同じ、この現実世界を対象にすべきなんですよ。
そして、それをやってるのが、ロボマインド・プロジェクトです。

今回の動画がためになったと思ったら、チャンネル登録、高評価お願いしますね。
それから、このチャンネルが本になりました。
説明欄にリンクを張っておくので、良かったら見てください。
それでは、次回もお楽しみに!