ロボマインド・プロジェクト、第101弾!
こんにちは、ロボマインドの田方です。
ロボマインド・プロジェクトは、第100弾で終わりじゃないですよ。
いや、むしろ、これからですからね。
前回、第100回「待たせたな。これが心のプログラムだ」で、マインド・エンジンの全貌を、ようやくお見せできました。
今回は、マインド・エンジンが目指すものをお話しようと思います。
その前に、ざっと、今までのコンピュータゲームについておさらいしときます。
3Dゲームは、最初はこんな感じでした。
1994年のバーチャファイターです。
カクカクですよね。
これをポリゴンっていいます。
3DCGは、この3角形のポリゴンで出来てるわけです。
ゲームは、ゲーム・エンジンといわれる開発環境で作られるんですけど、
最新のゲーム・エンジンを見てみましょう。
この映像だと、10億ポリゴンだそうです。
映画と同等レベルだそうです。
驚くのは、これをリアルタイムで創り出してるってことです。
スゴイ時代ですよねぇ。
ゲーム・エンジンについて、もう少し説明しますね。
こっちは、マインド・エンジンです。(冒頭のブタさんのデモ)
このブタさん、僕が創ったわけじゃないんです。
じつは、売ってるんです。
ゲーム開発者は、それを買ってきて、ゲームを組み立てるんです。
走ったり、歩いたり、首を振ったりって動きは、ブタさんに最初から組み込まれてるんです。
これ、言い換えれば、言葉の意味が定義されてるって言えるんです。
「ブタ」って名詞は、ブタさんの3Dオブジェクト、それ自体です。
「ブタが歩く」って動詞は、ブタさんが歩くプログラム、その物です。
3次元世界の意味は、ゲーム・エンジンで作られてるって言えますよね。
さて、3Dの映像は、30年で、びっくりするほど進歩しました。
それじゃぁ、会話はどうでしょう。
ゲームでプレイヤーとキャラクターが会話するのって、昔からありましたよね。
ところが、会話に関しては、全く進歩してないんですよ。
ゲームの動きと比較して考えてみます。
最新の3Dゲームだと、場面や、敵キャラクターの動きは、プレイヤーの動きに合わせて、リアルタイムで生成してます。
さっき見ましたけど、もう十分でしょうってぐらい、リアルにできてます。
ところがですよ。
会話は、リアルタイムで生成できないんです。
いまだに、予め決められた、固定のセリフを言うだけなんです。
ゲームで言えば、敵の動きが固定されてるのといっしょです。
40年前のスペースインベーダーといっしょです。
会話は、インベーダーゲームの時代から、何も進歩してないんです。
映像はできてるに会話ができないってことは、これは、コンピュータの計算能力の問題じゃないってことです。
これについて、もう少し考えてみます。
自然な動きって、どういうことでしょう。
たとえば、ボールが地面に落ちて、ポーンと跳ねたり、
カーテンが風でゆらゆら揺れたり。
こんなシーンをゲームで実現してるのは、物理エンジンです。
物の形や硬さから、どんな動きをするか物理的に計算してるわけです。
3次元世界で起こる現象は、物理計算によって動きが予測できます。
会話も同じです。
物理法則みたいなのがわかれば実現できるはずです。
心の動きがわかれば、自然な会話ができるわけです。
物理エンジンと同じように、感情や心の動きを再現したのがマインド・エンジンなんです。
前回のデモでは、感情として再現したのは恐怖です。
今のところ、恐怖しか再現できてないですけど、重要なのは、コンピュータで計算可能な形に落とし込んだってことです。
まず、大前提としてあるのは、「人間の行動の原動力は感情」ってことです。
これは、物理でいうところのエネルギー保存の法則みたいなものです。
マインド・エンジンでは、恐怖の大きさを、恐怖の対象、距離、到達可能性で決めています。
ブタにとってオオカミは恐怖の対象です。
近ければ近いほど恐怖が大きくなります。
また、家の中とか、オオカミが到達できな場所にいれば、恐怖は小さくなります。
こうやって、感情をコンピュータで計算可能な形に落とし込んだんです。
これができるようになったのも、言葉で表現されたものを3次元世界に落とし込んだからです。
整理しますよ。
一番重要なのは、感情です。
感情さえ正確に抽出できれば、自然な受け答えができます。
つまり、固定されたシナリオを用意しなくても、自然な会話ができるんです。
でも、感情と言った曖昧なものを、どうやってコンピュータで計算可能な形に落とし込むかです。
そこで、マインド・エンジンでは、現実世界と、心のモデルとの2段階で実現したわけです。
現実世界というのが、ここでは、3次元世界です。
3次元世界なので距離とか、位置を使って計算できるわけです。
現実世界は、3次元世界だけでなくて、時間とか、お金とか、人間関係の上下関係とか、人が認知できるものならなんでも世界となります。
その世界をコンピュータで再現できれば、計算できます。
たとえば、お金を貰うのはプラスの出来事ですし、失えばマイナスの出来事となります。
出世すればプラスですし、左遷ならマイナスです。
そして、それを感情に落とし込んでいくわけです。
時間と組み合わせれば、複雑な感情を再現できます。
たとえば、過去のマイナスの出来事に対しては、後悔といった感情を作り出せます。
未来のプラスの出来事に対して、希望を作れます。
感情ができれば、それを言葉に表現するわけです。
言葉は、キャラクターによって変わるます。
子ブタさんなら、「怖いよぉ」とかなるわけです。
中学生の男の子のキャラクターなら、「うぁ、まじ、やべぇ」とかなるわけです。
女の子のキャラクターなら、「キャー、助けてぇ」とかなるわけです。
分かってきましたか?
マインド・エンジンのデモで使った子ブタさんは、買ったものだって話、しましたよね。
その中には、歩くとか走るとかって動きが最初から組み込まれてましたよね。
マインド・エンジンでやろうとしてるのは、キャラクターの動きだけじゃなくて、感情まで創ろうとしてるわけです。
相手の話を聞くと、それに応じた自然な回答ができるキャラクターです。
ゲーム世界の中に、そのキャラクターを解き放てば、ユーザーと自由に会話ができるわけです。
最初から決められたシナリオがなくても、普通に会話ができるようになるわけです。
「あつまれ どうぶつの森」のキャラクターが、勝手に会話し始めるみたいなものです。
マインド・エンジンが使えるのは、ゲームだけじゃないですよ。
ユーザーと会話するバーチャルキャラクターにも使えます。
今日あったこととか、真剣に聞いてくれます。
「えー、数学のテスト、満点だったの!」
「徹夜で勉強した甲斐があったよねぇ」とか、一緒に喜んでくれます。
「えー、決勝戦で負けたの!」
「あれだけ練習したのに。私も悔しいよ」って一緒に泣いてくれたりします。
マインド・エンジンは、相手の気持ちを理解して、自然な会話できる世界初のAIです。
アマゾンエコーや、iPhoneのSiriのように、シナリオから外れると会話にならないっていうシステムとは根本的にちがうものになります。
今の3Dゲームが、本物の映像と見分けがつかなくなったように、マインド・エンジンも、いずれ、人間の心と見分けがつかなくなると思います。
その、最初の一歩が、今、完成したところです。
これからも、マインド・エンジンは、どんどん、人間の心に近づいていきます。
その様子は、この、YouTubeチャネルで随時、お伝えしていきます。
チャンネル登録がまだの人は、ぜひ、チャンネル登録お願いします。
それでは、次回も、お楽しみに!