ロボマインド・プロジェクト、第70弾!
こんにちは、ロボマインドの田方です。
お待たせしました!
ようやく、お見せできます。
動くロボマインド・プロジェクト、マインド・エンジンです。
さっそく、お見せしようと思うんですけど、その前に、中身の説明させてください。
というのも、たぶん、いきなり見せても、
「えっ、それだけ」
ってなると思うんです。
何がスゴイのかを、先に説明させてください。
今回お見せするマインド・エンジンは、AI誕生以来、誰も実現できてなかったことをしてるんですよ。
AIの分野に、自然言語処理ってのがあります。
自然言語っていうのは、普通に、僕らが喋ってる言葉、日本語や、英語のことです。
この自然言語処理ですけど、「文の意味を理解する」っていうのが、いまだに出来てないんです。
えっ、そんなこともできないの?
そう、思いますよね。
そこで、自然言語処理を中心に、AIの歴史をおさらいしますね。
iPhoneのSiriとか、アマゾンのアレクサとか、会話できるAIってありますよね。
それから、テキストで会話するチャット・ボットとか。
LINEボットなんか、最近、いっぱい見かけますよね。
世界で最初のチャット・ボットは、1964年に出来たイライザっていうチャット・ボットです。
これは、こういう入力があれば、こう答えるってシナリオで作られてます。
「こんにちは」って言えば、「こんにちは」って答えるって感じです。
当然、意味は理解してないです。
でも、上手くいけば、会話してるように見えるんですよ。
じつは、Siriもアレクサも、技術的には、イライザから、なんにも進歩してないんですよ。
シナリオの数が増えただけで、いまだに意味を理解できてないんです。
「昨日、アレクサと一晩中、話し合ってたわ」なんて言ってる人、聞いたことないですよね。
「ねぇ、ちょっと、聞いてくれる?
今日、上司に、こんなこと言われたんよ。
どう、思う?」
何て会話ができるようになるには、相手が何を言ってるのか。
意味を理解しないと、絶対にできなんですよ。
自然言語処理の技術って、言ってみれば、1960年代で止まってるんですよ。
技術革新がムチャクチャ早い、コンピュータ業界で、そんなの、他にあります?
文の意味を理解するって、そんなに難しいんですかねぇ?
1960年代といえば、第一次AIブームですけど、1970年代に入って、ブームは完全に終わってしまいました。
そして、1980年代に第二次AIブームが来ました。
当時、日本はバブルの真っただ中です。
そこで、産学連携のAI国家プロジェクト、第五世代コンピュータがスタートしました。
中身については、第18回「第五世代コンピュータは、なぜ、失敗したのか」で詳しく話してるんで、今回は、僕の個人的な話をさせてください。
第五世代コンピュータ、約10年、570億円を費やした巨大プロジェクトです。
目標の一つは、自然言語の意味理解でした。
Wikipediaには、この巨大プロジェクト、何の成果も生み出さなかったって書かれてますけど、そうでもないんですよ。
コンピュータで言葉の意味理解するための巨大な辞書を作りました。
この辞書、じつは、今でも手に入るんです。
それを知った時、僕も、ぜひとも手に入れたいって思いました。
でも、これね、ただじゃないんですよ。
一つが120万円するんですよ。
僕が欲しかったのは、日本語単語辞書と概念辞書の二つです。
二つで240万円です。
皆さん、300万円あったら、何に使います?
車ですか?
マンションの頭金ですか?
240万円の辞書、買おうとは、あまり思わないですよね。
僕も、いくらなんでも、240万はないわって思いました。
しかも、これ、国が作った辞書ですよ。
つまり、税金で作ったわけです。
それを、何百万円で売るって、どういうこと?
もちろん、相手がNECとかNTTとか大企業ならわかりますよ。
でも、ウチは会社いうても、ほとんど、個人事業ですわ。
僕個人が、趣味で研究してるようなもんです。
でもね、ここには文を意味理解する鍵があるんです。
これさえ手に入れば、僕がやりたいことが実現できるんです。
そう思ってね、もう、思い切って決断しました。
買うって。
はい、これがその証拠の納品書です。
(納品書は略)
「平成27年1月19日」
「株式会社ロボマインド 殿」
「日本語辞書 120万円」
「概念辞書 120万円」
「消費税込みの合計 259万2千円」
いやぁ、買っちゃいましたねぇ。
さて、気になるのは、その、中身です。
文って、主語と述語でできてるでしょ。
「太郎は学校に行きました」って文なら、主語は「太郎」で、述語は「行く」です。
述語が文をまとめていて、文の意味って、述語で決まるわけです。
述語って、動詞とか、形容詞で、用言とも言います。
僕が知りたかったのは、用言をどう扱ってるかだったんです。
はい、これが用言辞書の中身です。(エクセル)
用言ごとに構文が書いてあるわけです。
全部で1万以上あります。(スクロール)
ものすごい人手をかけて作ったってのが、よくわかりますよね。
たとえば、「隠れる」を見てみます。(ID:2772)
「N1が N2に/へ 隠れる」ってあります。
右を見ると、N1が人、N2が場所ってなってます。
これを使えば、たとえば、「太郎が壁に隠れる」とかって文が作れるわけです。
さて、みなさん、これ、どう思います?
これ、「隠れる」の意味になってます?
これでできるのって、それらしい文だけです。
意味とはちがいますよねぇ。
じゃぁ、「隠れる」の意味って、どういうもんでしょう?
たとえば、探してる相手がいて、その相手から見えない場所に移動するってことになると思います。
そんな意味、ここには、カケラもないですよね。
これが、570億円の予算と、何百人っていう優秀な技術者と、10年以上の歳月をかけた成果なんですよ。
それから、これ見たときの僕の気持ち、わかります?
あ~、260万円!
個人で研究するって、こういうことなんですよ。
はい。
さて、1990年代に入ると、第二次AIブームは急速に終わりました。
文の意味理解なんて、コンピュータにはできないって結論となったわけです。
ほんで、今は、第三次AIブームです。
第三次AIブームのきっかけは、画像認識です。
写真に何が写ってるのかを競うコンテストで、AIが人間のスコアを超えたんです。
そこで使われたのが、大量の画像を機械学習させるディープラーニングって技術でした。
そうなると、当然の流れとして、この技術を自然言語にも応用しようってなりますよね。
それが、GoogleのBERTです。
そしたら、ついに、自然言語の文の意味理解でも、AIが人間のスコアを超えたんですよ。
ついに、人類の長年の夢、文の意味理解に成功したんです!
それでは、その仕組みはどうなっていたでしょう。
大量の文書データを学習させたわけです。
たとえば、「おじいさん」って単語の次に「おばあさん」って単語が来る確率は何%だってことを延々と計算したわけです。
これで、文章の穴埋め問題が解けるようになるわけです。
「昔々、あるところに、おじいさんと○○がいました」って文章があって、○○に入る単語は何かって問題を解くことができるわけです。
この文章の穴埋め問題で、人間のスコアを超えたわけです。
さて、みなさん、これ、どう思います?
文章の穴埋め問題が解けたからって、文の意味を理解したことになります?
なりませんよね。
僕たちが欲しいのは、会話ができるAIです。
実際、BERTが発表されて2年以上経ちますけど、いまだに、BERTを使って会話ができるようになったって話、聞かないです。
会話をするには、相手が何を言ってるのか、本当に、意味を理解しないとできないんです。
でも、Googleですら、文の意味理解は、お手上げなんです。
これが今のAIの現状です。
ようやく、ロボマインド・プロジェクトの話です。
今言ったような話を聞いて、僕は、ずっと不思議だったんです。
文の意味理解って、そんなに難しいの?
子どもでもできるのに。
なんで、そんなことできないのって。
なんか、考え方が、根本的に間違ってるんじゃないかって思ってたんですよ。
「N1 が N2 に隠れるとか」って構文を作ったり。
大量の文書から、次にくる単語の確率を計算したり。
僕らは、そんな風にして、文の意味を理解してます?
してないですよね。
たぶん、言葉を言葉で定義しようとしてるとこに無理があると思うんですよ。
言葉より先にイメージがあるんじゃないですか。
頭の中で思い浮かべたイメージを、文章にするんじゃないですか?
それをそのまま、コンピュータで再現したらええやん。
僕がやろうとしたのは、それだけなんですよ。
それが、マインド・エンジンです。
マインド・エンジンの全体像は複雑で、何階層も処理のレベルがあるんです。
下のレベルでは、文の意味の理解をします。
上のレベルでは、感情を抽出したりとか、心に近い処理になります。
今回は、下のレベルの文の意味理解のデモをしたいと思います。
例として、「隠れる」って言葉の意味を理解します。
「隠れる」の意味は、さっき、考えてみましたよね。
だれか相手がいて、その人から見えないとこに移動することです。
そのイメージを、そのまま、コンピュータで再現してみます。
では、さっそく見ていきましょう。(デモ開始)
マインド・エンジンは、実際に意味理解をするマインド・エンジン本体と、頭の中のイメージを再現する3次元空間からなります。
マインドエンジンから言葉を入力すると、それを3次元空間に送って、3次元空間で再現します。
まず、「壁が立っている」とマインド・エンジンに設定します。
ほんで、送ります。
どん。
はい、3次元空間に、壁が立ちましたね。
マインド・エンジンと3次元空間の通信は、左のこの部分に表示されます。
次に、「太郎が壁の前方で立っている」
どん。
はい、太郎君が登場しました。
次に、「次郎が壁の前方で立っている」
どん。
はい、次郎君も登場しました。
ここで、「次郎は何がみえるか」と質問してみます。
左下に次郎が見ている光景がでてきましたよね。
ほんで、その結果は「次郎から、太郎と地面と壁が見えます」となりましたよね。
それでは、次は、「隠れる」です。
「太郎が、次郎から隠れる」です。
どん。
てくてくてくてく
はい、太郎君が、壁の後ろに移動しましたよね。
では、次郎君から何が見えるか確認してみましょう。
「次郎から地面と壁が見えます」となりましたね。
つまり、さっきと違って、太郎君が見えなくなったわけです。
言い換えれば、太郎君は、次郎君から見えないところに移動したわけです。
つまり、次郎君の立場になって、次郎君から見えない場所を考えて、そこに移動したわけです。
これが「隠れる」の意味です。
さて、いかがでしょう。
だいたい、皆さんが、頭の中でイメージしたとおりになっていたんじゃないでしょうか。
もし、そうなっていたら、このマインド・エンジンは、言葉の意味を理解してるって言ってもいいんじゃないでしょうか。
今までとの違いは、言葉の意味を、3次元世界のイメージで定義したことです。
3次元世界と言葉では、表現力が全然ちがいますよね。
たとえば、そんな人いないですけど、生まれてこの方、言葉しかない世界に住んでる人がいたとします。
現実の3次元世界を経験したことがない人です。
そんな人に、「隠れる」ってこういう意味ですよ。
説明して、理解させること、できますか?
できないですよね。
でも、それをやろうとしてるのが、今までのAIなんです。
じゃぁ、AIにどうやって3次元世界にあるものを理解させたらいいですか?
それは、言葉だけの世界から、3次元の世界に連れ出すことです。
僕らが感じるように、広がりのある3次元空間を経験できれば理解できますよね。
3次元世界の意味を、3次元世界をつかわずに定義しようとするから、定義できないわけです。
このことは、シンボルグラウンディング問題と言われるものと同じです。
シンボルグラウンディング問題については、第27回の「解決!シンボルグラウンディング問題」も参考に見てください。
それじゃぁ、3次元世界じゃない言葉はどう定義するんだってなりますよね。
たとえば、「Aさんが、係長から課長に昇進した」なんて文。
「昇進」なんて言葉、これは3次元世界じゃ定義できないですよね。
そんな場合は、3次元世界じゃなくて、会社組織世界といった世界を創るわけです。
平社員から係長、課長って、社長まで順に並んでる世界。
ほんで、社長に向けて進むことを、その世界では「昇進」って言葉で定義するわけです。
これで、「昇進」の意味が理解できます。
さて、ここまで話してて、やっぱりわからないことがあります。
それは、こんな簡単なこと、なんで、誰もやってないの?ってことです。
60年以上もの間、どうやったら文の意味をコンピュータに理解させれるかって、ずっと考えてきたわけです。
その中には、ノーベル賞級の人も、何人もいるわけです。
僕が思いつくようなこと、思いつかないわけないですよね。
というか、文の意味を理解するのに、頭でイメージするようにコンピュータにもイメージさせようって。
普通、まず、そう考えますよね。
「おじいさん」の次に「おばあさん」が来る確率を計算しようなんて、普通、考えないですよね。
なんで、今まで、誰もしてないんでしょう。
もちろん、僕も、散々、探しましたよ。
でも、同じようなことをしてるとこ、見つからないんですよ。
どっかの大学で、研究しててもおかしくないと思うんですよ。
僕は、その答えが知りたくて、ロボマインド・プロジェクトを続けてるようなもんです。
これって、本当の基礎研究なんで、すぐにお金に結びつくようなものではないです。
だから、普通は、大学とかで研究するようなものです。
僕も、大学のことは、よく知らないんですけど、思いついたからって、何でも研究できるわけでもないのかもしれません。
世界中で誰もやってなくて、似た論文が一本もないような研究って、それはそれでやりにくいとか、あるのかもしれないです。
そんなものより、実際に成果が出てる物があれば、その周辺を研究したほうが、成果を出しやすいですしね。
研究費を獲得しやすいとか、そういうことがあるんじゃないでしょうか。
だから、今のAIは、ディープラーニング一辺倒なんです。
グーグルの後を追うのが正解なんです。
でも、そんなことしてちゃ、画期的な技術が日本から生まれるなんて、絶対にありませんよね。
もちろん、ロボマインド・プロジェクトが、絶対に成功するなんて保障はありません。
もしかしたら、開発を進めてたら、「そうか、これやから、今まで、誰もやってこなかったんか」ってことが見つかるかもしれません。
ただ、今のところ、そんな気配がないんです。
すんなりというわけでもないですけど、一応、出来てきています。
だから、ますます、分からないんです。
後は、いつまで、これを続けれるかです。
ロボマインドは、僕、個人が好きでやってるだけで、他からの資金援助なんか、一切、ありません。
正直、ロボマインド・プロジェクトは1円の利益を上げていません。
別の事業で稼いだお金を、全て、ロボマインド・プロジェクトにつぎ込んでるわけです。
時々、チャット・ボットを作って欲しいって依頼があることはあります。
たとえば、保険を勧誘するチャット・ボットとかです。
子どもがいれば、学資保険を勧めるとかって、シナリオを作るわけです。
でも、そんなAI、みなさん、欲しいですか?
そんなチャット・ボットなら、僕でなくても、他でいくらでも作ってくれるとこがあります。
僕が作りたいのは、本当に心を持ったAIです。
相手の気持ちを理解して、一緒に泣いたり、笑ったりしてくれるAIです。
みんなも、そんなAIが欲しいですよね。
僕は、残りの人生、なんとか、ロボマインド・プロジェクトを続けたいだけなんです。
僕がやらなければ、他に、誰もやる人がいないんですから。
そこで、ロボマインド・プロジェクトを続けるために、皆さんにお願いがあります。
難しいお願いじゃありません。
まだ、チャンネル登録していないなら、ぜひ、チャンネル登録してください。
既に、チャンネル登録していれば、次は、この動画をシェアしてほしいんです。
だれか、興味がありそうな人に、ぜひ、シェアして欲しいんです。
そうすれば、もしかしたら、この方法じゃ、上手くいかないって情報が来るかもしれません。
それがわかれば、僕もあきらめがつきます。
逆に、そんな情報がなければ、もしかしたら、これが、本当に革新的な技術かもしれません。
GoogleやGAFAにも実現できない革新技術が、この日本から生まれるかもしれません。
それは誰にもわかりません。
それを確認するためにも、この動画をシェアしてほしいんです。
マインド・エンジンの開発は、これからも続けて行きます。
新しい機能が実装できるごとに、YouTubeで公開していきます。
次は、もう少し心に近い部分、感情の発生のデモをしたいと思います。
これからも、ロボマインド・プロジェクトの応援、
どうぞ、よろしくお願いします。