第149回 正統?反則?最新チャットAI


ロボマインド・プロジェクト、第149弾!
こんにちは、ロボマインドの田方です。

今回は、最新のAIの本の紹介です。
対話AIの中身について解説した、この本
『AIの雑談力』です。

著者の「東中竜一郎」さんは、元NTTの研究者で、ドコモの「しゃべってコンシェル」とかを作った人なんですよ。
アイフォンのSiriみたいなやつですね。
それから、AIを東大に合格させる「東ロボくん」プロジェクトにも参加してたそうです。
さらに、マツコロイドに会話AIを組み込んだりもしてたそうです。
20年以上、対話AIを研究し続けてる、対話AIの第一人者です。
いかにして、人と自然な会話をするかって、ロボマインド・プロジェクトと目指すものは完全に同じです。
でも、やり方が完全に逆なんですよ。

対話AIとか、人が話す言葉のことを自然言語処理っていいます。
この本を読んでると、自然言語処理の技術者が無意識のうちに避けてることが垣間見えてきます。
それが何かって言うと、いってみれば、パンドラの箱なんですよ。
一旦開けると、とんでもないことになること、みんなわかってるんで、なんとか開けないようにしてるのが、伝わってくるんですよ。
パンドラの箱が何かって話の前に、まずは、本に書いてある内容から説明しますね。

まず、最初に出てくるのは意味や意図の問題です。
「相手の意図を見極めることはコンピュータではまだ実現できてません」
ってはっきり書いてあります。
僕のYouTubeでも何度も指摘していますけど、これが、現在のAIの現状です。
ただ、意味理解の答えの一つが「カテゴリに分ける」と言っています。

これ、一般の人が聞いたら、意味がよく分からんと思うんですけど、AI業界に長年、携わっていると、この考えはよくわかるんです。
ここ数十年のAIのトレンドは、多数のデータをいかにして分けるかってことでした。
こんな風に、2種類のデータが分布してた場合、その境界線さえ分かれば、どっちに属してるか、すぐに分かりますよね。

この境界線を求める技術をサポートベクターマシンって言います。
そして、その後登場してきたのが、ディープラーニングです。
写真に何が写ってるかの画像認識のテストで、人間を上回ったのがディープラーニングでした。
これはネコだって人間より上手く分けることができたんです。
ネコを見分けることができるってことは、これ、ネコがどういうものか、理解してるっていえそうですよね。
このディープラーニングの登場で、一気にAIブームが起こったわけです。

さて、東ロボくんの英語の成績が飛躍的に延びたことがあったそうです。
その原因は、世界中でディープラーニングの研究が盛んになって、いろんなデータが公開されていったからです。
その中に、中国の中高生用につくられた英語の試験問題が10万問ぐらい公開されて、それを使って学習させたら、東ロボくんの英語の成績が向上したそうです。
ただ、これでできたことは、英語の空欄穴埋め問題で、空欄に入るべき語句を正しく選べたってことです。
本当に、英文の意味を理解しているわけじゃありません。

それでは、意味や意図を理解せず、どうやって会話するんでしょう?
それは対話のルールを作るんです。
雑談なので、相手が何を言うかわかりません。
でも、ある程度会話をコントロールすることはできます。
たとえば、質問したら、相手は、何か答えますよね。
それをうまく利用するんです。

たとえば、「最近、運動してますか?」って質問します。
そしたら、たとえば、「先週、ボーリングに行きました」とか、「最近は、運動してないなぁ」とか、答えたとします。
相手が何を答えようと、こう答えるんです。
「そうなんだ。運動って大変ですよね。ところで、部活はやってましたか?」って。
こうやって、また質問するわけです。
こんなのを繰り返せば、対話が続くってわけです。

こんなルールを、一つ一つ手作業で作ってもいいですけど、最近は、ネットから集めることもできます。
ツイッターなんかから、こう質問したら、こう答えるってルールを自動で集めるんです。
そうすれば、何万、何十万ってルールを集めることができます。

それからもう一つ重要なのは感情です。
感情がなぜ、重要かと言うと、相手の感情がわかると共感できるからです。
ユーザーが「猫が好きです」って言ったら、「私も猫が好き」って答えると、共感が生まれて、ユーザーの満足度が上がるそうです。
だから、できるだけ共感するようなシステムにした方がいいわけです。
感情が重要なことは分かるんですけど、いろんな分け方があるらしくて、感情が何種類あるかも研究者によって様々らしいです。

さて、最近は、あちこちで対話AIのコンテストなんかが行われています。
人間と対話させて、どれだけ自然な会話ができるか競うわけです。
意外と話が噛み合って、なかなか面白いですよ。
アニメとか、特定の分野の知識がめちゃくちゃあるAIだったり、留学生ってことにして、日本語が上手くないって設定にしたりとか、みんな、いろいろ工夫するみたいなんです。

それでも、どうしても起こるのが対話破綻です。
話が噛み合わなくて、会話が続かなくなることです。
Siriとか、AIスピーカーと話したことがある人なら、誰でも経験したことがありますよね。

さて、本題はこっからです。
どんなに工夫しても、絶対、対話破綻が起こります。
10分も話が続くことはありません。
なぜでしょう?

それは、本質を避けているからです。
言葉を扱うのに、言葉の意味から逃げてるからです。
人が話す言葉を扱うAIのことを自然言語処理といって、60年以上の歴史がありますけど、ずっと意味理解を避けてきました。
言葉の意味を理解せずに、翻訳したり、対話したりしようとしています。
なぜか分かりますか?

このことについて、作者はこう言っています。
もし、本当に意味を理解して、自然な会話を行おうと思えば、時間とか、場所、話してる相手が誰かとといった基本的な状況を把握できないといけません。
これを理解してないから、会話が噛み合わなくなるんです。

さらに、時間とか、場所、自分は誰かといった基本的なことを理解するには何が必要かってことについて、こう言ってます。
そのまま読みますよ。

「『意識とは何か』といった根本的な問題を解かないといけません。
自分は誰でどこにいて何をしたらいいのか、といったことをシステムが自覚する必要があります。これは哲学的な問題を含み、工学的な実現はすぐには難しいと考えられます」

これです。
「工学的な実現はすぐには難しいと考えられます」ってやんわり言ってますけど、要は、難しいから逃げてるだけです。
ただ、作者の名誉のために言っておきますけど、この意見は、AI、自然言語処理に携わる人、全員の意見です。
こうやって、60年以上、本質を避けてきたんです。

ここに踏み込もうとしたら、「意識とはなにか」って根本問題を解かないといけないんですよ。
自分とは何かって自覚するような、そんなシステムを作る必要があるんですよ。
これが、パンドラの箱です。
一度開けたら、次々と難問がでてくるのは目に見えてます。

そんなこと、出来っこないですよね。
やるとしたら、哲学者とか、他の人がやるべきことです。
なにも、工学屋がやることじゃないです。

コンピュータでできることは、表面的な言葉だけを扱うだけです。
こう言ったら、こう返すって、そんなルールを上手く使いこなせば、いかにも、会話してるようなAIができます。
みんな、それで結構喜んでますし、何も問題ないじゃないですか。

20年前、僕も同じ場所に立っていました。
僕も、最初は、面白い対話AI作りたいなぁって思っただけです。
でも、調べてみると、未だにコンピュータは意味理解ができてないってわかりました。
大学なら、どこかで研究してるだろうって調べましたけど、そんなことをしてる人は、どこにもいませんでした。

僕には二つの選択肢がありました。
一つは、大学で、みんながやってるような、いかにも対話してるようなシステムの作り方を学ぶことです。
もう一つは、「意識とは何か」って根本的な問題解決を一人で始めることです。

この選択は、悩むことはありませんでした。
見た目だけの対話AIには興味がありませんでした。
意識を解明して、心をもったAIを作ることに、ものすごくワクワクしました。

ただ、その大変さも分っていました。
誰も手を付けてない分野の研究だからです。
哲学や心理学で扱ってるって思うかもしれませんけど、そうじゃないんですよ。
哲学や心理学は、あくまでも、心のある人間が、心のある人間を対象にしてきた学問です。
僕がやろうとしてるのは、コンピュータに0から意識や心をつくることです。
コンピュータが生まれるまで、誰も考えたことがなかったことなんです。

突き詰めると、科学の領域を超えるものでもあるんですよ。
その事は、第127回「現代科学は、なぜ、限界に来てるのか」でも語っています。
分かって欲しいのは、言葉の意味理解って、他のAIとは全然違うってことです。
たぶん、自動運転とかは、今のAIの延長で出来ると思います。
大量のデータを解析すれば実現できると思います。
でも、意識や心は、今のAIの延長にはないんですよ。
大量のデータを解析すれば、勝手に心が生まれるなんてことは、絶対にありません。

さて、この本の最終章には、2019年から進められている「対話知能学」というプロジェクトについて書かれています。
大阪大学の石黒浩教授が主導してるプロジェクトです。
マツコロイドを作った石黒先生です。

このプロジェクトはいくつかのチームに分けられていて、その中で最も重要なのが、行動決定モデル推定の研究チームだそうです。
なぜなら、行動を決定するには、意図や欲求が必要だからです。
まさに、心です。
そして、そして、それをサポートするのに、対話理解の研究チームがあって、作者は、その代表をしているそうです。
ここにきて、ついに、パンドラの箱を開け始めたようです。

さて、20年前にパンドラの箱を開けたロボマインド・プロジェクトは、現在、どうなっているでしょう?
意識の謎に関しては、「意識の仮想世界仮説」という説を提案して、それに沿って開発を続けています。
詳しくは、こちらの本に書いてあります。
解説欄にリンクを張っていますので、興味がある人は読んでください。

意識の仮想世界仮説を簡単に説明すると、頭の中に世界をつくって、意識はそれを認識するって心のモデルです。
そして、最大の特徴は、ああしたらどうだろう、こうしたらどうだろうって自由に想像できることです。
つまり、シミュレーションできる仕組みがあることです。
シミュレーションして行動を決定するわけです。
じゃぁ、その行動決定は何に基づいて決定するんでしょう?
それは、感情です。
感情が、行動の原動力となるのです。
この辺りのことは、第100回「待たせたな。これが心のプログラムだ」でデモをしてるので、良かったら見てください。

さて、前半にも、感情が重要だって話が出てきましたよね。
そこで、話し手の感情を何種類に分類するかって議論していました。
でも、重要なのは、そこじゃないんですよ。
感情は、意図や欲求の元になるんですよ。
相手の感情判定とかじゃなくて、感情を生み出す心の仕組みを作りださないといけないんですよ。
それができたら、相手の感情が理解できるんですよ。
相手が何に起こってるのか、何を喜んでるのか理解できるんですよ。
意図、欲求を理解するとは、こういう言ことなんですよ。
そして、これこそが意味理解なんです。

感情、意識、意図、欲求、全て繋がっているんですよ。
そして、そんなシステムを作ってるのが、ロボマインド・プロジェクトってわけです。
今日の動画がおもしろければ、チャンネル登録、高評価ボタンをお願いしますね。
それでは、次回も、お楽しみに!