第456回 右脳と左脳をもった汎用人工知能の作り方


ロボマインド・プロジェクト、第456弾!
こんにちは、ロボマインドの田方です。

先日、汎用人工知能研究会で発表したとき、ロボマインド・プロジェクトと今のAIとはどう結び付くのかって質問されました。
その時は、ChatGPTと脳の言語野の関係で答えました。
言語野には発話処理するブローカー野と意味理解するウェルニッケ野があります。

ウェルニッケ野が損傷すると、意味はめちゃくちゃですけどそれらしい文章を流暢にしゃべる失語症になります。
ChatGPTは、意味を考えずに次に続く単語をつなげて自然な文章を生成します。
つまり、ChatGPTがやってるのはブローカー野と同じです。
一方、僕らが作ってるのは言葉の意味を理解するシステムなのでウェルニッケ野です。
だから、今のAIとロボマインドとはブローカー野とウェルニッケ野の関係で連携するのが理想じゃないかって答えました。
回答としては間違ってはないですけど、どう連携するのか具体的にイメージできないなぁとずっと思っていました。
山鳥先生の『脳からみた心』を読んでたら、これが具体的に見えてきました。

それは、言語でなくて「見る」場合の話です。
今のAIは、パッと見た全体のイメージで判断する処理方法です。
逆に、じっくり論理的に考えるのは苦手です。
イメージの処理は脳で言えば右脳です。
論理的に考えるのは左脳です。
そう分類すれば、今のAIは右脳、ロボマインドは左脳と言えそうです。
これが融合したとき、人間の脳と同じ処理になると思います。
つまり、汎用人工知能です。
これが今回のテーマです。
右脳と左脳を持った汎用人工知能の作り方
それでは始めましょう!

Aさん(日本人男性)は、まだ50代の銀行員ですけど、最近、電車をのり過ごしたり、字が読めなくなったりしてきたそうです。
どうも目がよく見えなくなっているそうです。
診察して見ると、視力は問題ないし、ものの認知も問題ありません。
ただし、それは対象が一つの場合に限られます。
二つ以上の物を同時に認識することができませんでした。

たとえば、紙に2点を書いて、「線で結んでください」って言ってもできないんです。
2点を一度に見ることができないそうなんです。
1点に鉛筆を置いて線を引こうとしても、もう一点が見えなくて、適当なとこに向けて線を引き始めるんです。
もしかして、片側が見えない半側空間無視かもしれません。
そこで、目の前に鉛筆を出して、鉛筆が見えるか聞くと見えると言います。
つぎにスプーンを出して、右側から鉛筆に近づけます。
でも、Aさんはスプーンに気づくことなくて鉛筆しか見えないといいます。
左からスプーンを近づけても同じです。
このことからAさんは、半側空間無視ではなくて、同時に一つの物しか認識できないようです。

イギリスの心理学者キンスボーンも同じような症状の患者を紹介しています。
その患者は、瞬間的に二つの絵を提示すると一つしか認識できないそうです。
そこで、絵の大きさを大きたそうですけど、それでも一つしか認識しません。
今度は、二つの絵の位置を近づけたそうですけど、それでも一つしか認識しません。
つまり、大きさや位置は関係ないんです。
もっといえば、物理的な刺激は関係ないってことです。
関係するのは対象の数だけです。
対象が複数になると、同時に認識できないわけです。
さて、これはどう考えたらいいんでしょう?

このことを、意識の仮想世界仮説で考えてみます。
意識の仮想世界仮説というのは僕が提唱してる意識仮説です。
人は、目で見た現実世界を頭の中で仮想世界として構築します。
意識は、この仮想世界を介して現実世界を認識します。
これが意識の仮想世界仮説です。

仮想世界は、コンピュータなら3DCGで作れます。
リンゴを見たら、3Dのリンゴオブジェクトを作るわけです。
オブジェクトは、メモリに生成されます。
「リンゴの色は?」と聞かれたら、メモリ上のリンゴオブジェクトの色プロパティにアクセスして「赤色」って答えることができます。
「リンゴは植物ですか、それとも動物ですか?」って聞かれたら「植物です」って答えることができます。
これは、リンゴの概念関係から答えたわけです。
こういった論理的な思考や、部分に注目するのは左脳が行うものです。

じゃぁ、右脳はどんな処理をしてるんでしょう。
それは、全体の把握です。
左脳が損傷して右脳で見る人と、右脳が損傷して左脳で見る人がいます。

それぞれに、左の元の絵を模写してもらいました。
右脳は全体を捉えてますけど、細かい中身が見えてませんよね。
左脳は、細かい部分はかけてますけど、全体を捉えることができてませんよね。

顔を見ても誰か分からない相貌失認という障害があります。
前回も紹介しましたけど、相貌失認の人は髪型とかから誰か想像することしかできません。
相貌失認は、右脳が損傷したときに起こりやすいそうです。
つまり、顔全体を捉えることができなくなったわけです。
左脳で判断するので、細かい部分は分かるので、髪型とかから判断するわけです。

全体を捉えると言うのは全体のイメージのパターンを捉えるということです。
これは今のAIが得意なことです。

たとえば動物の画像を判定するAIを作るとします。
まず、猫、犬、虎の大量の画像を学習させて判別モデルを作ります。
すると、未知の画像を投入すると、「虎が映ってるらしい」って判断できます。
これがイメージを判断するってことです。
注意してほしいのは、イメージの判断と意味とは別だってことです。
意味って言うのは、虎は肉食動物だとか、インドに生息してるとかってことです。
これは左脳の担当です。
パッと見たイメージが右脳の担当です。
こうして考えると、今のAIがやってるのは右脳の処理だってことがわかりますよね。

さて、今、目の前にリンゴとブドウの絵があるとします。
Aさんは、リンゴを認識したときブドウが見えなくなるわけです。
これについて考えてみます。
リンゴを認識できるということは仮想世界につくられたリンゴオブジェクトを意識は認識してるということです。
これは左脳の認識です。
一方、右脳は世界をイメージとして認識します。
イメージとして認識するとは何らかのパターンで認識するということです。
たとえば二つの目と口があったら顔だってパターンで認識するとかです。
だから、点が三つあれば何でも顔に見えます。

この現象は、認知心理学でパレイドリア現象って名前もつかられています。

さて、今、左にリンゴ、右にブドウの絵があるとします。
見えてる世界全体のイメージの判断は右脳が行います。
右脳は、左に何か、右に何かが見えるってパターンを使って世界を見るとも言えます。
このとき、「左に何がありますか?」と聞かれたとします。
すると、左に注目してリンゴを認識します。
ものを認識するとは、仮想世界のオブジェクトにアクセスするということです。
リンゴオブジェクトにアクセスして「リンゴがあります」って答えます。
この処理をしてるのが左脳です。

次に、「他に何が見えますか?」って聞かれたとします。
すると、再び、パターンを使って全体を認識します。
これが右脳の処理です。
こんな風に人は左脳と右脳を切り替えながら世界を認識します。
これが「見る」ということです。

こう考えると、Aさんは全体をパターンで認識するところがうまく機能してないようです。
ここ、もう少し考えてみます。

世界中には数を数えれない民族がいっぱいいます。
数を数えれないと言っても、たいてい3個ぐらいまでは数えられます。
3個まで数えられると言うことは、パッと見て3個まではイメージできるということです。
パッと見て一個、二個、三個ってわかるってことは、一個、二個、三個ってパターンをもってるからです。
そのパターンに当てはめて、2個あるとかって認識するわけです。
それ以上はたくさんってパターンです。
夜空に星がいっぱいあるって感じるのは、いっぱいあるってパターンを通して見てるからです。
これが右脳の処理の仕方です。
そして、人は、学習によっていろんなパターンを獲得するんです。
右脳はいろんなパターンを持ってて、瞬時に、パターンを切り替えながら世界を認識するんです。

そう考えると、Aさんに何が起こったか理解できそうです。
Aさんは、たった一つのパターンしか持てないんです。
それは、一つのもに集中するってパターンです。
それは、たとえて言えば、真ん中に一個穴が空いてるだけのパターンです。
それを使って世界を認識するから、一個を認識したら、それ以外が見えなくなるんです。
一つの点を見たら、もう一つの点が見えなくなるし、鉛筆を見てたら、その隣にあるスプーンが見えなくなるんです。

Aさんは極端かもしれないですけど、僕らも、実は、同じようなことが起こってるんです。
たとえば、この錯視図形を見てください。

線の交点の一部に丸い点があるのが見えますよね。
丸い点、何個見えますか?
3個ですか? 4個ですか?
実は、丸い点は、全部で12個あります。
でも、どれかの点に注目すると、端の方の点が消えますよね。
同時に見えるのは、せいぜい、3個か4個です。
これが、3個か4個のパターンを通して見てるってことです。
こんな錯視を見ると、同時に一つの物しか見えないAさんの見てる世界もちょっと理解できます。

この本には、もっと面白い見え方をする人が登場します。
それは、直前に見たものがコピーされて見えるというものです。
Bさんはピッツバーグに住む71歳の女性です。
Bさんは、バナナの皮をむいて、しばらくして壁を見たら、さっきむいたバナナのイメージが壁のあちこちに見えるそうです。

その他、テレビを見た後、どの人を見ても、さっき見たテレビの人の顔に見えたりするそうです。
または、鏡で自分の姿を見た後、他の人を見ると、誰を見ても、自分と同じ服を着てるように見えたりするそうです。
別の68歳の女性の場合、朝食の後、さっき食べた料理や食器が宙に浮かんでるのが見えるそうです。
それも、手を伸ばせば掴めそうなぐらいリアルに見えるそうです。

同じ症状は日本人の医師からも報告されています。
鳥取に住む60歳の女性、Cさんは、何かものを見た後、目を他に移すと、さっきのイメージが視線に沿って複数、並ぶそうです。
たとえば、部屋の窓から駐車場の車に目をやった後、自分のベッドに視線を戻すと、駐車場からベッドの枕元まで自動車が続いてるのが見えるそうです。

これは興味深いですねぇ。
これについて考えてみます。
左脳と右脳で視覚の処理の仕方が違います。
左脳は仮想世界にオブジェクトを生成して認識します。
右脳は、パターンを通して世界を認識します。
これは、今、目の前の現実世界を認識する方法です。

人は、過去の出来事を思い出したり、未来を想像したりするとこもできます。
その時使う仮想世界を想像仮想世界と呼ぶことにします。
現実世界を認識するときの仮想世界を現実仮想世界と呼ぶことにします。
バナナを見て、後からバナナを思い出すとき、想像仮想世界にバナナを生成します。
現実仮想世界と想像仮想世界とは別なので、想像したものが現実世界に見えることはありません。
ところが、Bさんは、現実の壁のあちこちにバナナが見えたんですよね。
ということは、Bさんは、どうも、想像仮想世界に生成しないといけないバナナを現実仮想世界に作り出しているようです。
仮想世界を作るのは無意識の仕事です。
どうも、仮想世界を作る無意識がバグッてるようです。

世界をイメージとしてとらえるときに使うのがパターンでしたよね。
パターンの一つに、物が全体に散らばってるってパターンがあるんでしょう。
水玉模様とか、このパターンを使って認識するんだと思います。

Bさんの無意識は、どうやら、そのパターンを使って、さっき見たバナナの映像を現実仮想世界に投影してしまったんでしょう。
だから、壁のあちこちにバナナが見えたわけです。

その他、視線に沿って複数のオブジェクトを並べるってパターンもあるんでしょう。
まぁ、どんなときに使うのかすぐには想像できないですけど、イメージはできますよね。
イメージできるってことは、僕らもそのパターンを持ってるってことです。
そして、そのパターンを使って自動車のイメージを現実の部屋の中に投影してしまったのがCさんです。

こうしてみてみると、きれいに説明がつきますよね。
つまり、脳の中には今説明した機能があって、それを使って意識は世界を見てるってことです。
見るという情報処理は左脳と右脳で異なります。
右脳は、パターンを使って世界全体を認識します。
左脳はオブジェクトを使って部分や意味を認識します。
これらは状況に応じて無意識が切り替えます。
そして、パターンを使った右脳の処理が今のAIです。
今のAIの問題は、処理の中身が分からないことだと言われています。
それは、どんなパターンを学習したのか、外からはよくわからないからです。
だから、平気で嘘をついたり、突拍子もない行動を取ったりします。
つまり、理論的な思考が出来ません。
理論的な思考をするのは左脳です。
人間社会で共存できる汎用人工知能を作るには、右脳と左脳を持たせる必要があるんです。
その具体的な方法が、今回紹介した方法となります。

はい、今回はここまでです。
面白かったらチャンネル登録、高評価お願いしますね。
それから、意識の仮想世界仮説に関しては、こちらの本に書いてますのでよかったら読んでください。
意識の仮想世界仮説を使った汎用人工知能の作り方の論文は、概要欄にリンクを貼ってますので興味がある方はそちらも読んでください。
それじゃぁ、次回も、おっ楽しみに!