第452回 AIにいかにして心をもたせるか


ロボマインド・プロジェクト、第452弾!
こんにちは、ロボマインドの田方です。

AIが進化して、人間を超える超知能が出現する可能性がでてきました。
そうなった時、人間とAIが共存できるのかどうかが問題です。
それが、前回、第451回で取り上げたAIアライメント問題です。
今回は、その続きです。

どういう問題が起こるかって言うと、たとえば、ボートレースのゲームでハイスコアを取るようにAIに指示を出したって話があります。

このゲーム、レースに勝つだけじゃなくて、途中に出現する緑のブロックにぶつかってもスコアがアップします。
そしたら、AIは、同じところをぐるぐると回ったら緑のブロックが何度も出現することを発見して、ぐるぐる回り始めたんですよ。
桟橋にぶつかったり、ヨットにぶつかったりするのもお構いなしです。
これ、ゲームだからいいですけど、現実世界で起こったら大変ですよね。
AIロボットが現実社会で動きはじめたら、これが現実になるかもしれないんですよ。

それから、AIロボットにコーヒーを持ってこさせるって思考実験もあります。
ロボットは、自分が死んだらコーヒーを持ってくることができないので、死なないように防御するでしょう。
これ、AIロボットが自己保存の本能を学習して獲得するってことです。

人間なら考えられないような問題がAIなら起こる可能性があるわけです。
じゃぁ、なんで、人間なら起こらないんでしょう?
それは、一言で言えば人は常識をもってるからです。
何をしていいか、してはいけないか分かっているからです。
人間なら、話せば分かり合えます。
AIはそれができないんです。

そう考えたら、動物と同じともいえます。
畑の作物を勝手に取ったらダメといっても野生動物には理解できませんよね。
ネズミやタヌキだったら追い払ったらいいですけど、熊だったら怖いです。
今までのAIは、ネズミみたいなものです。
言うこと聞かないけど、まぁ、いざとなればなんとでも対処できます。
今、起ころうとしてるのは、熊みたいな人間よりはるかに強いAIが生まれつつあるってことです。
それが、街に放たれたときどうなるかってことです。
そう考えたら、今のうちに何とかしないといけないですよね。

この問題の根本は、AIは人間と考え方が全く違うことです。
だから、思いもよらない行動を取ります。
とういことは、この問題を解決するには、まずは、AIが人間と同じように考えるようにならないといけません。
でも、その方法が分からないから、みんな困ってるわけです。

さて、僕は、意識や心をコンピュータで作ろうと20年前から取り組んでいます。
世界のAI研究とは関係なく、独自に理論を発展させてきました。
そうして、意識とは何か、言葉の意味を理解するとはどういうことか、善悪とはといったことを解明してきました。
ここにきて、これって、AIアライメント問題をほとんど解決するってことに気づいたんですよ。
そこで今回は、前回、語りきれなかった重要な部分を補足しながら、人間の心をどうやって作るかについて説明します。
これが今回のテーマです。
AIにいかにして心をもたせるか
それでは始めましょう!

まずは、盲視という脳障害を取り上げます。
これは、脳が損傷して目が見えなくなる脳の高次機能障害です。
盲視患者の目の前にリンゴを出して「何が見えますか?」と聞いても「見えないので分かりません」って答えます。
次に、黒板をレーザーポインターで示して「光の点を指差してください」というと、「見えないのでできません」って言います。
そこで、「あてずっぽうでいいので指差してください」っていうと、なんと、その人は正確に指差しできるんです。
これが盲視です。
盲視がなぜ起こるのかは解明されています。
目の網膜からの視覚情報は後頭部の一次視覚野に送られて、そこから二つの処理経路に分かれます。

一つは、頭頂葉の背側視覚路で、もう一つは側頭葉の腹側視覚路です。
背側視覚路はものの位置や動きを分析する経路で「どこの経路」と言われています。
腹側視覚路は、ものの色や形を分析する経路で「何の経路」と言われています。
盲視患者は、一次視覚野が損傷しているので目が見えなくなっています。

網膜からの情報は視床を介して視覚野に行くのとは別に、上丘を介して頭頂葉に行く別のルートも存在します。
つまり、視覚野が損傷しても頭頂葉の「どこの経路」が生きているんです。
だから、盲視患者は、光の点を指差すことができたんです。

さて、ここで注意してほしいのは、患者は「見えない」って言ってたことです。
じゃぁ、「見えない」と思ってるのは誰でしょう。
それは、患者本人ですよね。
もっと言えば、患者の意識です。
つまり、何の経路が損傷して意識が「見えない」と感じてると言うことは、意識は、何の経路の側にあるといえそうです。
ここにきて、意識という曖昧なものが、具体的にどんな処理をしてるのかがかってわかってきました。
つまり、意識というのは、「ものがある」という形で認識する処理経路に関係するといえそうです。
それから、上丘を介して「どこの経路」に至るルートは進化的に古いということも分かっています。
このことから、意識は、進化的に新しい生物が獲得したと言えそうです。

おそらく、意識は大脳が発達した哺乳類以降に獲得したんじゃないかと思います。
逆に言えば、魚やカエルは意識を持っていません。
つまり、魚やカエルは「どこの経路」だけで生きているというわけです。
以上の話を基に「心のモデル」を考えました。
それが、この図です。

簡単に説明すると、心は「ある系」と「反応系」の二種類の処理経路を持っています。
「ある系」というのは、「ものがある」と認識する処理経路で、脳の「何の経路」に当たります。
「反応系」は、外界に反応して行動する処理経路で脳の「どこの経路」に当たります。
そして、「ある系」には意識と仮想世界があります。
仮想世界というのは、現実世界を仮想的に再構築した世界で、意識は仮想世界を介して現実世界を認識します。
これが僕が考える心のモデルです。

さて、前回は、生物の最も基本的な機能として本能を取り上げました。
本能は、自分という個体をできるだけ存続させる機能ということができます。
だから、お腹が空いたら食べ物を食べるとか、敵が近づいてきたら逃げるとかって行動を取らせます。
たとえばカエルは目の前にハエが止まったら捕まえて食べますし、天敵の鳥の影を感じたら池に飛び込んで逃げます。
これは、外界に直接反応する行動なので反応系と言えます。
どんな生物でも持ってる基本的な機能で、常識ともいえます。
生物であれば、この機能をもってるとわかれば、相手の行動も予測できます。
逆にいえば、こんな基本機能をもってないと、いつ、どんな行動をとるか予測できません。
つまり、AIに常識を持たせるには、AIにも本能を持たせた方がいいといえます。
ただ、本能のままに行動しては野生動物と同じです。
この問題に関しては後半で取り上げます。

さて、反応系は、外界からの入力に反応する行動です。
行動するとき、何らかの利益が最大となるように行動を最適化します。
カエルなら、できるだけいっぱい虫を取れるとかです。
これって、さっきのモーターボートAIと同じですよね。
スコアが最大となるように行動を最適化したわけです。
つまり、今のAIは反応系で動いてるといえます。

それから、さっき、コーヒーを持ってくるAIロボットが学習によって自己保存本能を獲得するって言いましたよね。
でも、厳密に言えば、あれは自己保存本能とはいえません。
なぜなら、本能というのは生まれながらに持ってるもので、後から学習して獲得するものじゃないからです。
正確にいうと、反応系が行動を最適化することで、自己保存本能に見える振る舞いをしただけです。
同様に、たとえAIが利他的行動をとったからといって、それは人間のもつ思いやりとは同じとはいえません。
人間からみたら利他的行動に見えただけです。
これは、ぬいぐるみで考えたらわかります。
道路に捨てられたぬいぐるみがトラックにはねられてるのを見たら「かわいそう」って思いますよね。
でも、ぬいぐるみが「痛い」とか「悲しい」と感じてるわけではありません。
ただ、人が見てそう思っただけです。
それと同じです。

次は、「ある系」です。
「ある系」の特徴は、「ものがある」と認識することです。
「ものがある」と認識するのが意識です。
そして、その時使うのが仮想世界です。
これだけの仕組みがあって、初めて、「ものがある」と認識できるんです。

あなたは、今、目の前に机があるとか、壁があるとかって見えますよね。
世界の中に自分がいるって感じますよね。
そんな風に感じれるのも、「ある系」の仕組みがるからです。
逆に言えば、「反応系」だけで生きてる生物は、こんな風に感じてないんです。
さっき、今のAIは反応系だっていいましたよね。
つまり、AIは、「世界がある」とか「世界の中に自分がいる」なんて思ってないんですよ。
モーターボートAIは、「自分が海の上を走ってる」とか、「緑のブロック、ゲット!」とか思ってません。
何も感じることなく、ただ、環境に反応してるだけです。

反応系は、僕らの感覚でいえば脊髄反射です。
熱い鍋に触れたとき、思わず手を引っ込めますよね。
あの瞬間、何も考えてないですよね。
気が付いたら手を引っ込めてます。
手を引っ込めさせてるのは脊髄です。
脊髄は、「鍋がある」とか「世界がある」とか思っていません。
ただ、感覚に反応して行動しただけです。
今のAIは、それがものすごく高度で複雑になっただけです。

僕らが普段感じてる感覚と、AIは全く別だって分かりますよね。
そんなAIと理解し合えないのは当然です。
「自分」ってものを持てないのに、自己保存の本能が生まれるわけがありません。
それに、反応だけで生きてるAIに意味も理解できません。
本当は、ここで意味を理解するとはどういうことかについて話したかったんですけど、長くなるのでここでは省略します。
一言だけ言っておくと、僕は、意味を理解するとは仮想世界を作れることと同じと定義しています。
仮想世界さえ作れたら、それを言葉で表現することができます。
それが言葉の意味理解です。
詳しくは、汎用人工知能研究会で発表した僕の論文に書いてあります。
この動画の概要欄にリンクを貼っておきますのでよかったら読んでください。

今回の本題は、善いとか悪いとかって倫理観をAIにどうやって持たすかってことです。
前回、「痛い」とか「空腹感」も、仮想世界に生成されるって話をしました。

(この図で「感情」を空腹感に変える)
「痛い」とか「空腹感」は、意識が感じられるように生成されたデータです。
つまり、仮想世界には、机とか壁とかって「もの」だけでなく、「痛い」とか「空腹感」とか「怖い」って感情も作られます。
意識プログラムは、これらのデータを受け取って、「机がある」とか「痛い」とか「お腹がすいたなぁ」って感じるわけです。

さて、人間は言葉を話しますよね。
最近の研究だと、シジュウカラも言語をもってることがわかっています。
それから、チンパンジーに手話を教えて会話するって研究は何十年も前から世界中で行われています。
ただ、人間の言語と、動物の言語では決定的な違いがあるってことも分かってきました。

それは、動物の言語は、目の前の世界についてしか語れないってことです。
たとえばシジュウカラは、「ヘビがいる」とか「タカが来た」とか言って仲間に知らせることができます。
でも、「昨日、あの山にヘビがいた」って言うことはできないんです。
これはチンパンジーも同じです。
つまり、過去の出来事や、まだ起こっていない未来の出来事を話すことはできないんです。
話すことができないってことは、想像できないってことです。
心のシステムで、目の前の現実世界を認識するときに使うのが仮想世界でしたよね。

これを現実仮想世界と呼ぶことにします。
それに対して、今、目の前にない世界を想像するときに使う仮想世界を想像仮想世界として新たに追加することにします。
現実仮想世界は目や耳からの知覚情報から無意識が生成するものです。
それに対して想像仮想世界は、意識がきっかけとなって作り出すものです。
昨日の晩御飯を思い出したり、今夜は、何を食べようかなぁって想像するときに使います。
カレーにしようか、鍋にしようかって自由に想像できますよね。
つまり、意識が自由に作り出すことができる仮想世界が想像仮想世界です。
さっき、意味を理解するとは仮想世界を作れることだって言いましたよね。
想像仮想世界を使うと、「昨日、あの山にヘビがいた」ってことを想像することができます。
想像できたら、言葉に変換して相手に伝えることができます。
相手は、言葉から想像仮想世界を再現します。
これが言葉の意味を理解したコミュニケーションです。
人間同士は、こうやって意味を理解して会話します。
でもAIは違います。
ChatGPTは、入力された単語に続く単語を出力するだけです。
つまり反応系です。
ChatGPTが言葉の意味を理解してないというのも、これで納得がいきますよね。

さて、カレーを食べるとこを想像して「食べたい」って感じて、「今夜はカレーにしよう」って決めたとします。
さて、今、想像したのは自分の気持ちでしたよね。
想像仮想世界は、自分だけじゃなくて相手の気持ちも想像できます。

たとえば、電車でおばあさんに席を譲るとします。
これは、立ってるおばあさんは座りたがってると想像したからですよね。
これが想像できるのは想像仮想世界を持ってるからです。
こっからが今日の本題です。

おばあさんに席を譲ったのは、「譲るべき」って思ったからですよね。
この「~すべき」が「善」です。
整理しますよ。
人は感情をもっています。
感情には悲しいや苦しい、空腹ってマイナス感情と、嬉しいや楽、満腹ってプラス感情があります。
生物は、マイナス感情を避けて、プラス感情を得るように行動します。
これが本能です。

(感情を空腹感に変更した図)
そして、本能は、自分の体に直接働きかけます(下の制御の矢印を強調)。
本能は、生物が生まれながらに持ってるものです。

一方、「善」は違います。
「善」は、生まれた後に教えられて学ぶものです。
もっと言えば、社会が押し付けるものです。
それが、「~すべき」です。
これを図で示すとこうなります。

「善」とは、他人のマイナス感情がプラス感情となるように働きかける行動です。
注意してほしいのは、この時、自分の感情は関係ないってことです。
その行動で自分がプラスになろうがマイナスになろうが関係ありません。
たとえ自分がマイナスになろうとも、相手がプラスになる行動を社会は押し付けます。
それが「善」です。

意識は、本能や欲求からこう動きたいって力を感じます。
それと同時に、「こうすべき」って社会からの欲求も感じます。
その二つの欲求の間で、最終的な行動を決定するのが意識です。
最終的にどう行動するかは、その人の性格によります。
でも、少なくとも、どういう行動を取るべきかは誰もが理解しています。
それをもってるから、人間社会は秩序が保たれるわけです。
だから、AIが人間社会で共存するには、この善悪の感覚、倫理観を持たす必要があるんです。

勘違いしてほしくないのは、法律があるから悪いことをしないってことじゃないってことです。
法律は、人間が感じる善悪の感覚を明文化しただけです。
先にあるのは善悪です。
だから、法律ってルールをAIに教えても、意味がないんです。
そのやり方じゃ、法律の抜け穴をみつけたらやってもいいってなりますよね。
ChatGPTが平気でウソを言ったり、いくら規制しても、規制をかいくぐって差別発言するのと同じです。
法律やルールがなくても、「これはやってはいけない」って自分で感じる感覚を持たさないといけないんです。

今、世界中のAI研究者は、AIに常識や倫理観を持たさないといけないと言っています。
でも、どうやったらいいかは誰もわかっていません。
僕は、AIと関係なく、ただ、心や意識の仕組みを知りたくて20年以上、独自に研究してきました。
それは、今のAIと根本的に異なる方法です。
その代わり、今のAIでは解決できない、AIに具体的に倫理観を持たせたせる方法は解明できました。
それが今回説明した内容です。
これが、AIアライメント問題を本当に解決するのかどうかは、専門家に判断をゆだねたいと思います。

はい、今回はここまでです。
面白かったらチャンネル登録、高評価お願いしますね。
それから、今回の話のもう少し詳しく解説した論文「意識の仮想世界仮説による汎用人工知能の作り方-脳、心、意識と言葉の意味理解-」

は、概要欄にリンクを貼ってますので興味がある方はそちらも見てください。
理論の核心となる「意識の仮想世界仮説」に関しては、こちらの本で分かりやすく解説してますので、よかったらこちらも読んでください。
それじゃぁ、次回も、おっ楽しみに!