第308回 ロボット制御の進化は、脳の進化と同じだった!


ロボマインド・プロジェクト、第308弾!
こんにちは、ロボマインドの田方です。

この数十年のロボット開発の歴史を辿ってみてたんですけど、あることに気が付いたんですよ。
それは、生物の進化の歴史と同じなんですよ。
ここで言う進化って体じゃなくて、脳の方です。
脳の進化と、ロボット制御の進化がおなじなんですよ。

たぶん、ロボットの開発者は、意識してやってないと思います。
うまく制御しようと工夫したら、そうなっただけだと思います。
だからといって、たまたまそうなったわけじゃないんですよ。

うまく行かなかったやり方は捨てて、上手く行くやり方をさらに発展させてきたわけです。
つまり、環境に適応させて進化させたわけです。
それが、脳の進化と同じだったわけです。
ということは、偶然というより、なるべくしてそうなったといえそうです。

それがわかると、次の進化も見えてきます。
これが今回のテーマです。
ロボット制御の進化は、
脳の進化と同じだった!
それでは、始めましょう!

さて、これは、脳の進化の系統図です。

見たらわかると思いますけど、脳って、古い脳を保ったまま、その上に新たな機能を追加して進化してきたんです。
つまり、僕ら人間は、古い爬虫類の脳も、新しい哺乳類の脳も両方持っているんです。
爬虫類の制御の仕方も、哺乳類の制御の仕方も持ってるといえます。

制御っていうのは、体をどう動かすかです。
目や耳、触覚などの知覚からの入力を受けて、体を制御するわけです。
これは、広い意味での意識と言えます。
僕は、意識を進化の段階に応じて3段階に分けています。

一番下の意識レベル1が、魚類とか爬虫類です。
その次の意識レベル2が、哺乳類です。
そして、一番進化してる意識レベル3がヒトです。

そして、ロボットの制御も、この順番で進化してるようなんです。
それでは、まずは、意識レベル1のロボットから説明していきます。

ロボット工学は、1980年代に大きく進歩しました。
ロドニーブルックスの提案したサブサンプション・アーキテクチャです。
サブサンプション・アーキテクチャっていうのは、複雑な振る舞いを、まず、単純な振る舞いのモジュールの階層に分けます。
そして、制御は、各階層ごとに任せるんです。
そんな風に分けて制御すると、高度な制御が、比較的簡単に実現できるようになったんです。
サブサンプション・アーキテクチャを開発したロドニーブルックスは、後にiRobot社を設立してお掃除ロボットルンバを世に送り出しました。

それでは、このサブサンプション・アーキテクチャを脳に対応させて考えてみます。
さっきの図を思い出してください。

人間の脳は、爬虫類の脳も、哺乳類の脳ももってるんですよ。
じつは、僕らは爬虫類の脳や哺乳類の脳を使い分けてるんですよ。
ただ、普段、その事に気付いてないだけです。
そして、サブサンプション・アーキテクチャっていうのは、爬虫類の脳にあたるんです。

普段は気づかない爬虫類の脳って、どんな時に使ってるんでしょう?
僕が、スキーを習ったときの話で説明します。
最初に習うのは、ボーゲンって滑り方です。
スキー板を八の字に開いてゆっくり滑る方法です。
曲がるときは、外側の足に体重をかけます。

これが、最初、難しいんですよ。
体重をかけるって言うから、体を倒すんですけど、なかなか曲がらないんですよ。
体を倒すんじゃなくて、膝を伸ばすんだって言われます。
それで膝を伸ばすんですけど、そしたら、なんか、こんな風に体が沿って、反対側にこけたりするんですよ。
でも、何回かやってると、ちょっとずつ、コツが分かってきました。
体重をかけるっていうのは、スキー板で、雪をズズズって削る感じなんですよ。
このズズズって感じを維持して、膝を伸ばすんですよ。
そしたら、伸ばした足に体が乗って、ちゃんと曲がれたんですよ。
これが、体重をかけることかって、ようやくわかりました。

「膝を伸ばす」とか「体重をかける」とかって頭で考えてるときは上手く行かないんです。
うまく行ってるときって、足の裏の感覚で制御してたんです。
そしたら、自然と膝が伸びて体重移動できてたんです。
体のバランス制御とかって、一番下の階層に任せるってことです。

頭で考えることは、もっと上の階層です。
どっちに曲がるとか、下まで滑ったら、ロッジでコーヒーを飲もうとかってことです。
上の階層が、下の階層に口出しすると、上手く行かないんです。
これがサブサンプション・アーキテクチャの考え方です。

次は、これを脳で考えてみます。
頭で思考するっていいましたよね。
ここで言う頭って、大脳のことです。
つまり、哺乳類の脳です。
または、意識レベル2です。
足裏の感覚でバランスをとるとか、運動機能の制御をするのは小脳です。
これは意識レベル1です。
この二つの制御は、脳が異なるんです。
僕らは、大脳も小脳ももってます。
だから、頭で考えることも、爬虫類の感覚もわかるんです。

これを分かって欲しいんです。
ロボットの開発って、センサーからの入力を測定して、入力値がどうなったら、どうモータを動かすかってプログラムを書きます。
つまり、対象を分析して制御するって視点です。
それはそれで正しいやり方です。
でも、もう一つの視点を持って欲しいんです。
それは、自分が、そのロボットになるって視点です。
意識レベル1と、意識レベル2の違いを、内側から感じるってことです。
その違いが具体的に分かると、次に進化させるには、どんな機能が必要かが見えてくるんですよ。
意識レベル1と意識レベル2の違いなんて、外から観察してもわからないんですよ。
意識の微妙な違いは、自分で感じ取るものなんですよ。

いいですか。
小脳は、爬虫類の脳です。
これは、単に外界に反応するだけです。
考えてないんです。
考えるのは大脳です。

あそこにロッジがあるぞ。
あそこまで下りたら休もう。
そんな風に、「~がある」って思うのが、大脳です。
この微妙な違いを感じて欲しいんです。

というか、これを使わないのってもったいなさ過ぎますよ。
だって、何億年もかけて進化させた脳です。
僕らは、爬虫類の脳も、哺乳類の脳も、両方持ってるんですよ。
その処理内容の違いって、脳に電極を埋め込んでも、ほとんど分からないですよ。
外から観察してもわからないんです。
でも、内側から感じたら分かるんです。
誰でも、ちょっと訓練すれば、感じ取れることなんです。

僕は、10年以上、そんなことばかりやってきました。
たとえば、第128回では、犬語の話をしました。
当時、僕は犬と二人で暮らしてました。
会社も辞めてたので、誰とも話さないで何週間も過ごすってことがありました。
そんなとき、犬になりきって、犬語だけで暮らしたらどうなるだろうって実験をしたんですよ。

これだけじゃ、ちょっと意味がわからないですよね。
僕が知りたかったのは、犬と人間の脳の違いです。
解剖学的な違いとかじゃなくて、犬の脳は、どんなことが理解できて、どんなことが理解できないのかってことを知りたくて、犬になってみたんです。
こういう調査方法って、科学では絶対にやらないんですよ。
なぜかって言うと、自分で感じることって、主観じゃないですか。
客観的な事実を積み上げるの科学のやり方に反するやり方ですから。

でも、僕は、どこにも属してないので、そんなのはあんまり関係ありません。
ただ、純粋に処理の中身をしりたかっただけです。

僕は、システム開発をするので、プログラムを書きます。
いいプログラムを書くには、メモリの中まで、リアルに想像できないとだめなんですよ。
プログラムって、処理をする小さいプログラムモジュールと、プログラムモジュールに渡すデータの流れで成り立ってます。
そして、プログラムを読むときって、メモリのどこにデータを格納して、それをどのプログラムモジュールが取り出して処理をするってのを感じるんです。
このとき、まるで、自分がプログラムの一部になった気になるんです。

あの時、犬になりきって感じてたのは、これに近い感覚です。
犬のプログラムになりきるんです。
キッチンの棚を開けたらポテチがありました。
「あっ、ポテチや」って認識するわけです。
認識したってことは、プログラムモジュールがデータを受け取ったわけです。
ポテチを認識して、それを食べてるとこを想像して、「食べたい」って思うわけです。
これを外部出力として表現したら「ワンワン」ってなるんです。

そんな、一連の処理をするプログラムを感じるんです。
さて、じゃぁ、そのプログラムって何かわかりますか?
それが、意識プログラムです。

僕が解明しようとしてたのはそれです。
犬の意識プログラムです。
哺乳類の意識です。
爬虫類の脳と、哺乳類の脳の最大の違いは大脳です。
そして、大脳で動いてるプログラムが意識プログラムです。

この意識プログラムについて、もう少し具体的にみていきます。
爬虫類の脳は小脳です。
環境に反応する処理をします。
センサー入力に応じた行動をするプログラムです。
エサを見つけたら、とびかかって食べるとかです。

哺乳類の脳は大脳です。
ポテチをみつけたらワンワン吠えていました。
これは、「あっ、ポテチだ」って認識したわけです。
認識ですよ。
反応じゃないんですよ。
ここが一番の違いです。

じゃぁ、認識って何でしょう?
それは、「物がある」って理解することです。
じゃぁ、その物はどこにあるんでしょう?
それは、世界です。
「物がある」って認識したってことは、その背後に、世界を感じてるんですよ。
世界ってフレームで認識するようになったんです。

という事は、それまでは、「世界がある」って形で認識してなかったんです。
ただ、センサーに反応して動いてただけです。
それが小脳だけで生きてる生物、爬虫類です。

哺乳類は、世界の中に物があるって認識します。
認識するには、認識するプログラムが必要なんです。
それが意識です。

これ、別の言い方をすれば何でしょう?
それは、自分です。
自我と言ってもいいです。
世界を認識してる自我が生まれたんです。

ねぇ、この違い、すごいでしょ。
爬虫類から哺乳類への進化。
これを知識として知るんじゃなくて、実際に感じて欲しいんですよ。
あぁ、これが爬虫類の感じる世界やな。
ここは、哺乳類の感じる世界やなって。
これが、本質を理解するってことです。

さて、ルンバは、小脳だけで動くロボットです。
じゃぁ、次に作るロボットは、どうなるか分かりますよね。
大脳を持ったロボットです。
世界を認識するロボットです。

今、AIロボットの分野の流行りがこれです。
世界モデルを作ろうって流れです。
たとえば視覚センサーからのデータを基に、世界モデルを作り上げるわけです。
机があるとか、椅子があるとかって認識できる知能です。

ところで、世界を認識するプログラムって何でした?
意識プログラムですよね。
今のAIロボットは、意識プログラムを作ろうとしてるんです。

世界モデルを作るのに使われる理論が、自由エネルギー原理です。
自由エネルギー原理というのは、変分自由エネルギーとよばれるコスト関数を最小化するように確率統計的な推論をする数学モデルです。
意識科学の分野でも、自由エネルギー原理は注目されています。
こうしてみると、意識と自由エネルギー原理の関係が、よくわかりますよね。

どうでしょう?
技術の流行りを追うのもいいですけど、こうして一歩引いて、生物の進化、脳の進化、ロボットの進化って眺めて見ると、なんでこうなってるのかが、ものすごくよく分かりますよね。

そして、僕らは、何と言っても、ヒトの脳を持ってます。
ヒトの脳の最大の特徴は、言葉をしゃべることです。
これが意識レベル3です。

そうなると、必然的に、次にAIが進むべきは、言葉をしゃべるAIとなりますよね。
そして、脳は古い脳の上に機能を追加する形で進化してきてますよね。
つまり、言葉をしゃべるAIとは、意識レベル2の脳の上に構築されるんです。
意識レベル2っていうのは、世界モデルを作ることでしたよね。
そして、それを認識するのが意識プログラムでしたよね。

この構造は絶対なんですよ。
それを無視して、言葉を理解するなんてできないって分かりますよね。

ここまで理解できれば、世界モデルを作らずに、単に大量の文書、大量のテキストデータだけを学習しても言葉をしゃべれるようにならないってわかりますよね。
でも、それをやってるのが今のAIです。
いわゆる大規模言語モデルです。
GPT-3やLaMDAのことです。
本質をとらえてないと、どんどん間違った方向に進んでしまうんですよ。

これが、今、AIの最先端で起ってることです。
それじゃぁ、世界モデルを使って意識レベル3を目指してるとこはないんでしょうか?
あります。
それが、ロボマインドです。
ロボマインドのやってることは、この本に詳しく書いてあるので、良かったら読んで下さい。

はい、今回の動画がおもしろかったら、チャンネル登録、高評価お願いしますね。
それじゃぁ、次回も、おっ楽しみに!