ロボマインド・プロジェクト、第514弾!
こんにちは、ロボマインドの田方です。
僕が一番影響を受けた本といえば、ラマチャンドラン博士の『脳の中の幽霊』です。
ちょうど、僕がこの研究を始めた25年ほど前に出版された本で、僕のアイデアの大元はこの本にさかのぼります。
最近、アマゾンを見てたら、ラマチャンドラン博士の見たことがない本が出てたので、急いで注文しました。
それがこの本です。
『脳の中の天使』
新刊かと思ってみたら、10年ほど前に出版されてました。
何で知らなかったと思いましたけど、10年ほど前って、僕が一番、この研究から離れていた時でした。
働きづめで、金儲けのことばっかり考えてて、脳のことなんか全く考えていませんでした。
その直後、働かなくてもいい状況になりまして、それ以来、脳のことしか考えてないです。
なかなか忙しい人生ですけど、久しぶりにラマチャンドラン博士の本を読んで、すっかりはまってしまいました。
最近、ようやく自分の研究の全体像が見えてきて、脳との関係がより、はっきりしてきたからです。
それから、前回、第513回でソフトバンクの孫さんの目指す超知性の話をしましたけど、あれで、今のAIと僕のやってることがつながったんですよ。
これが孫さんが目指すAIの進化です。
このうち、レベル5までが今のAIが目指してるもので、Open AIが公表しているものです。
これに対して、孫さんは、レベル6から上に、今までのAIが持てない、感情や意志を持つ超知性が現れると言っています。
そして、この超知性こそ、ロボマインドが開発してるものです。
そして、それは脳や心、言語ともきれいにつながります。
今まで、バラバラに議論されてたことが、少しずつ関係性が見えてきました。
たとえば、ChatGPTは意味を理解してるんじゃないかって、いまだに信じている人がいますけど、そんなこと、脳とか心を考えたらあり得ないんですよ。
たとえばですよ、「何か、今、悩んでることがあったら言ってください」って言われたとします。
それで、僕が「今、母乳が出なくてこまってるんですよ・・・」って言ったとします。
そんなん、絶対ウソやって思いますよね。
でも、たとえばChatGPTの答えが間違ってて「間違ってるよ」って言ったら、ChatGPTが「申し訳ございません」って謝ったりするじゃないですか。
それきいたら、「ChatGPTも反省してるんや」って思うでしょ。
でも、そんなわけないんですよ。
僕が母乳が出ないのは、そもそも、そういう体の構造になってないからですよね。
それと同じで、ChatGPTは、そもそも反省するとか、申し訳ないとかって感情をもってないんです。
なんで、僕が母乳が出ないなんて言ったかというと、さっき、子育ての悩みの記事を読んでたらそう書いてたからです。
ChatGPTもおんなじです。
「間違ってる」っていわれたら「申し訳ございません」って答えたらいいって学習してるだけです。
こんなの、意味を理解してるって言えないでしょ。
知性を持つAIを作るには、人間の脳と同じ機能を再現しないといけないんですよ。
そこで、知性を持ったAIを、ラマチャンドラン博士の本と、僕の経験から解説しようと思います。
これが今回のテーマです。
田方はなぜ母乳がでないのか!
あっ、間違えた。
脳の中の天使
それでは、始めましょう!
まず、今のAIで出来てることと、これからやろうとしてることを整理したいと思います。
この図で、レベル1が今のAIで、自然な会話ができるというのがChatGPTのことです。
レベル2の「博士レベルの問題解決力」というのが、Open AIが最近発表したAIモデルo1のことです。
今までのAIは、質問に対してパターンマッチで答えるだけです。
考えて答えてません。
それが、o1は論理的に考えて答えるようになったそうです。
論理的っていうのは、AならばB、BならばC、よってAはCであるとかです。
このことをAIではルールベースとか記号主義っていいます。
じつは、AI業界では、ルールベースはうまく行かないって完全に否定されたんです。
1980年代のことです。
そこからAI冬の時代といわれて、最近になって、ようやくAIが復活してきました。
それが、今のAIブームでその主流は強化学習です。
だから、ルールベースをそのまま使っても同じ問題が起こります。
ルールベースで起こった問題というのは記号接地問題です。
記号接地問題というのは、言葉が現実世界に着地していないという問題です。
たとえば「りんご」とか「りんごは赤い」って文字でいくら書いても、現実世界のリンゴに結びつかないじゃないですか。
これが記号接地問題です。
僕もこの問題に悩んで、それを解決したのが意識の仮想世界仮説です。
人は目で見た現実世界を頭の中で仮想世界として構築します。
意識は、この仮想世界を介して現実世界を認識します。
これが意識の仮想世界仮説です。
仮想世界は、たとえば3DCGで作って、リンゴは3Dのリンゴオブジェクトになります。
オブジェクトなので、色や形、味などのデータを自由に設定できます。
このオブジェクトを文字で表現したら、「りんごは赤い」って文を生成できます。
そして、リンゴオブジェクトは目で見た現実世界から作られていましたよね。
つまり、リンゴオブジェクトは現実世界に着地しているんです。
だから、意識の仮想世界仮説は記号接地問題が生じないんです。
ところが、今、AI業界で、現実世界から仮想世界を作ろうっていう流れが既にあります。
それを世界モデルっていいます。
主に、AIロボットが現実世界で行動するときを想定しています。
僕は今から予言しておきます。
1年以内に、AI業界では世界モデルとルールベースが結びつけたものが流行り始めます。
でも、それって、意識の仮想世界仮説そのものです。
世界がようやくロボマインドに追いつくわけです。
ただ、AI業界が気付いてるのは世界モデルまでです。
世界モデルには、意識って概念はありません。
じつは、一番重要なのは、ここなんです。
ここというのは、意識ってことじゃないです。
重要なのは意識じゃなくて、意識が見ている世界ってことです。
わかりにくいので、もう一回、意識の仮想世界仮説について説明しますよ。
人は、目で見た現実世界を頭の中に仮想世界として構築します。
そして、意識が見てるのは、この仮想世界でしたよね。
意識っていうのは、僕らが、今、まさに感じてるものです。
目の前に机があるとか、壁があるとかって感じてるのが意識です。
そして、意識が感じてる世界は、仮想世界です。
外にあるのが現実世界です。
頭の中に作り出したのが仮想世界です。
つまり、意識は、頭の中の仮想世界の中で生きてるわけです。
世界は頭の外と頭の中の二つあるんです。
意識の仮想世界仮説で重要なのは、ここです。
僕らは内側の世界に生きているってことです。
このことにAI業界の人は、まだ気づいていないんですよ。
世界モデルを作ろうと思ってる人は、自分は、外の現実世界にいると思っているんです。
まさか、自分が見てる世界が仮想世界だとは、これっぽっちも思ってないんですよ。
ここでいう自分っていうのは、肉体のことじゃないですよ。
意識っていうことです。
意識は、内側の世界に生きてるんです。
この視点が持てると、次にやるべきことが自ずとわかってきます。
それは、「じゃぁ、外の世界と内の世界、何が違うの?」ってことです。
ようやく本題に入ります。
心の中の世界、これが次のAIが進む世界です。
この図でいうと、レベル6から上の進化です。
孫さんが目指す超知性のことです。
孫さんは、レベル5までを知能、レベル6から上を知性として分けて考えています。
知能までは今のAIで作れますけど、知性は、心を作らないといけません。
世界は外と内の二つあります。
外側の世界が現実世界、または物理世界です。
内側の世界が心が感じる世界、または意識が認識する世界です。
内側の世界は、外の世界を元に作っているので、物理法則は成立します。
重いものは下に落ちるってこと、心で知ってるってことです。
でも、内側の世界は、外の世界にないものがあります。
たとえば、感情とか倫理観とかです。
孫さんは、これが知性だと言います。
それじゃぁ、外の世界に物理法則に対応する、内の世界の法則もあるんでしょうか?
あります。
物理世界には重力とか電磁気力ってエネルギーがありますよね。
エネルギー自体は目に見えませんけど、重力で物が落ちたり、電磁気力でモータが動くことでエネルギーがあることがわかります。
心にも同じようなエネルギーがあります。
それを、僕は心のエネルギーと呼んでいます。
心のエネルギーは目に見えませんけど、感情といった形で表に現れます。
笑ったり、泣いたりって感情は、心のエネルギーの現れの一つです。
さらに、心のエネルギーがあれば、いろんなことに興味をもったり、集中して取り組んだりできます。
こういった好奇心とか集中力のことを非認知能力と言います。
心のエネルギーが人間の活動の源となっているわけです。
重力や電磁気力が物理世界で物体を動かすように、心のエネルギーが人の行動の原動力になります。
心のエネルギーに関しては、第510回~512回で詳しく語っていますので、よかったらそちらも見てください。
じゃぁ、これらの心の内側の世界って、どこにあるんでしょう?
それは、脳の中です。
ここで、ようやく、『脳の中の天使』の本の話になります。
ほとんど紹介する時間も無くなってきましたけど、実は、僕も、まだ「はじめに」までしか読んでないんですよ。
というのも、「はじめに」だけで、興味深い事例が山のように出てきて、それを僕の心のモデルにあてはめてたら、つい、いろいろ考えてしまって、なかなか読めないんですよ。
そこで、最後に一つだけ事例を紹介します。
カリフォルニア州に住むジャクソン先生は高名な医者でしたけど、脳卒中になりました。
卒中のあと、右半身に部分的な麻痺が残りました。
右半身が麻痺するということは、損傷は左脳にあります。
左脳は言語野がありますけど、幸い、会話もかなり続けることができたそうです。
そこで、ちゃんと機能しているかいろんなテストをしてみたそうですけど、一つだけ、大きく損なわれていた機能が見つかりました。
それはことわざの理解です。
ジャクソン先生に「輝くものがみな金とは限らない」ということわざの意味を聞いたそうです。
意味は、見かけはあてにならないってことです。
ところがジャクソン先生はこう答えました。
「ぴかぴか光ってるからと言って、金だとは言えないってことですよ。銅かもしれないし、他の合金かもしれないですからね」って。
そうかもしれないですけど、もっと深い意味があるんじゃないですかってラマチャンドラン博士は聞きました。
そしたら、「貴金属の宝飾品を買う時は気を付けないって意味です。ニセモノも多いですから。そんなときは、比重を測ればいいんですけどね」って言います。
どうやら、ジャクソン先生は、金を金としか考えられないようです。
比喩が理解できなくなったようです。
さて、これはどう考えたらいいんでしょう?
ジャクソン先生は、金はピカピカしてるとか、価値があるとか、銅とは違うってことは理解できています。
言葉はオブジェクトです。
オブジェクトは、色とか価値といった意味を持てます。
ジャクソン先生は、言葉をオブジェクトで理解する機能は生きているようです。
銅より金の方が価値があるってことも理解できてるので、論理的思考もできるようです。
どちらが大きいかっていう比較は、論理的思考の最も基本的な演算です。
さらに、ニセモノで人をだますといったことも理解できています。
これは文の意味理解です。
文は、仮想世界の中のオブジェクトを操作することです。
そういった機能も問題ないということです。
それから金も銅も金属の一種ということも理解しています。
これは、概念関係を理解しているということです。
これも論理的思考です。
じゃぁ、何ができないんでしょう?
それは、「輝くものがみな金と限らない」という言葉から「見かけはあてにならない」ということわざの意味を理解することです。
これは、一種の思考の飛躍です。
比喩とかメタファーと言ってもいいです。
じゃぁ、ことわざの意味は、具体的にどんな仕組みで理解するんでしょう?
たとえば、「サルも木から落ちる」で考えてみます。
これは、名人でも失敗することがあるっていう意味ですよね。
ことわざに使われる単語はサルとか木とか具体的です。
でも、ことわざがいわんとすることは、抽象度が高いです。
つまり、ことわざを理解するとは、具体的な出来事と、抽象度の高い出来事を結びつけることと言えます。
単語の抽象度は、概念の上下関係で管理しています。
これはデータベースに登録されるものです。
文はオブジェクトの操作です。
「サルも木から落ちる」って文もオブジェクトの操作で再現できます。
単語と同じで、文や出来事もデータベースに記憶することができます。
でも、あらゆる出来事を記憶するにはデータベースの容量が足りません。
そこで、具体的な単語レベルでなくて、抽象度の高い概念レベルで出来事のパターンを記憶しておくんですよ。
たとえば、名人でも失敗することがあるってパターンです。
そして、具体的な単語の文を読んだ場合、抽象的な出来事の文との一致を判定する機能があるんですよ。
だから、「猿も木から落ちる」って聞いたら、「名人でも失敗することがある」って意味に解釈できるんです。
これがことわざの意味を理解するって機能です。
そして、この機能は人間の脳に普遍的に存在します。
だから、世界中のどんな文化にも、ことわざがあるんです。
今、僕がやろうとしてるのは、こういうことです。
つまり、脳の中にある機能を一つ一つ特定して、これをコンピュータプログラムで実装することです。
それが、次のAI、知性をもったAIの作り方です。
そして、脳の中にどんな機能があるのか参考になるのがラマチャンドラン博士の本です。
次回も、この続きを読みたいと思います。
はい、今回はここまでです。
この動画が面白かったらチャンネル登録、高評価お願いしますね。
それから、動画でも紹介した意識の仮想世界仮説に関して興味があるかたは、よかったらこちらの本を読んでください。
それじゃぁ、次回も、おっ楽しみに!