第522回 目が覚めて、世界を認識する意識プログラム③


ロボマインド・プロジェクト、第522弾!
こんにちは、ロボマインドの田方です。

第520回から、プロジェクト・エデンの最初のデモの解説をしています。
プロジェクト・エデンというのは、AIの意識を開発するクラウドファンディングのプロジェクトのことです。

メタバース「エデン」で暮らすAIアバターが「もこみ」です。
最初のデモなので、朝起きて、時計をみて「7時かぁ」って思うだけの単純なデモにしようと思っています。
意識に必要な、本当に最低限の仕組みだけ作るってことです。
さらっと説明しようと思ってたんですけど、1回で終わらなくて今回で第3回となってしまいました。
なんでそんなに長くなってしまったかというと、僕が作ろうとする意識とはどういうものか、そこからちゃんと説明しようとしてるからです。
万物に意識が宿るとか、石ころにも意識があるっていう人がいますけど、そんな意識は想定していないです。
僕が想定するのは、魚にはないけど、哺乳類ぐらいからあるといった具合に、進化によって段階的に獲得する意識です。
そして、プロジェクト・エデンで作ろうとしてるのは、最も進化した意識、つまり人間の意識です。
人間の意識とは、言葉の意味を理解して、感情や感覚、それから自分というものを持ちます。
自分を持つというのは、生まれてから今までの自分の人生の記憶があるということです。
さらに、自分があるということは他人の存在も理解します。
つまり、相手のことを思いやるとか、共感って感情も持ちます。
そして、これらの大前提として、世界があるとか、自分は世界の中にいるとかって風に感じます。
これが僕が作ろうとする意識です。

逆に言えば、意識がない生物はそんな風に感じていません。
たとえば、お掃除ロボットルンバは、壁にぶつかったら方向転換しますし、電池がなくなってきたら自分で充電します。
つまり、外部環境に反応したり、おなかがすいてごはんを食べるわけです。
でも、ルンバには意識はありません。
つまり、その程度のことなら意識がなくてもできるってことです。
今のAIも同じで、ChatGPTには意識はありません。

意識があるとは、世界を認識するということです。
目の前に窓がある思ったり、ちょっと寒いから窓を閉めようって思うのが意識です。
温度センサーに反応して窓を閉めるロボットを作るのはできます。
でも、そのロボットは窓があるとか、寒いと感じる意識プログラムは必要ありません。
ただ、センサーに反応して窓を閉めるだけのプログラムです。
それは自動で決まった動きだけをする無意識プログラムです。
熱い鍋に触って、思わず手を引っ込めるときって意識してないでしょ。
これが無意識プログラムです。
熱いとか、寒いと感じて、行動を決定するのが意識プログラムです。
そして、意識にとって最も基本となる感じは、世界があると感じることです。
今、自分は、ここにいるって感じることです。
これが、今回のテーマです。
目が覚めて、世界を認識する意識プログラム③
それでは、はじめましょう!

意識プログラムが世界を感じる仕組みが仮想世界です。
前回、それをエクセルで説明しました。
意識プログラムが認識できるのはエクセルのセルに入力された値だけとします。
つまり、意識は直接、現実世界を認識できません。

現実世界を直接感知するのは無意識です。
カメラなどのセンサーで現実世界を検知して、意識が認識できるデータに変換してセルに入力するのが無意識の役割です。
意識や無意識のプログラムは、マインド・エンジンの上で動きます。
マインド・エンジンは、いわば、心のシステムのOSです。
それでは、ここから、意識プログラムや無意識プログラムの設計を始めます。

意識プログラムと無意識プログラムの違いは大きく二つあります。
まず一つ目は数です。
意識プログラムは一つで、無意識プログラムはいっぱいあります。
僕らの意識は、一つのことしか考えられないですよね。
テレビで野球中継見ながら、家族と今日あった出来事を話したりできません。
「よっしゃ、ホームランや!」って言ってたら、「ちゃんと私の話きいてるの」って言われます。
これが意識は一つのことしかできないってことです。
脳の処理のうち、意識できないことは全て無意識が制御しています。
たとえば心臓動かしたり、肺動かしたりとかです。
つまり、無意識はいっぱいあるってことです。

意識と無意識の違いの二つ目は、複雑さです。
無意識プログラムは自動でできる簡単な処理しかしません。
心臓を動かしたり、肺を動かしたりです。
それから仮想世界をつくるのも無意識の処理です。
意識プログラムは、無意識ができない複雑な処理をします。
たとえば考えたり、会話したりです。

さて、今、AIアバターのもこみの目が覚めました。
目が覚めるたときって、最初、「ぼぉ~」っとしてますよね。
起きてて、単に目をつぶって開けたときとは違います。
何が違うかというと、目をつぶっただけのときは意識ははっきりしています。
意識がはっきりしてるというのはどういうことかというと、目をつぶっても、目のまえに今まで見えてた部屋があるってわかってるってことです。
意識が直接見たり、目のまえにあると感じてるのが仮想世界です。
目をつぶったとしてもそれは消えません。
でも、眠っている間は、仮想世界もありません。
なぜなら、意識が眠っているので、仮想世界も作る必要がないからです。
だから、目が覚めたとき、無意識は、急いで世界を作らないといけません。
無意識が世界を作ってる間、それが「ぼぉ~」っとしてるときです。

それじゃぁ、無意識はどうやって世界を作るんでしょう?
それは、目からの視覚情報を元に作ります。
目の網膜からの情報は後頭葉の一次視覚野に送られます。

つまり、一次視覚野に現実世界の二次元画像が投影されるわけです。
そのあと、視覚情報は腹側視覚路と背側視覚路に分かれて分析されます。

背側視覚路は、ものの位置や動きを分析する経路で「どこの経路」と言われます。
腹側視覚路は、何を分析する経路で「何の経路」と言われます。
意識は、目のまえに壁があるとか窓があるとかって思いますよね。
これは何の経路で分析されたものを認識してるわけです。
つまり、意識は「何の経路」の先に存在するといえます。

さて、これがマインド・エンジンです。

真ん中に二つの映像がありますよね。
上が視覚入力で下が仮想世界です。
視覚入力というのが、脳の一次視覚野に相当します。
つまり、外界であるメタバースをカメラで撮影した二次元映像です。
下の仮想世界は、上の視覚入力を解析して3DCGに変換したものです。
二つは見た目は同じに見えますけど、上は二次元画像で、下は3Dになっています。
この3Dの仮想世界を作るのが無意識の役目です。

どうやって作るかというと、既存の画像認識技術を使います。
画像認識を使うと、こんな風に写真から人や犬、馬って判定できます。

判定したものからオブジェクトを生成して、それで仮想世界を作ります。
第520回で説明しましたけど、意識は二つの方法で世界を認識します。
一つは見た目で、もう一つは意味です。
見た目というのは、まさに、今、僕らの目の前に見えてる世界です。
これは3DCGで再現します。
もう一つの意味というのは、オブジェクトで再現します。
ここでいうオブジェクトはオブジェクト指向言語のオブジェクトでデータ構造の一種です。
たとえばリンゴオブジェクトなら、色は赤くて、甘酸っぱい味がして、果物の一種であるとかです。
これが「リンゴ」の意味です。
つまり、無意識は3Dのリンゴオブジェクトと、データ構造としてのリンゴオブジェクトの二種類のオブジェクトを作ります。
僕らは、リンゴを見てるとき、状況に応じて、二種類のオブジェクトを切り替えて認識するんです。
リンゴを形を見て、リンゴの裏側も同じようにあって、全体として丸い形をしてるって思う時は3Dオブジェクトのリンゴを認識しています。
リンゴは果物で、食べたら甘酸っぱい味がするって思う時は、意味としてのリンゴオブジェクトを認識しています。
こんな風に、リンゴを見るだけでも、二種類の情報処理を切り替えているんです。

でも、その切り替えは一瞬で、当たり前にやってるので、普通、気が付きません。
でも、ものすごく注意深く観察したら、意識は何をやってるのか、意識が感じ取れない裏で無意識が何をやってるのかが見えてくるんです。
これが、僕の意識の解明の仕方です。

ここで、改めて僕のスタンスを説明しておきます。
僕がこの研究を始めたのは20年以上前です。
意識を解明するとか、コンピュータで心を作るとか、無謀なことだってことをしようとしてることは最初からわかっていました。
当時、意識科学が出てきたころで、中心は、NCCといわれる意識ニューロンを探そうってものでした。
fMRIとか脳に電極を埋め込んで脳を観察するのが基本でした。
それから、コンピュータで脳を再現するって研究も世界中で行われています。
それも、解明されたニューロンレベルの脳の機能をプログラムで再現するものです。
どれも何十億、何百億といった国家プロジェクトレベルです。

それに対して、僕は、どこからも支援を受けずに、たった一人で研究を始めました。
どう考えても勝ち目がないと思うじゃないですか。
でも、僕は負けると思ったことは一度もないです。
なんでかっていうと、みんな、やり方が間違ってるからです。
みんな、ニューロンからのアプローチしかしてません。
でも、ニューロンからアプローチしても意識にたどり着くとは限りません。
だって魚や変えるも脳やニューロンを持っていますから。

意識を解明したいんなら、意識からアプローチしないといけないんです。
それには、脳やニューロンを観察するんじゃなくて、今、こうして感じてる意識を観察しないといけないんですよ。
リンゴを見たとき、意識はどんな処理をしているのかとか、そのためには無意識はどんな処理をしているのかって解明するんです。
これが意識を解明する正しいやり方です。
ところが、そんなやり方してる人、誰もいないんですよ。
しかも、この方法はお金がかかりません。
だから、僕は勝てるって思ったわけです。

つい熱く語ってしまいましたけど、この動画を撮ってる今日は、11月18日です。
ロボマインドは兵庫県にありますけど、昨日、兵庫知事選が終わったとこで、斎藤知事の当選で僕も興奮してるからです。
斎藤知事は、県の利権構造にメスをいれて改革しようとしたら守旧派とメディアが結託して辞職に追いやられました。
一か月前は、街頭で演説しても誰も相手にされませんでした。
ところが、SNSを通じて正しい情報が少しずつ表に出てきて、市民が動きだしました。
そして、選挙前日には、大観衆が集まっていました。
そんな斎藤知事に、つい、自分をだぶらせてしまいました。

僕一人で始めた研究ですけど、今は、優秀なメンバーが集まってきてくれています。
YouTubeも2万名以上の人がチャンネル登録してくれています。
去年、クラウドファンディングしたら、200人以上の人から約250万円の支援が集まりました。
ただ、まだ、AI業界からは無視されています。
というか、理系の人は、そもそも意識とか、言葉の意味とかに関心がないみたいです。
難しい数学の問題が解けたら人間を超えたって本気で考えてるみたいなんですよ。

そこで、そんな人に、意識とは何か、意味を理解するとはどういうことかってことを理解してもらう必要があります。
そのためには、きちんと動くシステムを作って説明するのが一番です。
それがプロジェクト・エデンです。

と、熱い思いを語っていたら、今回も時間が無くなってきました。
最後に、今回語ろうと思ってた話の概要だけでも説明しておきます。

無意識の重要な役割は、仮想世界を作ることです。
朝、目が覚めた時、無意識が目の前の世界を仮想世界として生成します。
それが「今」、「ここ」の現実仮想世界です。
「今」、「ここ」は、頭の中の仮想世界と、現実世界が交わる世界です。
だから、「今」「ここ」を認識することが重要なんです。

無意識は決まりきった簡単な処理しかできません。
朝、目が覚めた時、いつもの自分の部屋なら、ここは自分の部屋って「ここ」を設定できます。
この程度の処理なら、記憶にある自分の部屋の光景と照らし合わせてできます。
だから、「ここ」の判定は無意識で出来ます。

でも、「今何時か」は無意識にはわかりません。
「今何時か」確認するには、時計を見ないといけません。
時計を見て、何時か確認するのは意識の役割です。
そこで、意識に時計を見てもらう必要があります。
じゃぁ、どうするのか?

これをプログラムに落とし込みます。
たとえば、無意識は意識に依頼したい仕事があれば、それをメッセージボックスに入れます。

意識は、定期的にメッセージボックスを確認して、メッセージがあればその内容を処理します。
つまり、意識プログラムとは、メッセージボックスの内容を確認する無限ループと言えます。
そして、メッセージボックスにあるメッセージを受け取ることが、意識が「気づく」とか「思いつく」ということです。

目が覚めて、意識プログラムが起動すると、まず、メッセージボックスを確認します。
すると、そこには「今、何時か教えて」って無意識からのメッセージが届いています。
これが、「今、何時やろ?」って思うことです。
意識の処理をプログラムに落とし込むってこういうことです。

ただ、まだまだ、これじゃ、全然足りません。
たとえば、意識は、壁の時計を見て時間を確認するとします。
じゃぁ、意識は、なんで時計が壁にあるとわかったんでしょう?
時計を見たとして、そこからどうやって時刻を読み取るんでしょう。
もちろん、画像認識で7時って読み取るのは今のAIでもできますよ。
でも、7時の意味って何ですか?
グリニッジ標準時に変換すれば、それが7時の正しい意味ですか?
そういうことが知りたいんじゃないですよね。

そういった、僕らの意識が、普段、当たり前にしてることを丁寧に読みといて行く必要があるんです。
意味を読みといて、プログラムに落とし込む作業です。
その話は次回にします。

はい、今回はここまでです。
この動画が面白かったらチャンネル登録、高評価お願いしますね。
それから、意識の仮想世界仮説については、よかったらこちらの本を読んでください。
それじゃぁ、次回も、おっ楽しみに!