第338回 クラウドファンディングします! 〜ロボマインド・プロジェクトの全貌1


ロボマインド・プロジェクト、第338弾!
こんにちは、ロボマインドの田方です。

重大発表があります。
ロボマインド・プロジェクト、ついに、クラウドファンディングを実施します。

クラファンの話は、1年以上前から進めてたんですよ。
最初に30秒ぐらいのコンセプト・ムービーがあったらいいなぁって、話してました。

それが、どうせなら、分かりやすい物語にした方がいいなぁってなって、「そうや、アニメにしよ」ってなりました。
当初、2~3分のアニメのつもりが、脚本書いてたら、15分ぐらいの短編アニメになったんですよ。
まぁ、そっからが大変ですわ。

ま、その話は、いずれ、するとして、肝心のアニメの中身です。
メタバースの中でAIアバターが心を獲得するって話です。
そして、そのメタバースが「エデン」です。
そう、これが、「プロジェクト・エデン」です。

アニメは、クラファンの導入に使います。
それをみて、興味がある人は、ロボマインド・プロジェクトの中身を見てもらいます。
それで、ロボマインド・プロジェクトの内容をまとめようとしてるんですよ。
そうはいっても、かなりの量があるので、ちょっと長くなりました。
今回は、その前半部分を紹介しようと思います。
その前に、せっかくなので、アニメ『エデン』の冒頭だけお見せしますね。

はい、これが『エデン』です。
続きは、もう少し待ってくださいね。
それでは、本編に入ります。
では、どうぞ!

ところで、『エデン』は面白かったですか?
よくある美少女AIが出てくるアニメと思ったら大間違いです。
あれは、現在、進行中のプロジェクトを描いたリアルな話です。
それじゃぁ、『エデン』のテーマは何でしたか?

そう、心ですよね。
コンピュータは心を持てるのかってのがテーマです。

たぶん、誰でも一度は考えたこと、あるんじゃないでしょうか?
心を持ったロボットとか、昔からアニメやSFのテーマになってます。

人型ロボットは、今や、かなり人間に近づいてきています。
たとえば、最近のボストンダイナミクスの人型ロボットは、人間以上に機敏に動きます。

それから、これ、分かりますか?

これ、3DCGのヴァーチャル・ヒューマンなんですよ。
もう、人間と見分けがつかないでしょ。

見た目に関しては、ここまでできてるんですよ。
じゃぁ、後、足りないのは何です?

そう、「心」です。
心だけ、未だにできてないんですよ。

そもそも、コンピュータで、心って、作ること、できるんでしょうか?
結論から言います。
できます。
じゃぁ、どうやって作るんでしょう?

『エデン』を思い出してください。
もこみは、心を少しずつ手に入れていきましたよね。
それを、5段階の心理レベルで表現しました。
そして、最後にもこみが手に入れた感情、心理レベル5は何でしたか?

そう、「愛」ですよね。
最終目標は「愛」です。

じゃぁ、スタートは何でしょう?
これは、『エデン』では描かれていませんでしたけど、それは、意識です。
このプロジェクトは、コンピュータにいかにして意識を宿らせるかってところから始まります。
コンピュータで作った心、それが、マインド・エンジンです。
そして、マインド・エンジンが愛を獲得するまでを、詳しく説明します。

予想してた話と違いましたか?
はっきり言いますよ。
このプロジェクト、ちょっとぶっ飛んでます。
今まで、誰も聞いたことのない話ばかり出てきます。
覚悟して聞いてくださいよ。

それじゃぁ、まずは、今回の話の概要です。

大きく、前半と後半に分かれます。
前半で、現状の問題を取り上げます。
まずは、現在のAIです。
最近話題のChatGPTの課題です。
それから、そもそも、言葉の意味を理解するとはどういうことかって話をします。
シンボルグラウンディング問題っていう、意味理解の本質の話をします。
それから、意識科学や心の哲学の話もします。
デカルトの心身二元論とか、「意識のハードプロブレム」の話を取り上げます。
それから、自由意志です。
現代科学では、自由意志は存在しないって話をします。

そして、重要なのは後半です。
以上の問題を、たった一つの理論で解き明かしていきます。
それが、「意識の仮想世界仮説」です。
そして、それを基に作った心のシステムがマインド・エンジンです。
『エデン』では、もこみの心として描かれてましたよね。
それから、心です。
善悪といった倫理観から、愛といった心理まで、どうやって実現するかについて、詳しく解説します。
今回の話を最後まで聞けば、人間とは何か、心とは何かって疑問が絶対出てくると思います。
本当に、マインド・エンジンは、心といっていいのかって。
それは、最後まで見て、一人ひとりが、じっくり考えてもらったらいいと思います。

それでは、まずは、現在のAIから始めます。
AIに興味がある人なら、ChatGPTって聞いたことがあると思います。
高精度な文章を自動生成できるAIです。

僕も使ってみたんですけど、たしかに、これはすごい技術です。
分からないことを、会話しながら教えてくれます。
たとえば、「野菜炒めの作り方を教えて」って言ったら、すぐに教えてくれます。

ただ、使ってると、普通の会話とはちょっと違うなぁって違和感も感じました。
これとよく似た会話、どっかで見たことあるなぁ。
そうや、あれやって思い出したものがあります。
それは、失語症です。

失語症には、ウェルニッケ失語とブローカー失語の二種類があります。
ブローカー失語は、言いたい言葉がさっとでなくて、うまくしゃべれない障害です。
一方、ウェルニッケ失語は、流暢に話せて、一見、何の問題もないように見えます。
たとえば、Aさんの場合、こんな感じです。

「お体の具合はどうですか?どこか、悪いとこはないですか?」
「そうですねぇ。特に、どこも悪くないですねぇ」
「家族はいますか?」
「はい、いますよ」
「何人ですか?」
「えーと、三人です」
「お母さんはお元気ですか?」
「元気ですよ」
「お母さんはいくつになられましたか?」
「30、いや、33かなぁ」

特に、何も問題なさそうですよね。
でも、この人は、じつは、右半身が麻痺してて、寝たっきりなんですよ。
とても、「悪いとこはない」ってもんじゃないです。
家族も、本当は4人です。
お母さんは、とっくに亡くなっています。
Aさんは56歳ですから、お母さんが33歳のはずがありません。

つまりね、この人は、こう聞かれたら、こう答えるって会話のパターンで答えてるだけです。
つまり、言葉の意味を理解していないんですよ。

じつは、ChatGPTがやってるのも、これと、ほぼ同じなんですよ。
ChatGPTがどうやって文章を生成してるかっていうと、単語の並びから、次の単語を予測してるんです。
「日本 の 首都 は」って来たら、次は、「東京」って予測するんです。
こういったことを、大量の文書から学習してます。
つまり、意味を理解してるわけじゃないんですよ。
何も考えずに、単語の並びのパターンで、答えてるだけなんですよ。

こうやって、大量の文書から学習して、次に来る単語を高精度に予測する言語モデルを大規模言語モデルって言います。
ChatGPTとか、GoogleのLaMDAとか、今のAIは、大規模言語モデルが大流行りです。
今後は、何か調べるとき、「もっと詳しく教えて」とか、「ほかに例はないの」って会話しながら調べることになるでしょう。
今の検索エンジンは消えるかもしれません。
まちがいなく、世の中は変わると思います。

ただ、大規模言語モデルの限界も、既に見えています。
それは、できることは、言葉の意味を理解しなくてもできることだけです。
面白い映画を教えてって聞いたら教えてくれます。
でも、「あなたが一番好きな映画は何?」って聞いても、「私には、好きって感情がありません」としか答えません。
適当に、「これが好きです」と答えさすことはできても、本当に好きと感じてるわけじゃありません。
言葉の意味を理解してないって、こういうことです。
検索エンジンの代わりにはなっても、友達の代わりにはなれないんです。

じゃぁ、言葉の意味を理解させればいいってなりますけど、これが、一筋縄ではいかないんですよ。
言葉の意味理解って、今まで多くの人が挑戦してきて、全て失敗に終わってます。

1980年代に第二次AIブームというのがありました。
その時のAIは、AならばB、BならばCといったルールを使って推論していました。
この時に使うのが、意味ネットワークです。

意味ネットワークは、こんな風に、イヌは哺乳類であるとかって概念関係を示してあります。
それから、哺乳類は頭部と脚部を持ってるとか、頭部は目を持ってるとかって、何が何を持ってるって関係も示してあります。
これって、まさに、意味関係を示してありますよね。
これを使えば、「イヌは目を持ってますか?」って質問に答えることができますよね。
これなら、意味を理解してるって言ってもいいんじゃないでしょうか。

ところが、これじゃ、意味を理解したことにならないんですよ。
指摘したのは、認知科学者のステーブン・ハルナッドです。
ハルナッドは、シマウマを例に挙げています。
たとえば、シマウマというのを見たことがない人がいたとします。
そこで、シマシマの模様のある馬だって説明したとします。
それで、動物園に行って、初めてシマウマを見たとしましょう。
そしたら、その人は、「あれがシマウマや」ってわかりますよね。
次は、これをAIで同じことをしてみたとします。
さっきの意味ネットワークを使って、「シマの模様をもってる馬」とかって登録したとしましょう。

さて、そのAIを搭載したロボットを動物園に連れて行って、シマウマを見せたとしましょう。
さて、シマウマをみて、「シマウマだ」ってわかるでしょうか?
分かりませんよね。
だって、そのAIが理解してるのは「シマ」って文字と「馬」って文字が「模様」って文字で関連してるってことだけですから。
実際の馬も縞模様も理解してないんですから。

ここ、もう少し突っ込んで考えてみます。
現実世界には、馬とか、縞模様があるわけです。
それを指し示して馬とか縞模様って名前を付けたわけです。
つまり、「馬」とか「縞模様」って単語は一種の記号です。
そして、意味ネットワークは、記号同士を関連付けてるわけです。
いくら記号同士を関連付けても、現実世界の馬や縞模様には結びついていないんです。
つまり、記号が現実世界に接地していないわけです。
これを記号接地問題と言います。
またの名を、シンボルグラウンディング問題と言います。

同じことは、大規模言語モデルでも言えますよね。
大量の文書から学習して、単語の並びのパターンをいくら学習しても、単語は現実世界に結びついていません。
AIにとって「リンゴ」の意味は、「バナナ」って単語の近くにある確率が何%ってことです。
そんなのリンゴの意味じゃないでしょ。

もっと言えば、AIは「物がある」ってことも理解できません。
これはAIだけの話じゃありません。
「ものが存在するとは」って、ギリシャ時代から議論されてる哲学的問題です。
「物がある」ってことすら、簡単に定義できないんですよ。
たとえ言葉を言葉で定義できたとしても、意味はありません。
だって、言葉で定義するかぎり、いつまでたっても現実世界に着地しないんですから。
これが、AIは意味を理解できないってことです。

それじゃぁ、どうやれば、AIは言葉の意味を理解できるんでしょう?
人間は、この現実世界を生きています。
それに対して、大規模言語モデルは、テキストデータを学習してるだけです。
つまり、テキストデータの世界しか知らないわけです。

ということは、AIにも、人間と同じように現実世界を学習させれば、言葉の意味を理解できるようになるんじゃないでしょうか?
人が、目や耳で世界を認識するみたいに、カメラとマイクを使って、現実世界の映像や音を学習させるんです。
そうすれば、AIも言葉の意味を理解するんじゃないでしょうか?
実際、最近のAIは、マルチモーダルといって、映像や音を学習させています。
これで言葉の意味を理解できるようになるんじゃないでしょうか?

残念ながら、そうはならないんですよ。
だって、動物は、目や耳をもって、現実世界を生きていますよね。
でも、言葉を話せるようになった動物はいません。
犬に言葉を教えても、覚えれるのは、オテとかマテだけです。
会話にはなりません。
重要なのは、映像とか音とかって、入力するデータじゃないんです。
そうじゃなくて、入力されたデータを、頭の中で、どう処理するかです。
じゃぁ、人間は、頭の中で、どうやって処理してるんでしょう?

ものを考えてるのは意識ですよね。
じゃぁ、意識って何なんでしょう?
心や意識について考えると、近代哲学の祖、ルネ・デカルトまでさかのぼります。
デカルトは心と体は別だと考えました。
デカルトの言う心というのは魂のことです。
そして、魂はどこにあるかと言うと脳の中の松果体だそうです。

松果体を通じて心と体が相互作用すると考えました。
このような考えを、心身二元論といいます。

自分の本質は、心にあります。
体は心の命令で動く機械です。
デカルトの有名な言葉に「我思う、故に我在り」があります。
これは、この世のすべて、あらゆるものを疑ったとしても、たった一つ、疑いようのないものがある。
それは何かというと、こうして考えている自分です。
この考えの根底にあるのは、心を中心として、体はそれに付き従う心身二元論という考えです
この考え、分かりますよね。
僕らが普段感じてる感覚に近いです。

ところが、その後の科学の台頭で心身二元論は否定されます。
心や魂といったあいまいなものは存在しない。
科学は、客観的に観測可能なものしか対象としません。
だから、神とか宗教は排除されたわけです。
心も同じです。
心と言うあいまいなものは存在せず、あるのは、脳だけであると。
これが心身一元論です。

これも、言われたらそんな気がします。
脳の神経細胞の処理が心なんでしょう。
そう考えたら、心身一元論が正しいような気がします。

20世紀になって、ますます科学が発達しました。
相対性理論や量子力学で、量子の世界から、宇宙の果てまで科学で解明できるようになりました。
科学で解明できないものは、もう、ほとんど残ってないんじゃないかって言われるようになりました。

ところが、20世紀も終わりごろになって、やっぱり、なんかおかしいんじゃないかって気運が高まってきました。
今の科学では、意識については、ほとんど何も解明されてないんじゃないかって。
そこで、1994年、アメリカのツーソンで、世界で初めて、意識に関する国際会議が開かれました。
そこには、神経科学、哲学、物理学、心理学、脳科学から人工知能、宗教家まで、意識について一言、言いたい人が集まってきました。
でも、当然、話がまとまるわけがありませんよね。
そこにさっそうと登場したのが、当時、若干27歳の若き哲学者、デイビッド・チャーマーズです。

三番目に登壇したチャーマーズの発言で、会議の方向性が決まりました。
彼は、意識には、易しい問題、イージープロブレムと、難しい問題、ハードプロブレムがあると言いました。
イージープロブレムというのは、脳の神経細胞を辿っていけば解決する問題です。
たとえば、目からの画像は、最初、縦線とか横線とか簡単なパターンから解析されます。
それが処理が進むにつれて、徐々に複雑なパターンを解析して、最終的に、リンゴとか、机とかって判定されます。
こうやってわかるのがイージープロブレムです。

一方、僕らは目の前にリンゴがあるとか、机があるとかって思いますよね。
「美味しそうなリンゴだなぁ」とか、「食後にみんなで食べよう」とかって思ったとしますよね。
思ってるのは意識です。
この思ってる意識とか、食後にリンゴを食べたいなぁって思ってる内容は、いくら脳を観察しても見えてこないんですよ。
これがハードプロブレムです。
今の脳科学がやってることって、全てイージープロブレムです。
今のやり方じゃ、ハードプロブレムは解決しない。
チャーマーズは、そういったんです。

確かに、そうですよね。
僕らは起きてる間、何か考えたり、しゃべったりしてますよね。
それをしてるのは意識です。
それが、今の科学じゃ、全く扱えないんです。
これは問題ですよね。

でも、最近の脳科学では、BMIって技術が流行っています。
BMIっていうのは、脳に電極を埋め込んで、脳を直接観察する技術です。
最近だと、イーロンマスクが立ち上げたニューラリンク話題となっています。
このBMI技術、人が考えてる内容を読み出すことができるそうです。
でも、よく聞いてみると、ちょっと違いました。
できるのは、考えて文字を入力することです。
文字を書くところや、キーボードを入力してるところを思い浮かべることで、文字入力できるようになってるそうです。
確かに、すごい技術です。
でも、それはイージープロブレムです。
思考の中身そのものを直接読みだしてるわけじゃありません。
BMI技術の精度が高くなってなっても、考えてる内容とか、意識自体を観察することは不可能なんです。

イージープロブレムとハードプロブレムとは、違う次元にあるんです。
イージープロブレムの次元には、意識は存在しないんです。
どうやって意識を解明したらいいのか、それすら、分からないのが今の科学なんです。
科学の手の届かないところに、意識という、膨大な宇宙が広がってたんです。
今になって、そのことに気づいたんです。

21世紀になって、また、デカルトの時代に舞い戻ったんでしょうか?
体とは別に、心が存在するんでしょうか?
ところが、科学はどこまでも心を否定します。

デカルトは、体は心の命令で動く機械だって言いました。
体は意志の力で動いていると言ってます。
つまり、人間には自由意志があるってことです。
ところが、それを否定する脳科学の実験があります。
厳密な科学実験が、心を存在にとどめを刺しました。
それが、リベットの実験です。

ベンジャミン・リベットはカリフォルニア大学の生理学者です。
リベットは、人間が自発的に行動を決定してから、実際に動くまでの脳波を厳密に測定しました。
まず、被験者に、好きなタイミングで指を動かしてくださいと言っておきます。
実際に指が動いたタイミングは筋電図によって記録します。
「今、動かそう」って脳で思ったタイミングは、脳波で測定します。
ただ、これだけでは、まだ、不十分です。
ここで測定したのは、客観的に測定できるデータだけです。
でも、「今、動かそう」って決めたのは意識ですよね。
意識が、「今」と思った瞬間って、実は、客観的に測定できません。
だって、他人が頭の中で、何を考えてるかなんか、分からないでしょ。
分かるのは、本人だけです。
だから、意識が「今」と思った瞬間も、自己申告してもらうしかないんです。
それじゃぁ、どうやって、意識が思ったタイミングを正確に測定できるでしょう?

さて、こうやって測定した結果がこれです。

0の位置が、実際に筋肉が動いた時刻です。
そして、その550ミリ秒前から、脳波が立ち上がっています。
さて、問題は、意識が「今」と感じた時刻です。
それは、ここです。

筋肉が動く200ミリ秒前でした。
さて、これ見て、おかしなことに気づきませんか?

まず、全ての始まりは、「今、動かそ」って、意識が決めたことですよね。
そう思ってから、脳から筋肉に指令が言って、指が動くわけです。
ところが、これ、見てください。
意識が「動かそ」って思う、350ミリ秒も前に、脳波が出てるんですよ。

じゃぁ、その最初に出た脳波って何?ってなりますよね。

これ、そのまま解釈したら、この脳波が、「今、動かそうと思え」って指令を出したことになります。
そして、意識は、その指令を受けて、「そうや、今、動かそ!」って思ったってわけです。

ええ、どういうこと?
「動こ」って自分で決めたんじゃなくて、誰かに思わされてた?
じゃぁ、そう思わせたのは誰?
神?
宇宙人?
そうなりますよね。

ちょ、ちょ、ここは一つ落ち着きましょ。
落ち着いて、科学で納得できる説明を考えましょ。

まず、筋肉を動かしてるのは脳なのは、間違いないです。
つまり、脳の活動が体を動かしているわけです。
そして、今、こうして感じてる意識があるのもまぎれもない事実です。
でも、その意識は、脳の活動の後、「動かそ」って思い浮かぶわけです。
この条件を満たす意識があるとすれば、それは、どんなものでしょう。

考えられるとすれば、それは、自分の体が動くのを観察して、あたかも自分が動かしたと思う意識です。
それは、観察するだけで、外の世界に何の影響も与えることができない意識です。
ただ、本人は、自分が体を動かしてると思ってます。
つまり、自由意志がない意識です。

どうでしょう?
これなら、辻褄があいますよね。
この実験は、その後、世界中で検証され、実験の正しさは証明されています。
つまり、自由意志が存在しないことは、実験によって証明されてるんです。

はい、ここまでが前半です。
AI、脳、意識にまつわる現代の主要な問題は、一通り網羅したと思います。
今までの話で、意識は、自由意志もないし、ただ、観察するだけの存在に成り下がってしまいました。
面白くなってくるのは、こっからです。
こっから、意識の反撃が始まります。
それでは、後半戦です!

さて、今まで、意識、意識と、なんか、漠然とした話しかしてきませんでした。
まずは、この漠然とした意識を、はっきりとさせていきます。
そこで、一つの脳障害を紹介します。
それは、盲視と言います。
盲視というのは、目が損傷したんじゃなくて、脳の一部が損傷して目が見えなくなった障害です。
この盲視には、興味深い現象があります。
黒板をレーザーポインターで指し示して、「光の点がどこにあるか分かりますか?」って聞きます。
当然、「見えないので分かりません」って答えます。
それでも、「あてずっぽうでもいいので、指で指し示してください」って言います。
そしたら、なんと、正確に指差しできるんです。
「なんでわかったんですか?」って聞いても、「自分でもわからない」って答えます。
本当に、あてずっぽうで指差ししてるんです。

これって、どういうことでしょう。
どうもね、この体には、自分一人がいるだけじゃないみたいなんですよ。
もう一人、この体を操ってる人がいるみたいです。
意識は、その存在に普段気づかないだけです。
その存在のことを、無意識と呼ぶことにしましょう。

よく考えたら、無意識って、気付かないだけで、普通にいますよね。
たとえば、熱い鍋に触った時、思わず、手を引っ込めますよね。
いわゆる脊髄反射です。
これって、意識してない行動です。
気が付いたら、手を引っ込めてます。
この「気が付いた」ってのが意識です。
気が付く前の行動が無意識です。
それから、注意してほしいのは、熱いって感じるのは、手を引っ込めた後なんです。
つまり、熱いと感じたから手を引っ込めたわけじゃないんですよ。

手を引っ込めたのは、無意識でしたよね。
どうも、無意識は熱いとか感じないみたいです。
熱いと感じるのは意識だけなんです。

ちょとずつ、意識と無意識の違いが分かってきましたよね。
さて、盲視の話に戻ります。
目からの情報は、まず、後頭部の視覚野に送られます。

そこから側頭葉の腹側視覚路と、頭頂葉の背側視覚路の二つに分かれます。
腹側視覚路っていうのは、物の色や形を分析して、最終的に、それが何かを判断します。
だから、この処理経路は、「何の経路」とも呼ばれます。
背側視覚路は、物の位置や動きを分析する経路で、どこの経路とも呼ばれています。
そして、盲視の人は、何の経路が損傷してるんです。
だから、物が見えなくなってるんです。
ただし、どこの経路は生きています。
だから、光の点を指差しできるんです。

さて、ここで注目してほしいのは、見えないと感じてるのは意識ですよね。
と言うことは、意識というのは、どうも、腹側視覚路の先にあるようなんです。
それから、進化的には、背側視覚路が古くて、腹側視覚路は新しいってこともわかっています。
つまり、意識というのは、進化的に新しい生物しか持ってないようなんです。
逆に言えば、進化的に古い生物は、意識がないと言えそうです。
意識がないということは、無意識の反射反応だけで生きてるってことです。
さっき、無意識は、熱さを感じないって言いましたよね。
つまり、熱さとか、痛さとか、意識があるから感じるんです。
と言うことはですよ。
進化的に古い生物、たとえば魚とかは、痛みを感じてないようなんです。
まぁ、他人の痛みは、客観的に測定することはできないので、厳密には、本人に聞かないとわからないですけどね。

さて、どうでしょう。
曖昧だった、意識というものが、少しずつ、はっきりしてきましたよね。
もう少し、探っていきますよ。

眼球が一度に見える範囲って、どれぐらいか知ってますか。
じつは、驚くほど狭くて、角度にして1度。
腕をまっすぐ伸ばして親指を立てたときの爪ぐらいの範囲だけなんです。

眼球は、サッカードといって、小刻みに動いてるんです。
これ見てください。

右の白丸で示す部分が一度に見える範囲です。
だから、眼球が見たとおりに意識が見てたとしたら、左みたいに見えるはずです。
でも、僕らは、こんな風に見えてないですよね。
右みたいに世界全体が見えてますよね。
これって、どういうことでしょう?

これは、意識は、眼球が捉えた世界を直接見てるわけじゃないってことです。
そうじゃなくて、眼球が捉えた画像をつなぎ合わせて全体を組み立ててるんです。
そうやって、組み立てられた世界全体をみてるんです。
左のように、眼球が直接見る光景は、脳を観測して分かることです。
つまり、左はイージープロブレムです。
そして、右は意識が見てる世界です。
こっちが、ハードプロブレムとなります。

そして、左の部分から、右の全体を組み立ててるのが無意識なんです。
意識は、無意識が組み立てた世界を見てるんです。
なぜ、そんなことしてるか分かりますか?
だって、左みたいにしか見えないと、何が何だかわかりませんよね。
無意識は、意識が世界をちゃんと把握できるように、世界を作り上げてるんです。

また、別の例を挙げます。

これを見てください。
顔からこれを30cmほど話して、右目をつむってください。
そして、左目の前に黒丸が来るようにしてください。
そしたら、十字が消えませんか?
消えなかったら、そのまま前後にずらせて調整してみてください。
十字が消えたら、そこが盲点です。

網膜には光を受ける受容体が1億個以上あって、それが視神経で脳に送られます。
視神経をまとめたところだけ、受容体がなくて、ここだけ、見えないんですよ。
これが盲点です。

だから、ちょうど盲点に十字がくると、十字が消えるんです。
でも、よく考えたら、十字が消えるっておかしいですよね。
だって、盲点が見えないなら、消えるんじゃなくて、黒い穴になるじゃないですか。

ここに無意識の働きがあるんですよ。
いいですか。
さっき、言いましたよね。
意識に世界全体を見せるために、無意識が部分を組み立ててるって。
つまり、無意識の役目は、意識に完璧な世界を提供することなんですよ。
世界に穴なんか開いてたらダメなんですよ。
だから、必死で穴をふさごうとするんですよ。
意識さんに、完璧な世界を提供しよう。
それが、無意識さんの仕事です。

本当は、今、見えてる世界は、部分をつなぎ合わせて組み立てた張りぼてなんです。
でも、つなぎ目なんか、決して意識さんにみせちゃだめなんです。
盲点で見えないのは無意識さんも同じです。
でも、見えないからって、世界に穴をあけるわけにはいかないんですよ。
そんなことしちゃ、意識さんがびっくりしてしまうでしょ。
「なんじゃ、こりゃ!」ってなります。
そんなことしたら、無意識さん失格です。
だから、バレないように必死で穴を埋めるんです。
周りの世界と同じ色で、穴を埋めるんです。
だから、黒い十字が白く塗りつぶされたんです。

分かってきましたか?
今、みんなが見てる世界、これ、無意識さんが、必死で作り上げてくれてるんですよ。
ねぇ、こんなこと、教えてもらうまで、全然、気付かなかったでしょ。
でも、無意識さんは、「僕が作ったんです」なんて、おごることは一切ないです。
もう、なんて、謙虚なんでしょう。

さて、プロジェクト・エデンです。
プロジェクト・エデンの目的、忘れてないですよね。
意識の謎を解明することじゃないですよ。
コンピュータで心をつくることです。
もこみの心をつくるんです。
それじゃぁ、今までの話を踏まえて、心を、少しずつコンピュータで置き換えていきますよ。
まず、置き換えるのは、無意識です。

無意識の役目は、何でしたか?
そう、世界を作って、意識に提供することでしたよね。
意識は、とりあえずは、いまの意識を使うことにします。

世界を作って提供する部分だけ、コンピュータに置き換えるんです。
そんなこと、どうするかって言うと、VRシステムを使うんです。
VRゴーグルで視界を覆います。
そして、カメラをVRゴーグルに取り付けます。
つまり、ユーザーが見てる光景をカメラで撮影するんです。
そして、カメラからの映像をリアルタイムで解析して、3DCGに変換して、VRゴーグルに投影するんです。
3DCGは、実際に見える光景と区別がつかない高精細画像です。
すると、どうなりますか?
ユーザーは、VRゴーグルをつけても、外しても、同じ光景を見ます。
目の前に、普通に部屋が見えます。
実際の机にも触れます。
ここまでで、無意識の置き換えが完了しました。

さて、次は、意識をコンピュータに置き換えましょう。
ここでは、既に、人型ロボットがあるとします。
たとえば、最初に紹介した、ボストンダイナミクスのロボットです。

このロボットの目にVRゴーグルを装着するんです。
いや、装着するんじゃなくて、ロボットと一体化するんです。
つまり、ロボットのプログラムにVRシステムを組み込むんです。

VRシステムというのは、目の前の光景をリアルタイムで3DCGに変換するシステムですよね。
これを無意識プログラムとします。
それから、ロボットの体を制御するプログラムがあるわけですよね。
これを、意識プログラムとします。
そして、無意識プログラムと意識プログラムとをつなげるわけです。

意識プログラムというのは、世界を認識して、行動を決定するプログラムです。
この世界認識に、無意識プログラムを使うわけです。
無意識プログラムは、3DCGを生成してましたよね。
たとえばカメラでリンゴを撮影したとすれば、3Dのリンゴオブジェクトを生成して、三次元空間に配置します。
ロボットの意識プログラムは、3Dオブジェクトのデータに直接アクセスします。
3Dオブジェクトのデータは、具体的にはコンピュータのメモリに生成されるデータのまとまりです。

ここで、ちょっとプログラムの話をします。
オブジェクト指向プログラミングっていうのがあります。
これは、プログラムの手法の一つで、現実世界にあるものをオブジェクトってデータのまとまりで表現します。
オブジェクトには、属性を表すプロパティと、動きを表すメソッドがあります。
物体なら、色とか形とか位置ってプロパティと、落ちるとかってメソッドがあるわけです。
リンゴオブジェクトなら、色プロパティは赤で、形プロパティは丸です。

さて、今、意識プログラムがメモリ上のリンゴオブジェクトにアクセスしました。
位置プロパティを読み取ることで、目の前にあるってわかります。
さて、これ、どういうことか分かりますか?
これ、意識は、「リンゴがある」って認識したってことですよ。
さっき説明したでしょ。
「ものがある」って、ギリシャ時代から解決できてない哲学的問題だって。
それが、今、定義できたんです。

もう一回説明しますよ。
カメラで捉えたリンゴを3Dオブジェクトに変換して、それを3Dの三次元空間に配置しました。
これらのメモリ上の3Dデータを意識プログラムが読み出すこと。
これが「ものがある」の意味です。

AIが言葉の意味を理解できない最大の問題はシンボルグラウンディング問題でしたよね。
シンボルグラウンディング問題っていうのは、言葉を言葉で定義する限り、いつまでたっても現実世界に着地しないってことでしたよね。

今、出発点は現実世界のリンゴを撮影したことです。
これ、現実世界に着地してるでしょ。

それをリンゴオブジェクトに変換しました。
オブジェクトにはプロパティがあります。
名前プロパティには「リンゴ」って入ってます。
これが言葉ですよ。
言葉が現実世界に着地したんですよ。
絶対解決不可能と言われていたシンボルグラウンディング問題が解決したんですよ。

「リンゴの色は何色ですか?」って質問したら、リンゴオブジェクトの色プロパティを見て「赤色です」って答えます。
ねぇ、ちゃんと会話もできるでしょ。
たしかに、このぐらいの会話は、ChatGPTでもできます。
でも、ChatGPTは、意味を理解せずに答えてるだけです。
「リンゴの色は何色」って文字列に続くのは、「赤色」が高いってことを学習してるだけです。
こんなの、意味を理解してるといえないでしょ。
同じ会話ができても、中身は全然ちがうんですよ。

これで、AIの最大の問題、言葉の意味理解を解決できました。
でも、もう一つ大きな問題がありましたよね。
意識のハードプロブレムです。
意識のハードプロブレムというのは、脳の神経細胞をいくら辿っていっても意識に辿り着かないって問題でしたよね。
もっと言えば、この現実世界、物理世界と、意識の世界とが、どうやって結びついてるのかわからないってことです。

さて、今、スタートはカメラで撮影したリンゴでしたよね。
つまり、この現実の物理世界です。
そして、最終的にそれを認識するのは意識プログラムでしたよね。
物理世界と意識の世界が結びついています。
つまり、意識のハードプロブレムが解決してるんですよ。
じゃぁ、物理世界と意識の世界は、どこで結びついたんでしょう。

それは、撮影したリンゴを3Dオブジェクトに変換したところです。
じゃぁ、これの意味することは何でしょう?

意識は、「リンゴ」とい言えば、リンゴオブジェクトを生成して、リンゴオブジェクトのデータにアクセスできるわけです。
この「リンゴ」って名前、これは一種の記号ですよね。
これ、誰かが決めた名前ですよね。
現実世界のリンゴから、必然的に生まれた名前わけじゃありません。
つまり、一旦、記号化すると、物理世界からは辿れないんですよ。
物理世界から記号世界に辿り着く方法はないんですよ。
これが意識のハードプロブレムです。

でも、僕らがいるのは記号世界ですよね。
僕らは、物理世界も知ってますよね。
つまり、記号世界からは物理世界に辿ることはできるんです。
「リンゴ」って言葉は、現実世界のリンゴに対応するって、意識は分かってます。

物理世界と意識の記号世界は、こういう非対称性があるんですよ。
じゃぁ、意識を解明するにはどうすればいいんでしょう。
物理世界から意識の世界に辿り着けないんだから、意識の世界から解明するしかないですよね。
これ、何を意味するかわかりますか?

それは、意識の側の世界を作るしかないってことです。
意識の世界って、オブジェクトで作れましたよね。
オブジェクトって、プログラムで操作できますよね。
だから、プログラムで意識の側の世界を作るんです。
これしか、意識や心の仕組みを解明する方法はないんです。

心はプログラムで作って、体はロボットで作ればいいです。
現実の物理世界で動くロボットです。
そうすれば、意識の記号世界と、ロボットの物理世界がつながります。
ただ、実際のロボットを作るのは大変です。
そこで、現実世界の代わりにメタバースを使います。
ロボットの代わりに、メタバースで動くAIアバターを使います。
そうして、AIアバターの心をつくるんです。
それがプロジェクト・エデンです。
わかりましたか?

ようやく、プロジェクト・エデンに辿り着きました。
ここで、クオリアの話をしておきます。
意識科学では、意識が認識するものをクオリアって言います。
たとえば、赤い色って、物理世界だと波長700nmの光だって定義します。
でも、物理世界と意識の世界とは違いますよね。
意識や主観が「赤」って感じるものを赤のクオリアって言います。
このクオリアっていうのも、まだ、科学でちゃんと定義できていませんでした。
でも、今までの話で定義できるようになりましたよね。
赤は、物体オブジェクトの色プロパティです。
意識が感じるものは全てクオリアです。
そして、それはオブジェクトで定義できます。
リンゴのクオリアは、リンゴオブジェクトです。
色のクオリアは、オブジェクトの色プロパティです。
こうやって、意識が感じるクオリアを、プログラムで定義できるようになりました。

それから、最も重要な話をしておきます。
いま説明した意識の仕組み、このことを意識の仮想世界仮説といいます。
これは、僕が提唱する意識仮説です。
プロジェクト・エデンでは、意識の仮想世界仮説を基にして心のプログラムを作ります。
それが、マインド・エンジンです。

長くなりましたので、今回はここまでとします。
続きは、次回です。
クラウドファンディングも、楽しみにしていてください。
それから、チャンネル登録、高評価もお願いしますね。
それと、意識の仮想世界仮説に関しては、こちらの本に詳しくかいてあるので、よかったら読んでください。

それじゃぁ、次回も、おっ楽しみに!