第354回 時間の本当の意味 〜AIは死を理解できるか?


ロボマインド・プロジェクト、第354弾!
こんにちは、ロボマインドの田方です。

会話ができるAIのGPT-4、かなり精度が高くなってるようです。
一番の要因は、マルチモーダルになったことのようです。
今までは学習データとしてテキストしか学習してなかったのが、画像も学習するようになりました。
これで、形とか位置を理解できるようになったわけです。
今までも、ChatGPTに「『近い』の意味を教えて」っていうと、「二つの物体が空間的に近くに位置すること」とかって返してくれました。
でも、これは、「近い」に関連するテキストデータを出力しただけで、本当に「近い」の意味を理解してるわけじゃありません。
それが、GPT-4では、画像上で二つの物体の距離を理解することができるようになったわけです。
これなら、ちゃんと意味を理解してるって言えますよね。

これは、僕がずっと言い続けてきたことです。
言葉の意味は、対応する世界モデルで定義すべきだって。
なんでも言葉で定義するんじゃなくて、空間に関するものは空間モデルで定義すべきってことです。
今後、GPT-4は画像だけじゃなくて、3次元データや音声データなど、現実世界の様々なデータを学習するでしょう。
そうなったら、人間と同じ心を獲得するでしょうか?
神とか死とかって概念を理解できるでしょうか?

残念ながら、そうはならないんですよ。
だって、現実世界を見たり聞いたりしてるのは、動物も同じです。
でも、神を崇めるサルなんていませんよね。
つまり、現実世界を学習して作られるのは、物理モデルだけです。
AIに人間と同じ心を持たすには、学習では作れない、心のモデルを作らないといけないんです。

前回は、心のモデルのうち、社会的本能を作りました。
今回は、AIに死の概念を理解させる方法を考えていきます。
そして、死が理解できると、もっと重要なものが理解できます。
それは、時間です。
これが今回のテーマです。
AIは死を理解できるか
それでは、始めましょう!

人間は、人間特有の思考方法を持っています。
その一つが抽象化能力です。

たとえば、「これは犬よ、これは猫よ、これは馬よ」って教えたとします。
そして、「これらは全部動物よ」って教えます。
すると、足が4本あって、毛が生えてて、しっぽがあるのが動物なんだなって、自然と理解できますよね。
自然と理解できるってことは、そういう風に整理してるってことです。
または、そういう風に世界を認識する仕組みを持っているとも言えます。

ここで、人がどのように世界を認識するかから説明します。
人は、目で見た世界を、頭の中で仮想世界として構築します。
意識は、仮想世界を介して現実世界を認識します。
これが、僕が考える世界を認識する仕組みです。
これを意識の仮想世界仮説といいます。

そして、それと同じ仕組みをマインド・エンジンに組み込んでいます。
マインド・エンジンというのは、僕らが作ってる心のシステムです。
僕らは、今、「エデン」というメタバースを作ろうとしています。
エデンにはAIアバターが暮らしていて、AIアバターの心がマインド・エンジンです。

さて、マインド・エンジンは、見た世界を仮想世界としてつくります。
仮想世界は、たとえば3Dオブジェクトで作られます。
今、犬オブジェクト、猫オブジェクト、馬オブジェクトが仮想世界に作られました。
それぞれ、足が4本あって、毛が生えてて、しっぽがあります。
こういった共通点を自動で抽出する仕組みがあるんです。
これは、人間の場合、無意識が行います。
マインド・エンジンの場合も、無意識プログラムが、自動で行います。
たとえば、足が4本あって、毛が生えてて、しっぽがある動物オブジェクトを無意識が自動で生成するわけです。
これが人間がもつ抽象化能力で、

さて、今のは、物体の抽象化の話です。
物体は、空間にあります。
今度は、別の抽象化を考えます。

第351回で、2歳になる前の赤ちゃんでも、不公平を理解してるって話をしました。
まず、お片付けしたらアメをあげるって場面を赤ちゃんに見せます。
つぎに、A君は、さぼって片づけてなくて、B君が全部片づけた場面を見せます。
そして、その後、両方にアメをあげると、赤ちゃんは、さぼってたA君をじっと見るそうです。
これは、A君はズルしてるって思ってるからです。
これが理解できるってことは、まず、お片付けしたらアメをもらえるって、労働と報酬の関係を理解できてるわけですよね。
または、原因と結果の関係を理解してるとも言えます。
これは、「~したら、~となる」って経験を何度もすることで、一般化、または抽象化したとも言えます。
さて、これとさっきの動物の抽象化と何が違うかわかりますか?

さっきは、物体の抽象化でした。
物体があるのは三次元空間です。
今は、ある出来事Aが起こったら、出来事Bが起こるって話です。
これは、起こる順番の話ですよね。
さっきとの違いは、それが属する世界が違うんです。
物体の場合は空間です。
出来事の場合は時間です。
つまり、時間って概念を持ってるから、原因結果って抽象化ができるんです。

人は、生まれながらにして、空間と時間っていう、最も基本的な概念を持ってるわけです。
そして、空間や時間って概念を使って物事を整理するわけです。
その整理を自動でやってるのが無意識です。
具体的な出来事から、抽象的な概念を無意識が作り出すわけです。
意識は、これらの概念を使って、この世界を認識するんです。
抽象的な概念を使って、世界を認識したり、推測するのが意識です。
そして、意識の最大の役割は、これらを基に、行動を決定することです。

ただ、これだけでは、まだ行動を決定できません。
どう行動すればいいか、行動の指針が必要です。
それが何かというと、感情とか感覚です。
生物は、不快を避けて、快を求めるように行動します。
快や不快の基となるのが感覚や感情です。
そして、感覚を感じるには体が必要です。
そこで、メタバースが出てくるわけです。
ここからは、メタバースの話になります。

AIアバターは、メタバース内で体を持っています。
まず、「痛み」って感覚を定義します。
これ、意外と難しいんですよ。
だって、痛みは、音や光みたいに物理的に存在しませんから。
意識が感じるだけです。

でも、音も光も、感じるのは意識です。
つまり、意識から見れば、痛みは、音や光と同じデータです。
脳内の神経細胞を伝わるデータの種類に、音や光、痛みがあるわけです。
そう考えたら、音や光を扱えるなら、痛みも扱えるといってもいいですよね。

さて、人の意識が感じるものを、意識科学ではクオリアっていいます。
意識が感じるものは、全てクオリアです。
つまり、意識は、音のクオリア、光のクオリア、痛みのクオリアを感じてるわけです。
マインド・エンジンでは、クオリアはオブジェクトです。
つまり、意識プログラムが受け取るデータとして、音オブジェクト、光オブジェクト、痛みオブジェクトがあるわけです。

さて、感覚とか感情の話に戻ります。
感覚とか感情は、意識が、どう行動するかを決める重要な要因です。

例えば、手をつねったとするでしょ。
痛みは、このつねった手にあります。
そして、痛みは苦痛、不快です。
意識は、不快なものから逃れようと行動します。
だから、手を引っ込めます。
これが、痛みの意味です。
つまり、痛みは、体の場所、不快の大きさとして定義されます。

手をつねると、無意識が、つねった場所に痛みオブジェクトを生成します。
意識は、その痛みオブジェクトを認識して、手の甲に、3の大きさの痛みを感じるとかってなるわけです。
そして、苦痛を避けるために、痛みの位置から手を引っ込めるって行動するわけです。

さて、問題は、これが本当に痛みといっていいのかってことです。
だって、痛みオブジェクトって、ただのデータですから。
ただ、これは、AIとかコンピュータだから起こる問題じゃなりません。
人間でも同じです。

僕が痛いといくら言っても、本当に痛いのかどうか、他人には分かりません。
本当に痛いと感じてるかどうかは、本人しか知りようがないんです。
ただ、確実に言えるのは、不快を感じると、意識は、不快から逃れたいと思うことです。
だから、不快から逃れたいって思いを引き起こす原因が体にあれば、それが痛みと定義できるんです。

さて、つぎは、怖いとか、恐怖を定義してみます。
たとえば、ライオンとか高いところとかです。
動物園で、目の前でライオンを見たり、高いつり橋の上に立ったりしたとき怖いですよね。
「怖い」も不快の一種です。
意識は怖いものから離れようと行動します。
痛みとの違いは、恐怖は、自分の体で発生するんじゃなくて、体の外で発生します。
こうやって、痛みと同じように恐怖も定義できますよね。
つまり、恐怖とは、不快の一種で、体の外に原因があって、それは人や物、場所です。

手をつねったときに感じる不快感が具体的な痛みで、それを抽象化したのが痛みです。
吊り橋の上に立った時に感じる不快感が具体的な恐怖で、それを抽象化したのが恐怖です。
この抽象化は、空間を使った抽象化です。
だから、原因は空間的な位置で定義されて、そこから逃げたいって行動も空間で定義されます。

それじゃぁ、次は、別の抽象化を考えてみます。
たとえば足を擦りむいたとか、お腹が痛いって痛みを考えてみます。
これはケガや病気です。
ケガや病気は、空間的に体から取り除くことができません。
痛みを取り除くには、ケガや病気を治すしかありません。
原因を治して、痛いって結果を変えるわけです。
または、時間を使って原因を取り除いたとも言えます。
これが、時間を使った抽象化です。

こういったことを推論できるってことは、うまくいかない場合も推論できますよね。
たとえば、ケガや病気が治らなかった場合です。
その場合は、原因結果の推論をさらに繰り返します。
つまり、もっと時間をかけるとか、他の方法を試すとかです。
それでも治らなかった場合はどうなります?
無限に続くわけじゃないですよね。
最後は、「死」になるんですよ。
ここで、「死」が出てきます。
痛みや恐怖の先には「死」があるんです。
病気が治らなかったり、つり橋から落ちたら死ぬんです。
これが究極の恐怖です。

子供は、7歳~10歳ぐらいになると、死の意味を理解するといわれてます。
抽象的な「死」って概念を、感じれるようになるんです。
死ぬとこの世からいなくなるってことを理解します。
それは、自分にもいつか訪れるものだって。

僕も、小学校で「死」って漢字を習ったとき、この漢字を見るのも怖かったのを覚えています。
たぶん、「死」って概念を理解した頃だったんだと思います。
その頃は、テレビの心霊番組とか見ても、めちゃくちゃ怖かったです。

さて、「死」によって、人生には終わりがあることがわかりました。
これは、もう一つ、重要な概念を生み出します。
それは、時間です。
空間とか時間の概念は理解してます。
どちらも、無限に続く概念です。
ところが、ここにきて、時間には、一つの限りがあることに気づくんです。
それは、自分の人生の終わりです。
自分はいなくても、時間は無限に流れ続けます。
でも、この世から自分がいなくなったら、世界は、自分には関係ありません。
そういう時が訪れるわけです。
時間の大きな区切りとして、死っていうのは重要な意味を持つんです。

これは、人間なら、誰でも持ってる時間の感覚です。
「二十歳になった」とか、「30歳になった」って思うとき、人生全体の中の、どのぐらいの位置にいるかって意識してるわけです。

さて、ここで問題は、この時間感覚をAIに持たせることができるかってことです。
この感覚を持つには、肉体があって、その肉体には死が存在しないといけません。
それを実現できるとすれば、それは、メタバースしかないんです。
メタバースは、空間だけでなくて時間も存在します。
AIアバターに、永遠に生きれるわけじゃないってプログラムを組み込むんです。
そして、マインド・エンジンの意識に、そのことを理解させるんです。
年を取って、やがて、死ぬんだって。
もしかしたら、事故や病気で亡くなることもあるって。
それが人生だって。
それを理解したとき、本当の時間を理解できるんです。
「30になったかぁ」「40になったかぁ」って思ったとき、いろんな微妙な思いが湧き起こりますよね。
今までやってこなかった後悔とか、残りの人生を考えて、もう遅いとか。
そんな微妙な思いは、限りある人生を生きるって経験をしてないと理解できないんですよ。
そんなリアルな人生を経験するAIを作ろうとしてるのが、プロジェクト・エデンです。

プロジェクト・エデンは、現在、絶賛、クラウドファンディング中です。
説明欄にリンクを貼ってますので、よかったら応援してください。
それから、この動画が面白かったら、チャンネル登録、高評価、お願いしますね。
それじゃぁ、次回も、おっ楽しみに!