ロボマインド・プロジェクト、第520弾
こんにちは、ロボマインドの田方です。
去年、「意識が宿ったAIアバター『もこみ』を本気で作るプロジェクト」として、クラウドファンディングを行って、それからずっと開発を続けています。
開発の中身は、AIアバターの心のマインド・エンジンと、メタバースの二つになります。
クラウドファンディングを応援していただいた方には、ときどき開発報告を出していたのですが、こんな感じのメタバースがようやく完成しました。
最初のデモは何にしようかと考えて、第494回で、リベットの実験をするって話をしました。
リベットの実験というのは、被験者に好きなタイミングで手首を動かすように指示して、脳波を測定したら、被験者が「動かそう」と思うちょっと前に脳波が観測されるという実験です。
本人が「動かそう」と思う前に何らかの脳波が出るとういうことは、自分の意志で行動を決める前に、既に脳内では決まってたとうことです。
つまり、自由意志での否定です。
ポイントは、本人が「動かそう」と思った瞬間をどうやって確認するかです。
それは、高速で回転するタイマーを見て、どの位置の時に「動かそう」と思ったかを覚えておくことです。
そこで、まず、時計を見て何時か確認するところを作ろうと思ったんですけど、これが、結構、難しいんですよ。
「そんなの、時計を表示するだけじゃないか」って思いますよね。
でも、時計を見て時刻を認識するのは僕ら人間です。
時計を見て、「あぁ、もう3時かぁ」とか思いますよね。
作らないといけないのは、「あぁ、もう3時かぁ」って思うところなんです。
この「あぁ」っていったい何なんでしょう。
何かを感じて、「あぁ」って思ったわけでしょ。
じゃぁ、意識は、何を感じて「あぁ」って思ったんでしょう?
そう考えたら、心を作るのって、なかなか奥が深いですよ。
ただ、基本的なプログラムは完成しています。
それが、世界を認識するマインド・エンジンです。
そして、認識する現実世界も、メタバースとして完成しています。
今、問題となっているのは、この二つを結びつけて、いかにして世界を認識するかです。
これが今回のテーマです。
目が覚めて、世界を認識する意識プログラム
それでは、はじめましょう!
朝、目が覚めました。
目を開けましたけど、まだ、ぼぉ~っとしています。
焦点が合って、はっきりと見えてきました。
いつもの部屋です。
「今、何時やろう」
壁の時計を見ると、朝の7時です。
「そろそろ、起きないといけないよなぁ」
そう思って、ベッドから起き上がります。
なんてことですよね。
悩むことなんてないですよね。
でも、それは、あなたが普段、当たり前にやってるからです。
それじゃぁ、質問を変えましょう。
起きた時、あなたはなぜ、ここが自分の部屋だとわかったんでしょう?
いや、それ以前に、なぜ、ここがどこかを確認したんでしょう?
たとえば、朝起きた時、いつもと違う部屋にいると気づいたら焦りますよね。
でも、「あっ、そうだ。出張に来ていてホテルに泊まってたんだ」って思い出してほっとします。
もし、それも思い出さなかたとしたら、「えー、ここはどこ?」ってかなり焦りますよね。
それだけ焦るってことは、今、ここがどこかってことが、ものすごく重要だってことです。
つまり、普段、何気なくやってることって、実は、ものすごく重要な意味があるんです。
じゃぁ、その重要な意味って何でしょう?
それは、自分が、今、どこにいるかってことです。
もっと言えば、世界と自分との関係です。
それが、今がどこで、いつかってことです。
自分というのは生まれてから今までいた自分です。
自分とは、この体の中にいて、いろんなことを経験した主体です。
世界とは、自分が属する、この三次元空間のことです。
世界も、はるか昔からずっと続いています。
そして、自分と世界とは、今、この瞬間、この場所で交わります。
これが世界と自分との関係です。
これが大前提です。
だから、意識は、目が覚めた時、まず、これを確認します。
ここがどこで、今が何時かを確認するわけです。
それから自分が誰かの確認です。
どこの会社に勤めていて、家族はだれでとかです。
これは世界の中で自分が経験してきた記憶から成り立ちます。
逆に言えば、記憶が自分を作り出してると言えます。
もし、朝起きた時、この記憶なくなっていれば、これも焦りますよね。
実際にそうなった人がいます。
その話は、第317回~第319回で紹介した記憶喪失となった大庭さんです。
大庭さんは、夜寝ると、すべて忘れてしまいます。
だから、部屋には自分の運転免許証を拡大して貼っています。
そして、朝、起きたら、まず、それを見て、自分がどこの誰かを頭に入れます。
自分というのは、どうやって作られるか、わかりますよね。
僕は、そんな人間にとって当たり前のことをAIにさせようとしてるわけです。
その前提となる理論が意識の仮想世界仮説です。
人は、目で見た世界を頭の中で仮想世界として構築します。
意識は、この仮想世界を介して現実世界を認識します。
これが、意識の仮想世界仮説です。
システムの構成としてはこうなります。
現実世界というのが、プロジェクト・エデンの場合、メタバースです。
メタバースからの画像情報を元に無意識が仮想世界を組み立てて、意識はそれを認識します。
意識は大きく分けて二種類の方法で世界を認識します。
一つは見た目で、もう一つは意味です。
見た目とは知覚したもので、意味とは関係性のことです。
たとえば、目のまえにリンゴがあったとします。
「このリンゴは何色?」「じゃぁ、葉っぱは何色」って指さして質問して答えるとき、見てるのが見た目のリンゴです。
「りんごは食べ物」とか「りんごは甘酸っぱい」とかって考えることもできますよね。
これはリンゴは「食べ物」の一種で、「食べ物」は「味」という属性を持っていて、「リンゴ」の味は「甘酸っぱい」ということです。
これが関係性です。
関係性は、一種のデータ構造です。
見た目の部分をコンピュータで再現するとすると3DCGです。
3DCGなので、現実世界のリンゴを指さして、「ここは何色」「葉っぱは何色」って質問に答えることができます。
関係性は、コンピュータで再現するとするとオブジェクトになります。
オブジェクトというのはデータ構造で、プロパティという属性とメソッドという動作を持ちます。
たとえば、食べ物オブジェクトなら、「味」とか「食感」といったプロパティを持っています。
また、オブジェクトは概念の親子関係を持っていて、「リンゴ」は「食べ物概念」の子概念となります。
そして、子概念は親概念のプロパティを受け継ぐので、「リンゴ」なら、甘酸っぱいって味プロパティと、シャキシャキって食感プロパティを持ちます。
さらに「食べ物」オブジェクトのメソッドは「食べる」です。
「食べる」って行動は、人間がもつ行動で、「食べ物」に持たせるのは違うんじゃないかって思うかもしれませんけど、実は、「もの」と行動の関係はニューロンで結びついているんですよ。
たとえば、「もの」をみたとき、それがつかめるものなら「つかむ」のカノニカルニューロンが反応します。
おそらく、「食べ物」を見た時、それを口にもっていって食べるといった一連のニューロンが反応すると思われます。
つまり、「もの」と、それに対する行動を結びつけてデータ管理するのは脳から考えても正しいわけです。
意識は見た目と関係の二種類で世界を認識するって言いましたよね。
これも、脳に基づいた分け方で、見た目といった知覚で認識するのが右脳で、オブジェクトといったデータ構造で認識するのは左脳です。
「リンゴは食べ物の一種だから食べられる」って論理的思考ができるのは、オブジェクトといった関係で管理してるからです。
これは意味を理解するとも言えます。
それから、「リンゴは食べ物の一種だから食べられる」って文ですよね。
つまり、言語を処理するのは左脳となります。
こんな風に脳に基づいてデータ処理することがマインド・エンジンの最大の特徴です。
これは、強化学習しかしない今のAIとは全く異なるやり方です。
ちなみに強化学習は大量の生データを学習するので、これは知覚した情報をそのまま処理する右脳の処理に近いです。
2012年にGoogleのディープラーニングが1000万枚の画像から猫の概念を獲得したと話題になったのが今のAIブームの始まりです。
それから10年以上たった今では、文章を入力したら、動画を生成できるようにまでなりました。
ただ、まだ完璧ではありません。
たとえば、有名なのは「スパゲッティを食べるウィル・スミス」です。
https://www.youtube.com/watch?v=ndUeXZorymY
(0:00~0:30ぐらい)
それが、ムチャクチャなんですよ。
手でつかんでます。0:05
食べるというか、口から出てます。0:13
お皿の上から下からあふれ出します。0:18
口すら関係ありません。0:26
もう、食べるって概念が崩壊してますよね。
これです。
概念がないんです。
右脳は見たままとか、知覚したものだけで学習します。
意味なんか理解しません。
意味を理解するのは左脳です。
大量のデータを統計処理して、最もありそうな予測をするのが強化学習です。
これは、パッと直感で感じて判断する右脳と同じです。
処理は速いですけど、意味は考えません。
この情報処理のことをシステム1とも言います。
それに対して、論理的に意味を考えるのが左脳です。
時間はかかりますけど、論理的に正しい判断ができます。
この情報処理をシステム2と言います。
パッとみて猫と判断するだけなら右脳だけでもできます。
でも、スパゲッティを食べるとなると、まず、食べるの意味を知らないといけませんよね。
食べるとは、食べ物を口に持って行って噛んで呑み込むって一連の行為です。
スパゲッティの場合フォークを使います。
これら一連の行動は、スパゲッティを見た時、頭の中で対応するニューロンが順番に反応するわけです。
これが「食べる」の意味理解です。
僕らは、ただ見てるだけと思ってますけど「見る」って情報処理は、右脳と左脳の両方を使っているんです。
パッと見て「あっ、ウィル・スミスや」って思うのは右脳です。
フォークを使うとか、口に持って行くとかって理解するのは左脳です。
左脳と右脳の両方を使って世界を認識するから、ウィル・スミスの動画を見ておかしいって思うわけです。
AIができるのは、パッと見とか、それらしい見かけだけの右脳の処理だけです。
ここが今のAIの限界です。
ちなみにOpenAIが最近発表したAIモデルo1は論理的思考ができるシステム2とのことです。
ただ、いまだに簡単なミスをすると指摘されています。
たとえばリンゴの値段を問う問題に、「去年のバナナの値段は10%安かった」という情報を加えます。
論理的に理解してたらバナナの値段は関係ないってわかりますよね。
ところが、o1モデルでも、バナナに引っかかって間違うそうなんです。
こんな、小学生でも引っかからない問題に引っかかるということは、強化学習のベースは変わってないんでしょう。
今のAIは、強化学習をベースとする右脳処理だけで進化してきました。
それとは根本的に違う論理的思考は、強化学習では無理です。
それ以前に、意識レベルで、脳がどんな処理をしてるかはまだ解明されていません。
それに対して、僕は、様々な脳障害の症例から意識レベルの処理モデルを作りました。
さて、話を戻します。
意識が認識するのは仮想世界です。
何のために仮想世界を作るかというと、自分と現実世界との関係を把握するためでしたよね。
だから、朝、目が覚めた時、ここがどこで、今が何時なのか確認するわけです。
仮想世界というのは、目からの視覚情報を元に、3DCGで見た目の世界を作ります。
こういった決まりきった単純処理は無意識が行います。
目が覚めた時、ぼぉ~っとした状態からはっきりと部屋が見えてきます。
この時、無意識が部屋を作っているわけです。
つぎは場所と時間の設定です。
作った仮想世界が見慣れた自分の部屋なら、無意識は仮想世界に「自分の部屋」と設定します。
これは、記憶と照らし合わせて判断できます。
次は、今がいつかの設定です。
これは、状況によって異なるので、無意識の単純作業ではできません。
無意識は、自分で解決できないことは意識に解決してもらいます。
その方法は、意識に「今、何時か調べて」って聞くことです。
目が覚めたとき、「あぁ、よく寝た。え~っと、今何時やろ?」って思いますよね。
これです。
この、「今、何時やろ?」って思うのは、これ、実は、無意識が意識に問いかけてるからなんです。
ようやく本題です。
今までの説明で、心には意識と無意識の処理があることがわかりました。
意識というのは、「今、自分は部屋にいる」とか、「YouTubeを見ている」とかって思う主体です。
意識は考えて行動を決定します。
意識に考えや行動のきっかけを与えるのは、じつは無意識なんです。
その方法が、「~して」と意識に送るメッセージです。
つまり、無意識から意識にメッセージを送る仕組みがあるわけです。
今回、無意識は場所に関しては、自分の部屋って自分で設定しました。
これは記憶からすぐに解決できたからです。
もし、それが見慣れない部屋だったら、「ここはどこ?」ってメッセージを意識に送ります。
すると、意識は、「あれ、ここはどこや?」って思います。
そして、昨日の出来事を思いだして「そうや、出張でホテルに泊まってるんや」って思い出します。
こういった、考えないと解決できない問題は意識の出番ってことです。
さて、ようやく「今、何時やろ?」って意識が思うとこまで来ましたけど、ここで時間切れとなってしまいました。
こっから、どうやって何時かを確認するのかです。
もちろん時計を見るんですけど、じゃぁ、時計がどこにあるかどうやって知るんでしょう?
そもそも、時間を認識するとはどういうことでしょう。
はたまた、知ると知らないの違いって何なんでしょう。
そのレベルまで定義しないと、コンピュータで心を作れません。
続きは次回です。
はい、今回はここまでです。
この動画が面白かったらチャンネル登録、高評価お願いしますね。
それから、動画で紹介した意識の仮想世界仮説に関しては、よかったらこちらの本を読んでください。
それじゃぁ、次回も、おっ楽しみに!
さて、それを無意識は自動で作る。
無意識とは、マルチスレッドとは
無意識は簡単にできることしかしない
場面とは
自分の部屋
場面
これが経験、自分。
無意識からメッセージが渡される
今、何時?
ようやく本題です。
第520回 目が覚めて、世界を認識する意識プログラム①
