第330回 脳を拡張せよ! 背中や舌で物を見る


ロボマインド・プロジェクト、第330弾!
こんにちは、ロボマインドの田方です。

前回、第329回で、心の進化について語りました。
この50年間、人類のIQは上昇し続けてるって話です。
まさに、心は進化してるってことです。
この話のポイントは、脳の進化って、意外と早いってことです。
だって、魚が陸に上がって、ヒレが足に進化するのに何千万年もかかります。
それが、脳の進化は、10年単位で確認できるんですから。

でも、今回の話は、そんなもんじゃないですよ。
脳がどれだけ早く変化するかって話です。

今回のネタ本はこれです。
『脳の地図を書き換える 神経科学の冒険』
作者は、スタンフォード大学の神経科学者のデイビット・イーグルマン博士。

この本には、脳が驚くほど速く変化する話がいっぱい出てきます。
たとえば、盲学校の教師を志望する人は、1週間、目隠しをして、目が見えない生活を経験するそうです。
すると、驚くほど音に敏感になることに気づきます。
たとえば、足音を聞いただけで、誰かを言い当てたりできるようになるそうです。
視覚情報って、通常は後頭部で処理されます。
ところが、1週間目隠しをした人の脳を調べると、後頭部で聴覚の処理が行われるようになってるそうです。
視覚情報が入力されなくなると、その場所が聴覚処理に乗っ取られるんですよ。
そして、一週間後に目隠しをとると、後頭部で視覚処理が戻るのに1日もかからないそうです。

この脳の柔軟性のことを可塑性っていいます。
脳の可塑性って、それだけじゃないですよ。
目が見えなくなった人に、ある装置を取り付けると、背中や舌で見えるようになったそうです。
もう、意味わからないでしょ。

これが今回のテーマです。
脳を拡張せよ!
背中や舌で物を見る。
それでは、始めましょう!

さて、これが人間の脳です。

感覚器官からの情報は、全てここに集約されて処理されます。
さて、なんか、おかしなことに気づきませんか?
目や耳や鼻や舌からの感覚情報がここに入力されるんですよ。
この感覚、全然違いますよね。
なのに、脳って、どこも同じような色、形をしてますよね。
じつは、脳のニューロンって、どこも同じなんですよ。
視覚情報も聴覚情報も同じ種類のニューロンで処理してるんですよ。
だから、ある知覚からの入力がなくなると、すぐに、他の知覚処理に乗っ取られるんです。
だから、目隠しをするだけで、視覚処理してた部分で、聴覚処理するようになったんです。

それから、盲目の音楽家っていますよね。
スティービー・ワンダーとか、レイ・チャールズとか、辻井伸行とか。
これ、目が見えないことと、音楽的才能って、偶然じゃないんですよ。
本来なら視覚を処理してる部分で聴覚処理をしてるから、音楽的才能が研ぎ澄まされてるんです。

ニューロンって、何を処理するか決まってるわけじゃないんです。
何を処理するかを決めるのは、入力されるデータです。
目からの情報が入力されれば視覚処理をするし、耳からの情報が入力されれば聴覚処理するわけです。
ということはですよ。
皮膚に視覚情報を入力すれば、皮膚感覚を処理してたニューロンが、視覚情報を処理するようになるかもしれませんよね。
このことを、特殊な装置を作って試してみたそうです。

この装置は、20×20の合計40個の突起を持ってます。
各突起は、電気信号で出たり引っ込んだりします。
そして、カメラからの画像データで突起を動かします。
この装置を、椅子の背もたれに取り付けるんです。
そして、その椅子に、目の見えない人に座ってもらいます。
すると、カメラがとらえた画像を背中で感じることになりますよね。

最初は、ただ、背中にぼこぼこ感じるだけですけど、しばらくすると、縦線と横線、斜め線を区別できるようになるそうです。
さらに訓練すると、コーヒーカップとか、人の顔まで識別できるようになったそうです。
つまり、背中で物を感じるようになったわけです。

次に、三脚で固定してたカメラを、今度は、被験者の頭に取り付けたそうです。
つまり、顔を向けた方向の画像を背中に感じるようになったわけです。
そしたら、飛躍的よく見えるようになったそうです。
顔を向けると見える物が変化するってフィードバックループが生まれて、より、世界をリアルに感じるようになったようです。

次は、これをコンパクトにした装置を作りました。

3㎝×3㎝で、格子状に電極を配置します。
額のカメラからの映像は、この電極に送られます。
そして、今度はそれを舌の上に載せます。
舌は電極からバチバチって電気刺激を感じます。
昔、弾けるキャンディ、ドンパッチってのがありましたけど、たぶん、あんな感じです。

カメラからの映像の画素が、それぞれの電極に対応してます。
そして、明るい画素は、強い刺激で、暗い画素は弱く刺激されます。

最初は、舌の上でバチバチ感じるだけだそうですけど、少し訓練すると、物の輪郭とか、形がわかるようになったそうです。
それが、しばらく訓練すると、物体の距離感や、奥行、動きの方向まで感じるようになったそうです。
家族が目の前を通り過ぎてるとか、机にコーヒーカップがあるって感じるようになったそうです。

これ、どういうことかわかりますか?
つまりね、舌の上でコーヒーカップの形を感じるんじゃなくて、目の前、50cmぐらいのとこにコーヒーカップがあるって感じてるわけです。
これって、もう、見えてるって言ってもいいですよね。

この話、二つの見方ができます。
一つは、目が見えない人でも、見えるようになる方法があるって見方です。
病気を治すとか、医者の視点です。
著者も、どんな方法がよりリアルに見えるかって、いろんな装置を模索しています。
これは重要な視点ですよね。

でも、僕は、医者じゃなくて開発者です。
僕は、人間と同じ心を持ったロボットを作ろうとしています。
その視点からみると、別の点が気になります。
それは、「見える」って感じるって、いったい、どういうこと?
ってことです。
僕は、ここが一番知りたいんですよ。

舌で見ることについて、もう少し考えてみます。
まず、僕らは目で見ますよね。
コーヒーカップを直接感じてるのは目の網膜ですよね。
でも、コーヒーカップが眼球に張り付いてるって思わないですよね。
舌で見るのも、同じです。
舌で見たときも、舌の上にコーヒーカップが張り付いてると思ってないんです。
50cm先に、コーヒーカップがあるって感じるんです。

じゃぁ、どうやったら、そう感じれるんでしょう?
それについては、この本には書いてありません。
こっからは、僕の考えです。

目か舌かは関係ないわけです。
つまり、情報の出どころは関係ないわけです。
ということは、重要なのは情報が処理された、その先にあるわけです。
処理された結果を意識が認識したとき、これは視覚だとか、味覚だとかって感じるわけです。

視覚か味覚かってのは、センサーデータです。
つまり、意識が感じてるのは、センサーデータ、その物じゃないんです。
センサーデータが、意識が感じるべき形に変換されたわけです。

センサーデータって、網膜に映る画像とか舌で感じる電気刺激ですよね。
つまり二次元データです。
それが、意識が感じたときには、50cm先にコーヒーカップがあるって感じたわけです。
こう感じれるってことは、これは、3次元データですよね。
つまり、意識が感じる次元ってのは3次元ってことです。

現実世界は三次元です。
三次元世界は複数の二次元で切り取ることができますよね。
逆に言えば、複数の二次元から、元の3次元を復元することができます。
複数の二次元っていうのは、二つの眼球からの視覚情報だったり、首を振って変化する光景から作ることができます。
おそらく、複数の二次元から三次元を組み立てるプログラムを脳は持ってるわけです。
舌に感じる電気刺激の二次元パターンを、そのプログラムに入れることで、三次元世界が組み立てられるんです。
意識が見てるのは、この三次元世界です。

さて、このチャンネルをいつも見てくれてる方なら、気づいたんじゃないでしょうか。
これって、意識の仮想世界仮説、そのものですよね。
意識の仮想世界仮説っていうのは、僕が提唱する意識モデルです。
人は、目で見た世界を頭の中で仮想世界として構築します。
意識は、その仮想世界を介して現実世界を認識します。
これが、意識の仮想世界仮説です。
そして、この意識モデルを、コンピュータプログラムで実現することで、人間と同じ意識を持ったAIを作ろうとしてるのが、僕のやろうとしてることです。

仮想世界をコンピュータで作るとしたら3DCGになります。
重要なのは、センサーデータを直接感じるんじゃなくて、それを基に構築された三次元世界を感じるってことです。
つまり、意識は仮想的に作り出した世界を感じてるってことです。
そして、自分自身も、その仮想世界の中にいるわけです。
だから、自分の位置と、コーヒーカップの位置を、3次元空間の相対的な位置として感じられるわけです。
つまり、目の前50cm先にコーヒーカップがあるって感じるんです。
決して、網膜や舌の上にあると思わないんです。
これが、意識は仮想世界を介して現実世界を認識してるってことです。
舌で見る装置って、まさに、意識の仮想世界仮説を証明した装置ともいえるんです。

さて、その意識が感じる世界についてもう少し考えてみましょう。
意識が感じるものとは何でしょう?
それは、クオリアです。
クオリアって、主観が感じる物のことです。
たとえば、赤色って、物理で定義すれば、700nmの電磁波となります。
これは物理世界の赤です。
でも、意識は、物理世界を直接感じてなかったですよね。
意識が直接感じるのは仮想世界です。
だから、仮想世界の赤というが、赤のクオリアとなるわけです。

舌でコーヒーカップを見たとしましょう。
舌の表面で感じる電気刺激は物理世界です。
でも、意識が50cm先にコーヒーカップがあると感じたら、そのコーヒーカップはクオリアです。
クオリアがどういうものか、わかってきましたか?

この本には、人間が、本来もってないクオリアを感じさせる装置を作った話もありました。
それは、ズボンのベルトに複数の振動モーターを取り付けた装置です。
そして、モーターは方位磁石と連動してて、常に、北側のモーターが振動するようになってるんです。
だから、体の向きを変えても、常に、北にあるモーターが振動するんです。

このベルトを着けると、最初は、お腹が振動するなぁって感じるだけです。
でも、このベルトを着けて1週間も過ごすと、北がそっちだって感覚が生まれるそうです。
お腹が振動してるって感じじゃなくて、感覚としてこっちが北だなぁって感じるようになるんです。
「北っぽい」っていう、今までなかった感覚を感じるようになるらしいです。
これは、まさに、新たに獲得したクオリアと言えるでしょう。
ただ、この感覚、他の人には伝わらないそうです。
白黒しか感じない色盲の人に、「赤っぽい」の意味を理解させるのが難しいのと同じです。
でも、同じベルトをして、同じ感覚を身に着けた人同士なら、通じるそうです。
「こっちが北っぽいよね」
「うん、かなり北っぽいよなぁ」って。

これが言葉です。
つまり、言葉が通じるって言うのは、同じクオリアを持ってるってことです。
たとえば、上とか下って言葉を理解できるのは、重力を感じるからです。
言い換えたら、重力のクオリアを持ってるから、上とか下って言葉の意味が理解できるわけです。
お互い、同じクオリアを持ってるから言葉が通じるわけです。

つまりね、単に、単語を並べて、それが、たまたま文として成立したからと言って、意味を理解してることにならないんです。
僕が、何が言いたいかわかりますか?

最近話題のAIの話です。
大規模言語モデルを使ったChatGPTとかLaMDAのことです。
これらは、意味を理解してるわけじゃないんですよ。
AIができるのは、文として自然に読めるように、単語を並べることができるってだけです。
だから、検索エンジンの延長として使う分には問題ないと思います。

今までの検索エンジンは、「夏目漱石」と入力したら、それにヒットするサイトを表示してました。
そして、人が、そのサイトを読んで、必要な情報を取り出してたわけです。
それが、今後は、AIがサイトから重要そうな単語を抽出して、文として読めるように並べてくれるわけです。
「漱石は、1867年に生まれて1916年に亡くなった。代表作は~である」とかって。
でも、自然に読める文を生成できたからといって、「生まれる」とか「死ぬ」の意味を理解してるわけじゃないですよ。
まして、AIが、「死ぬのは怖い」とかって感じることはないです。
大規模言語モデルから、意識や心が生まれるなんてことは絶対にありません。
なぜなら、大規模言語モデルはクオリアを持っていませんから。
これだけは覚えておいてください。

はい、今回の動画が面白かったらチャンネル登録、高評価お願いしますね。
それから、今回紹介した意識の仮想世界仮説に興味がありましたら、こちらの本を読んでください。
それでは次回も、おっ楽しみに!