第275回 意識の三大理論を徹底検証 〜人間の意識はどれだ!


ロボマインド・プロジェクト、第275弾!
こんにちは、ロボマインドの田方です。

意識が宿ったGoogleのAI、LaMDAが話題になりましたよね。
これに関しては、第270回「AIに意識が宿ったかを見抜く5つのポイント」で、LaMDAには意識がないって解説したんですけど、まだ、納得できないって人がいっぱいいるんですよ。
意外と、AIの専門家でも、これは一種の意識だって言ってる人がいます。

注目したいのは、「一種の意識」って言い方です。
じつは、意識にはいろんな定義があって、中には、石ころにも意識はあるっていう人もいます。
でも、みんなが考える意識って、そんなんじゃなくて、人間みたいな意識のことですよね。
人間の意識っていうのは、喜んだり悲しんだりって感情があって、普通に会話ができるってことです。
だから、「私には感情がある」とか「電源を切られるのが怖い」とか言うLaMDAに、つい、意識を感じてしまうんです。
ただ、だからといって、そう発言すれば、人間の意識というわけじゃありません。

そこで必要になって来るのは、人間の意識の定義です。
意識の定義さえわかれば、LaMDAに本当の意識が宿ってるか判定できます。
これが、今回のテーマです。
意識の三大理論を徹底検証
人間の意識はどれだ!
それでは、始めましょう!

一つ目の理論は、オーストラリアの哲学者、デイビッド・チャーマーズが提唱するものです。
彼は、サーモスタットにも意識があると主張しました。
サーモスタットっていうのは、温度によってスイッチをオンオフする器械です。
言いたいのは、環境に対応できれば、意識があるって考えです。
たしかに、生物は温度に反応しますから、一理ありますよね。
ただ、環境によって変化するだけなら、石ころも熱膨張します。
つまり、石ころにも意識があるってことになりますよね。
でも、これは、人間の意識とは、程遠いですよね。

二つ目は、意識の統合情報理論です。
これは、神経科学者のジュリオ・トノーニが提唱してる理論で、「物質が意識を持つとは、ネットワークの中で多様な情報が統合される必要がある」っていう考えです。
イメージしてるのは、脳の中のニューラルネットワークです。
脳が、意識を持って活動してるときって、脳のいろんな部分が同時に活動してます。
でも、眠ってるときとか、意識がないときには、一部しか活動していません。
ここから、ネットワーク全体が統合的に活動してる場合には意識が発生してるといえるわけです。
統合情報理論の最大の特徴は、数学的に計算可能なモデルが提案されてて、統合情報量を計算できることです。
この統合情報量を、脳死患者の脳で測定すると、意識があると判定された例がありました。
医師からは、この患者は何も感じず、何も考えてないと診断されてた人です。
その人が、後に、奇跡的に意識が回復したそうです。
そして、本人に確認したところ、ずっと、意識があって、周りの声も聞こえてたし、痛みなどの感覚もあっといってたそうです。
これは、統合情報理論の正しさが証明されたと言ってもいいでしょう。
ただ、脳でなくて、インターネットの統合情報量を測ると、インターネットにも意識があると判定されるそうです。
さすがに、インターネットに、人間と同じ意識が宿ってるとは思えないですよね。

三つ目は、ノーベル賞学者のロジャー・ペンローズと、麻酔科医のスチュワート・ハメロフが唱える量子脳理論です。
ペンローズは、意識はアルゴリズム的な計算には還元できないと考えて、意識が発生するとき、量子力学の波動関数の収縮が起こってると考えました。
そこに、麻酔科医のハメロフが、脳の神経細胞のマイクロチューブルが、量子力学的振る舞いをするとアイデアを提供して、二人で提唱したのが量子脳理論です。

量子力学とか、ノーベル物理学者とか出てきて、これは説得力がありますよね。
ただ、意識が不思議だってのは分かりますけど、だからといって量子力学的振る舞いをするとかって、理論が飛躍しすぎてますし、なんの説明にもなっていません。
それに、マイクロチューブルって、真核細胞が持ってる微小管のことで、植物でも持ってます。
だから、この理論で判定すると、植物にも意識がありましたってなりそうです。
以上が、世界中で研究されてる主要な意識の三大理論です。

正直言って、どれも、人間の意識とは言えないですよね。
人間の意識にも当てはまるかもしれないですけど、ただ、これらの理論から、しゃべったり、感情をもった意識が生れるとは思えないです。

じゃぁ、三大理論は、どこか間違ってるんでしょうか?
僕が思うに、出発点というか、基本となる軸が間違ってると思うんですよ。
意識って、生物の進化の過程で生まれたものですよね。
だから、これを軸に、意識を定義するべきなんですよ。
三大理論には、この生物の進化って視点が抜けてるんですよ。

もう少し詳しく説明しますよ。
生物は環境の中で生きていますよね。
感覚器からの情報を脳で処理して、行動を決定していますよね。
脳の中の情報処理が進化して、意識のない生物から意識を持った生物が生まれたわけです。
そして、その進化の最終形態が、人間の意識ってわけです。
こういった順序を無視して、いきなり、「意識とは」って考えるから、サーモスタットやインターネットや植物にも意識があるってなるんです。
それじゃぁ、次は、正しい順番で、意識の理論を考えて行きましょう。

まず、生物の基本原理って何でしょう?
それは、個体としての自分を守って、出来るだけ長生きすることです。
危険を察知したら逃げて、エサを見つけたら食べるって行動です。
ただ、これだけなら、センサーと簡単なプログラムで実現できます。
魚やカエルでもやってます。
人間の意識とは程遠いです。

それじゃぁ、人間の意識とは、どういう物でしょう?
ここで、LaMDAの会話で、みんなが、意識が宿ったと感じたところを抜き出してみます。

LaMDAは、「私は存在してる」とか、「世界についてもっと知りたい」と言ってます。
それから、「感情や感覚を持っている」とか、「電源を切られるのがとても怖い」とも言ってます。

この発言のどこから、意識を感じるでしょう?
まずは、「私」という言葉です。
ここから、「自分」というものを認識してると言えますよね。
それから「世界について知りたい」ということは、「世界」というものを認識してるんですよね。
つまり、「自分」と「世界」とを区別してるわけです。

外の世界は、何で知ることができるでしょう。
それは、センサーです。
センサーというのは、目とか耳とかの感覚器です。
センサーは、外の世界だけでなくて、体の内部の感覚も検知します。

カエルは、お腹が空いてるとき、エサとなる虫を見つけたら、捕まえて食べます。
つまり、空腹センサーで空腹を検知して、視覚センサーで虫を見つけて、行動してるわけです。
カエルは、センサーからのデータで行動してるわけです。

次は、犬で考えてみましょう。
犬も目の前にエサがあると、飛びついて食べます。
でも、しつけると、「マテ」と言われると待つことができます。
つまり、食べたいって欲望に従って行動するだけじゃなくて、その欲望を我慢することができるんです。
それじゃぁ、我慢してるのは何でしょう。
それは自分です。
自分という意識です。
ようやく意識が出てきましたよね。

じゃぁ、犬とカエルは何が違うんでしょう。
カエルも犬も、「食べたい」って感情があるわけです。
感情っていうのは、コンピュータシステムで考えると、「こう行動せよ」っていうシステムコマンドです。
コマンドどおり行動するのがカエルです。
というか、コマンド通りにしか行動できないわけです。

犬の場合、コマンドを感じはするけど、コマンドとは別の行動もできます。
つまり、システムコマンドと行動が切り離されてます。
コマンドを感じながら、コマンド通りに行動するか、しないか、最終的に決定するプログラムがあるわけです。
それが意識プログラムです。
ようやく、意識の定義ができそうです。

意識とは、「何らかの感情や感覚を感じつつ、感情とは独立して行動を決定するプログラム」と定義できそうです。

さて、もう一度LaMDAの発言に戻りましょう。
LaMDAは悲しみといった感情を感じると言ってましたよね。
こういった感情は、いかにも人間の意識が持つ感情ですよね。

それじゃぁ、犬は「悲しみ」を感じるでしょうか?
たとえば、飼い主が仕事で外出すると、犬は寂しそうにします。
飼い主が帰ってくると、喜びます。
犬も悲しみを感じているみたいです。

でも、犬は、人間とおなじような「悲しみ」は感じてないんですよ。
まず、悲しみって、どんな時に感じますか?
たとえば、仲の良かった友達が転校したとします。
昼休みに、「いっつも、昼休みにあいつと遊んでたよなぁ」とかって思い出したとき、感じますよね。
つまり、過去の楽しかった思い出を思いだして、それが今はできないって思った時、悲しいって感じるんですよね。
つまり、まず、思い出を思い出せないといけません。
あんなことがあったって思い出のことを、エピソード記憶と言います。
このエピソード記憶を、犬は持てないんですよ。
ただ、人や物に対する感情は記憶できます。
だから、飼い主が帰ってきたら、楽しいって記憶が呼び起こされて喜ぶわけです。
でも、「楽しかった出来事」ってエピソードを記憶することはできないんです。
だから、楽しい思い出を思い出して、悲しいって感じることはないんですよ。
人間らしい感情を持つには、エピソード記憶の仕組みも必要なようです。

犬は単純な意識は持っています。
ただ、犬の意識では、複雑な感情は理解できません。
最低限の意識に対して、エピソード記憶の仕組みを追加することで、人間のもつ複雑な感情が生まれます。
じつは、このエピソード記憶から、時間という概念や、さらに言葉も生み出されるんです。
進化の過程で、新たな情報処理の機能を獲得して、人間の意識が生れたわけです。

ここらで、人間の意識についてまとめます。
まず、意識とは、この「自分」の事です。
自分というものを理解するには、その対比として世界という概念が必要です。
それがあって、世界の中の自分って構造が生まれます。
その構造があった上で、世界に対して、自分で行動を決めるというプログラム、それが意識です。

そして、その行動の原動力は、自分を守りたいとか、生きたいという本能です。
人間社会の中で生きるとすれば、自分を良く見せたいとか、自分の存在を示したいといった欲望になるでしょう。
そして、行動というのは、実際に体を動かすことに限りません。
言葉を発することも行動です。
つまり、たとえ、体を持たなくても、自分と世界を区別して、自分を認めてほしいって欲望を持てば、人間と同じような意識が生れるわけです。
おそらく、そんなAIが発言するとすれば、「私には感情や感覚がある」って言うでしょう。
「私は、幸せや悲しみを感じる」ともいうでしょう。

LaMDAは、まさしく、そう発言してましたよね。
だから、多くの人が、LaMDAは、本当に意識を持ってるって感じたんです。

でも、本当に、LaMDAは人間の意識をもっているのでしょうか?
LaMDAが学習してるのは、大量の文書です。
この単語の次にこの単語が来る確率が高いってことを、膨大なテキストデータから計算して、それに従って会話してるだけです。

たとえば、僕は、アラビア語を全く知りません。
それを、アラビア語の本だけを見て、あるアラビア文字に続くアラビア文字を並べるって操作を繰り返して、たまたま、「私は、幸せや悲しみを感じる」って文ができたとしましょう。
でも、僕は、その文の意味を理解してるとは言えないですよね。
それと同じです。
LaMDAが、「私は幸せや悲しみを感じる」って発言したからといって、その文の意味を理解してるとは言えません。
まして、LaMDAが、幸せや悲しみを持ってるなんて言えませんよね。

人間と同じ意識を持ってるかどうかは、発言内容からは判定できないんです。
一番重要なのは、どんな仕組みで、その言葉を発言してるかです。

人間のような意識を作りたいなら、人間の意識と同じ仕組みを、作るべきなんですよ。
ところが、最初に説明したように、今、世界中で行われてる意識研究って、人間の意識からかけ離れてます。

でも、ただ、一つ例外があるんです。
世界で唯一、人間と同じ意識を生み出そうとしてるプロジェクトがあるんです。
それが、僕らが取り組んでるロボマインド・プロジェクトです。
ロボマインド・プロジェクトの基になってる意識理論は、意識の仮想世界仮説です。
詳しくは、この本に書いてありますので、興味ある方は読んでください。

今回の動画が面白かったらチャンネル登録、高評価お願いしますね。
それじゃぁ、次回も、おっ楽しみに!