第379回 ChatGPTに決定的に欠けてるものとは


前回は、脳性麻痺とかでほとんど動けなくて、言葉も理解できないと思われていた障害者が、じつは言葉を理解してたった話をしました。
ワープロソフトとかを工夫して、文字を打てる環境をつくると、意味のある文を書き出しました。
そうやって、10歳になって初めて語った文章が、「お母さんありがとう」だったそうです。
いやぁ、感動しますよね。

この話で恐ろしいのは、もしかしたら、全国の障害者施設には、こんな人がまだまだ大勢いるかもしれないってことです。
紹介した子も、医者も両親も、まさか、言葉を理解してるとは思ってなかったそうです。
それを、何とか言葉を引き出したことで、初めて、その子が言葉を理解してたって分かったんです。
最近は、BMIといって、脳に直接電極を埋め込んでキーボードを操作する技術もできてきました。
これで、近い将来、同じような人をもっと救い出せるようになるかもしれません。

さて、これと対比して紹介したのが、ヘレン・ケラーです。
ヘレン・ケラーは、最初、言葉がしゃべれませんでした。
さっきと何が違うかというと、ヘレンは体は自由に動かせたんです。
ただ、目が見えず、耳が聞こえないために脳に言葉が入ってきていなかったんです。
だから、言葉を理解できていなかったんです。

この二つの事例から、言葉を理解するのに重要なのは、言いたいことを表現する出力よりも、脳への言葉の入力が大事だってわかってきました。

ここ最近、紹介してるのが自閉症の作家の東田直樹さんです。
東田さんは、文字盤ポインティングを使って会話できるようになりました。

これ、実際に使ってる動画もあります。

ここまでは、以前も紹介したんですけど、今回、東田さんの本『自閉症の僕が跳びはねる理由2』に、このとき、頭の中で何が起こってるのか詳細に説明していました。

これを読むと、頭の中で、いかにして言葉が生み出されるのか、言葉の基になる思考は、どのように頭の中で管理されてるのか。
それがわかると、もっと大事なことが見えてきました。
それは、ChatGPTIに決定的に欠けてることです。
それがないから、ChatGPTは、いつまでたっても言葉の意味がい理解できないんです。
これが、今回のテーマです。
ChatGPTに決定的に欠けてるものとは
それでは、始めましょう!

この本に、「文字盤を見ているときには何を考えていますか?」という質問があって、それに対して東田さんが、ものすごく詳しく答えてるんですよ。
まずは、そのまま読みます。

(1)言いたい言葉を思い出すために、文字盤やパソコンのキーボードを見る。
(2)気になる文字が目に留まる(例えば「K」)。
Kが見つかると、頭の中にKA・KI・KU・KE・KOが現れる。
(3)その中から、最初の文字が見つかる。それが、KAなら「K」「A」と文字盤のアルファベットを指でさす。すると、かさ・かき・かく・かわいいなどKAで始まる単語が、頭の中に浮かんでくる。
(4)この中から、言いたかった単語の「書く」が見つかる。

こんな感じだそうです。
かなり複雑ですよねぇ。
それでは、さっそく、読み解いていきますよ。
言いたい言葉は「書く」です。
でも、それがすぐに出てこないわけです。
ところが、文字盤をみてると「K」の文字が気になるそうです。
まず、この感覚がよくわかりません。

これに対して東田さんは、別の例を挙げて説明しています。
たとえば「忘れ物してるよ」と言われたとします。
それだけじゃ、何を忘れてるのか思い出せなくても、「最初に『さ』がつくものよ」ってヒントを言われたとします。すると、
さ、さ、さ・・・、あっ、「さいふ」だって。
こんな風に思い出すことってありますよね。
これと同じだそうです。
そういわれると、何となく、分かりますよね。

最初、何を忘れたかは分からなかったわけです。
でも、「さいふ」と言われたら、「あっ、そうだ」ってわかるわけです。
つまり、財布を忘れた状況が、今の状況に当てはまるってことが理解できるわけです。

ここから、意識は、状況に当てはまるか、当てはまらないかを認識する機能があるって言えそうですよね。
もっといえば、ある状況を想像して、その一部を変更したり入れ替えたりできる仕組みがあるわけです。
そして、ピタっとはまり込むピースを見つけたら、これだって分かる機能もあるわけです。
「あっ、財布だ」ってわかるのは、こう言った仕組みがあるからといえます。

言葉の場合も同じです。
東田さんは、「書く」って言葉を思い出せなかったわけですよね。
でも、「書く」って言葉を見つけたら、「これだ」ってわかるわけです。
たとえば「字を書きたい」って言いたいと思ったとしましょ。
このとき「書く」って言葉が出てきません。
でも、字を書きたいって状況は想像できてるわけです。

それでは、最初から読み解いていきます。
まず、文字盤を見ると「K」の文字が目に留まりましたよね。
意識では「書く」って言葉が思い出せないですけど、どうも、無意識はそれを知ってるようです。
だから、「K」が目に留まったんでしょう。

ここ、もう少し詳しく考えてみます。
僕の考えでは、意識は、世界をオブジェクトとして認識します。
オブジェクトというのは、オブジェクト指向言語プログラムのオブジェクトのことで、色とか形ってプロパティを持っています。
たとえば、リンゴオブジェクトなら赤いって色プロパティや、丸いって形プロパティを持っています。
だから、リンゴを思い浮かべたら、赤いとか丸いって、すっと思うわけです。
でも、赤くて丸いものといわれても、パッと思い浮かべれないです。
だって、そんなもの無限にありますから。
でも、「リンゴ」といわれたら、あぁ、赤くて丸いって分かりますよね。
これは、リンゴオブジェクトは赤をもってるけど、赤はリンゴを持ってるわけじゃないと言えます。
これを図で表すと、リンゴから赤には矢印が向いてるけど、赤からリンゴには矢印がないとも言えます。
🍎――→赤
🍎←×―赤

これは、コンピュータプログラムでは、参照という形で実現できます。
リンゴから赤ってデータを見つけることができるけど、赤からリンゴってデータを見つけることはできないってことです。

さて、今、東田さんは「書く」という状況を頭に思い描いてるわけです。
ただ、「書く」という言葉が出てきません。
これは、思い描いてる状況から「書く」という言葉への矢印がないわけです。
プログラムなら参照がないわけです。

コンピュータプログラムというのはデジタルです。
0か1の世界です。
だから、参照がなければ全くないわけです。
でも、今、東田さんは、「K」が気に留まったわけですよね。
僕らも、思い出せないけど、あとちょっとで思い出せそうとか、直観で、なんか気になるなぁって思うことありますよね。
たぶん、脳って、デジタルコンピュータとはちょっと違うんですよ。
神経細胞ってオンオフのデジタル回路に近いですけど、完全な01じゃなくて、0と1の境目は、わずかに信号が流れるんです。
もうちょっとで思い出せるってときが、これなんですよ。
東田さんの場合、「書く」って状況と、「書く」って言葉は完全に切り離されてました。
ただ、音がカ行だってとこがかすかにつながってたんでしょう。
おそらく、単語の最初の音って、最後まで記憶に残るようになってるのかもしれません。
だから、「さ」で始まるものといわれたら、「財布だ!」って思い出せるんです。
それで、最初のとっかかりとなるものが何かを調べるために文字盤を見るわけです。

そして、「K」が気になると、頭の中にKA・KI・KU・KE・KOが現れるっていってましたよね。
脳は関連するものが神経細胞でつながってます。
だからそのつながりを辿ると、KからKA・KI・KU・KE・KOが現れたわけです。
そして、次は「か」には、かさ・かき・かく・かわいいがつながってるわけです。
それを今の状況に順に当てはめて行くと、「かく」のとこで、「これや」ってなるわけです。
東田さんが、文字盤を指差してるとき、頭の中でこんなことが起こってるんです。

いやぁ、大変やなぁって思いますよね。
でも、これって、僕らもやってることやと思うんですよ。
ただ、僕らは無意識でやってるんです。
無意識の処理が、文字から単語を引っ張り出して、当てはめてるんです。
そして、無意識が「これや」って判定したものだけ意識が受け取ってるんです。
だから、僕らはすっと思い出せるんです。
僕らが無意識で簡単にできることが、自閉症の人にとったら、意識的で処理しないといけないから大変なんです。

でも、その逆に、僕らには難しいのに自閉症の人なら簡単にできることもあります。
自閉症の人で、特殊な能力を持つ人をサヴァン症候群っていいます。
有名なのが、日付を言うだけで曜日を言い当てるカレンダーサヴァンです。
これ、頭の中で複雑な計算をしてるはずなんですけど、本人は、なんでわかるか分からないんです。
パッと、曜日が思い浮かぶそうです。
たぶん、カレンダーサヴァンにとったら、僕らが、なんで、日付から曜日がわからないのか不思議なんやと思います。

第96回で、普通の人が頭の中で曜日を計算する訓練をしたところ、ある日、突然、できるようになったって話をしました。
でも、本人は、どうやって計算したのは分からないそうです。
たぶん、無意識で計算できるようになったんでしょう。
自閉症の人とそうでない人では、どうも無意識でできる処理の内容が異なるようです。

さて、もう少し考察を勧めます。
今度は、東田さんと僕らの共通部分に注目してみます。
それは、うまくしゃべれなくても言葉の意味は理解してるってとこです。
でも、これ、ヘレン・ケラーは、最初、できてなかったですよね。
このことから、言葉の意味を理解するには入力データが重要だと言えるわけです。

つまり、言葉を理解するには、とにかく、しゃべりかけるとか、脳に文を入力することが重要なんです。
この機能を解明していきます。

東田さんは、言葉がうまく出なくても何を言いたいかは理解してましたよね。
それは、財布を忘れるとか、字を書くとかって状況です。
それは、言い換えたら、頭の中に組み立てた世界です。
そして、その世界は、オブジェクトという部品で組み立てられています。
そういう形で世界を認識することが、人間の脳に本来備わった機能と言えそうです。

おそらく、しゃべりかけたり、絵本を読んだりして文を入力すると、オブジェクトで世界を認識する機能が活性化するんでしょう。
たとえば、絵本の象を指して「これが象さんよ」っていうことで、頭の中に象さんオブジェクトを生成して、そこに「ぞうさん」って名前を当てはめるんです。
「昨日、動物園に象さんいたよね」って話しかけることで、動物園で象さんを見たときの状況を思い浮かべるんです。
状況を思い浮かべるってことは、動物園って場面に、象さんオブジェクトを組み合わせて世界を想像することです。
そして、それが昨日の出来事と重なるわけです。
これが思い出すってことです。
じつは、こんな風に状況として思い出すことって、人間にしかできないことなんです。
これをエピソード記憶とか物語記憶といいます。

こうやってしゃべりかけたり、絵本を読むことで、頭の中にオブジェクトで世界を組み立てることができるようになるんです。
これが言葉を理解するってことです。

もうちょっと考えます。
文というのは複雑な構造をしていますよね。
主語とか目的語とか、時制とか、受け身とか、いろいろ複雑です。
そんな複雑な文を理解するとは、それに対応する複雑な世界を構築できるってことです。
一字変わっただけで、過去になったり、受け身になったりすんです。
頭の中に、それに対応する世界を正確に作れるから、一字変わっただけで、頭の中の世界が変化するんです。
何度も文を入力することで、微妙な違いを学習していくわけです。
こうやって、人は、言葉を理解できるようになるんです。

逆に言えば、複雑な世界を想像できる脳を持っていない限り、いくら話しかけても、言葉をしゃべれるようになりません。
世界中で、チンパンジーに言葉を教える実験が行われてきました。
でも、「昨日、動物園で象を見た」といった文を理解できるようになったチンパンジーはいません。
できるのは、「リンゴを取って」といってリンゴを取ってくるぐらいです。
つまり、今、目の前にある状況の理解までです。
過去の状況とか、目の前にない世界を想像することはできないんです。
これが、人間のみが持つ機能といえます。
これが、言葉の意味理解に絶対不可欠な要素なんです。

僕が何を言いたいかわかりますか?
これは、チンパンジーの脳の話をしたいわけじゃないですよ。
僕が言いたいのは、今のAIのことです。
ChatGPTとかの大規模言語モデルは、会話ができるようになりました。
でも、それでできてるのは、ある単語がきたら、次に出てくる単語を高精度に予測することだけです。
言葉の意味を理解してないんです。

じゃぁ、言葉の意味を理解するってどういういことでしょう?
それは、今回の話からわかりますよね。
それは、頭の中に世界とか状況を思い浮かべることです。
オブジェクトを使って世界を組み立てることです。

じゃぁ、ChatGPTは、どうすれば言葉の意味を理解できるようになるでしょう?
それは、次の単語を予測するんじゃなくて、世界とか状況を再現できるように学習させるんです。
AIが次に進むべきヒントはここにあります。
詳しくは、第344回「次世代AIの提言」の動画を見てください。
はい、今回はここまでです。
面白かったらチャンネル登録、高評価お願いしますね。
それから、よかったらこちらの本も読んでください。
それじゃぁ、次回も、おっ楽しみに!