第603回 子どもでもできるのに、AIに絶対にできないこと


ロボマインド・プロジェクト、第603弾!
こんにちは、ロボマインドの田方です。

今、AI業界が最も注目しているのは、いつ、汎用人工知能、AGIが生まれるかです。
AGIとは、人間と同じようになんでもできるAIのことです。
さらにAGIの次は、人間を超えた超知能、ASIです。
これをXのAI、Grokにきくと、「現在の私はAGIのプロトタイプですが、2030年までに90%の額率でAGIに達成します。さらに、その5年以内にASIに移行します」といいます。
さすが、イーロン・マスクの作ったAIです。
すごい自信です。
ちなみに、ソフトバンクの孫さんは、ASIを2030年ごろに実現するそうです。

ただ、こんなことを言っているのはAI業界の人だけで、ほかの専門家はそんなこと思ってもいません。

前回から読んでいる『脳はこうして学ぶ』の著者のスタニスラス・ドゥアンヌも同じです。

彼は、はっきりとこういいます。
「AIが人間を追い抜くという話程、真実から遠い話はない。
大方の脳科学者や認知科学者はそのことを良く知っている。
AIにできるのは、脳がコンマ何秒かで無意識が行っていることだけだ」と。

コンマ何秒でできることって、たとえば、写真を見て、犬や猫と見分けるとかです。
ここまでは、AIも脳もほぼ同じです。

重要なのはその後です。
考えたり、しゃべったりするとこです。
ここがAIにはまだ難しいです。

ただ、最近のLLMは推論モデルといって、人間のように考えることができます。
でも、うまくいかないことも多いんです。
たとえば、GPT5の推論モデルで「子供向けの物語を作って」って言ったら、こんな話を作りました。

あかりは、雨の日、傘をさして学校に行きました。
すると、校門の前で一年生の女の子がぬれて立っています。
「あの・・・かさ、忘れちゃって・・・」
「いっしょに入ろう!」そういって傘に入れて二人で校舎まで歩きました。
校舎に入ると女の子は「ありがとう、私、りこっていうの」とペコリ。
「わたし、あかり。また、明日会おうね」

こんな話です。
一見、普通の話ですけど、よく考えたらちょっと不思議です。
りこは、なぜ、雨の中、校門で立っていたんでしょう?
なぜ、校舎まで歩かなかったんでしょう?
おそらく、AIは困った女の子を登場させたかったんでしょう。
でも、ちょっと考えたら不自然です。
AIは、こんなことも分からないんです。

これが今回のテーマです。
子どもでもできるのに、AIに絶対にできないこと
それでは始めましょう!

今のAIの基本はディープラーニングです。
ディープラーニングは大量のデータから特徴パターンを学習します。

これは前回お見せした、ディープラーニングが学習した特徴パターンです。
ただ、これは、一部を切り出しただけで、特徴パターンは無限にあります。
というか、「特徴パターンはこれとこれです」と取り出せるものじゃないんです。
学習というのはニューラルネットワークの接続の重みを決めることです。
最近のLLMは、接続数が何兆個もあって、ここからここまでで何を学習したかなんて分かりません。
つまり、何を学習したのか外からは分からないんです。

これの何が問題かというと、せっかく学習しても応用が効きません。
たとえば、アルファ碁は囲碁の世界チャンピオンに勝ちましたけど、できるのは囲碁だけで、他には応用できません。
将棋に応用できないといったレベルじゃなくて、マス目が19から15になっただけで、もう使えないんです。

このように何かに特化した人工知能のことを特化型人工知能と言います。
一方、人間は、一つ学習すると、それを応用していろんなことができますよね。
これが汎用人工知能の目標です。

他に応用できるとは、一般化、または抽象化とも言えます。
つまり、AIは抽象化ができないんです。
じゃぁ、抽象化とはどういうことでしょう?

数学者でもあるドゥアンヌは、無限の概念を知ったときのことを今でもはっきりと覚えているそうです。

全ての数には、その次があります。
これ、数全体から考えたら、最大の数は存在しないといえます。
つまり、数は無限にあると。
5,6歳の時、このことに気付いたドゥアンヌは「はっ」となったそうです。
なにかとても大事なことに気付いて感動したわけです。

ある数nが存在すれば、n+1が存在します。
このぐらいのことは、プログラムでも書けます。
でも、コンピュータはそこから無限の概念に気付いて、「はっ」とすることはありません。

僕は、数学にそれほどこだわりがないので、無限を思いついた日のことは覚えていませんけど、近い経験はあります。
小学校2年の時、担任の先生がお土産といって万華鏡を教室に置いていったんですよ。
休み時間に女子とか、「わぁ、きれい」とか言って見ていました。
僕も見てみたんですけど、三角形の中を、ゴミみたいなのが動くのが見えるだけで、何が面白いのかさっぱりわからなかったです。

半年ぐらいたって、もう一回、見てみたんです。
そしたら、全然違いました。
https://www.youtube.com/watch?v=WfePzqdbHaI
(万華鏡の動画 音無しで、早回しで)

三角の鏡に反射して、中のビーズが六角形の模様を作って、それが無限に広がっています。
回転させると、その模様が、カシャ、カシャって一斉に動きます。
「わぁ、きれい」って思いました。

さて、わからないのは、じゃぁ、半年前、僕は何を見ていたんでしょう?
ビーズが動く様子とか、それが鏡に反射する様子とか、同じものを見ていたはずです。
ただ、見ていたのは、目に見える部分だけです。
半年後、それを全体として捉えたんです。
捉え方のレベルが、部分から全体に変わったんです。
これが、抽象化です。

nの次はn+1とか、ビーズが動くとか、鏡に反射するとか、これは低レベルで捉えた一部です。
それを数全体とか、無限に広がる模様とか、全体の視点でとらえなおすこと。
これは、高レベルで捉えることです。
これが抽象化です。

別の例を挙げます。
自閉症の子、特有の現象にクレーン現象というのがあります。
たとえば、ジュースが飲みたいとき、お母さんの手を取ってコップまで持っていったりします。
こうやって、ジュースを飲みたいとお母さんに伝えるわけです。

そんなの、コップを指させばいいと思いますけど、自閉症の子は指さしができません。
指さしというのは、指をさした延長線にある対象を示すことですよね。
自閉症の子は、この延長線が理解できないんです。
なぜかというと、空中に具体的に線があるわけじゃないからです。
理解できるものは目に見えるものだけです。
だから、お母さんの手を取ってコップのところまで持っていくわけです。

それから、自閉症の子は時間の概念を理解するのも難しいといいます。
「10分ほど、ここで待っていて」といっても、お母さんが見えなくなるとパニックになったりします。
時間は目に見えないから、どのくらいかが理解できないわけです。
そこで、こんなタイマーを使います。

このタイマーは、残り時間が赤で示されます。
赤の面積が残り時間です。
こんな風に目に見えない抽象的な概念を、目に見える具体的な形で示すことで理解できるようになります。
でも、僕らは、時間とか指さしの延長線とか、具体的に見えなくても、頭の中で補って理解できますよね。
これが抽象化能力です。

そして、これこそが人間特有の能力です。
これは動物にもできません。

たとえば、人は、「ピー・ピー・ピー・ブー」という音を聞くと、それをひとまとまりの抽象的なパターンとして捉えます。
つまり、同じ音が三回鳴って、4回目は別の音が一回というひとまとまりのパターンで捉えます。
でも、同じ音をサルに聞かせてもそうは感じません。
4回音が聞こえたこと、最後の音が違う音ということは感知しますけど、まとまりとしては認識しません。
これなど、僕が最初に見た万華鏡と同じです。
目に見えるとか、実際に聞こえるといった具体的な部分しが認識できないわけです。

つぎは、人とAIの違いについて、深掘りして考えてみます。
人は、抽象概念をひとまとまりのパターンとして認識しましたよね。

でも、AIもニューラルネットワークが特徴パターンを学習します。
だから、写真を見て「これは犬」、「これは猫」って判断できるんです。
アルファ碁も、盤面とか定石とかのパターンを学習しています。

でも、AIの場合、学習したパターンを応用できません。
ネットワークのどこに学習した特徴パターンがあるのかわからないからです。
でも、人は簡単に応用ができます。
じゃぁ、人とAI、いったい、何が違うんでしょう?

ドゥアンヌは、数は無限だということに気づいて、「はっ」と感動しました。
僕は、万華鏡で全体が一斉に動く様子をみて、「わぁ、きれい」と感動しました。

じゃぁ、それに気づいて感動したのは何でしょう?
それは意識です。

つまり、抽象概念に気付いて、「あっ」と感じる意識があること。
これが脳とAIの決定的な違いといえそうです。

さらに深堀りします。
ニューラルネットワークはどこで学習したか、外からはわからなかったですよね。
外から分からないけど、もしかしたら内側なら分かるかもしれません。
そして、意識も、ニューラルネットワークの内側にあります。

意識は脳のニューラルネットワークの中に作られた一種のプログラムです。
同じネットワークの中にあるなら、学習したものを認識できてもおかしくありません。

ニューラルネットワークによる学習は、外部環境を知覚して、その情報を積み上げて処理していくのでボトムアップです。
一方、意識は、ネットワークの中にあるものを上から認識するのでトップダウンです。

つまり、AIが行うのはボトムアップの学習です。
一方、人の意識は、トップダウンで認識します。

少しずつ整理されてきました。
ただ、これだけじゃ、まだ説明できないことがあります。

AIや動物が学習できるのは知覚した部分からなるパターンです。

一方、無限の概念や、万華鏡の美しさ、音のまとまりは全体です。
でも、部分をつなげても部分です。
全体にはなりません。
全体を認識するには、一つ上のレベルで認識する必要があります。
この全体を認識するというのが抽象概念の認識です。
その他、時間とか指さしの延長とか、目に見えないけど心の中で感じるものが抽象概念です。

ここまではなんとなくわかります。
分からないのは、なぜ、人間だけ、抽象概念を理解できるんでしょう?
今日の核心はここです。

ここで、一つ衝撃的な仮説を提唱します。
それは、「抽象概念というのは、学習できない」です。
言い換えたら、抽象概念は生まれつきもっているか、もっていないかです。
抽象概念は遺伝子に刻まれていて、生まれたときから脳内に存在するか、しないかです。

逆に言えば、生まれつき持っていなければ、いくら学習しても抽象概念は獲得できません。
チンパンジーに言葉を教えた実験はいっぱいありますけど、決して人間のようにしゃべれるようになりませんでした。
それは、言葉を理解する遺伝子を持っていないからです。

努力すれば、必ず夢が叶うわけじゃありません。
残酷ですけど、真実です。
このことは、誰もが経験したことがあるはずです。

逆に、生まれつきもっていても、使われない能力もあるはずです。
というか、その機会に恵まれなければ、そんな能力に気付くことなく人生を終えます。
じゃぁ、その能力に気付いた時、どうなるんでしょう?

ドゥアンヌが初めて無限に気付いた時、僕が、初めて万華鏡の美しさに気付いたとき、どう感じました?
「はっ」ってなって、感動しましたよね。
この「はっ」は、初めて抽象概念にアクセスした驚きなんです。
今まで感じていた低レベルとはちがう、高レベルの認識につながった喜びです。

この本には、さらに興味深い話が出てきます。
サルは順番を逆にすることができないそうです。
たとえばABCDという順番があって、それをDCBAと逆順にすることができないそうです。
逆順を覚えさせるには、何万回と試行しないといけないそうです。
でも、同じことを、4歳の子どもなら5回の試行でできます。

同じような話、認知学者の今井むつみ先生もおっしゃっていました。
第372回で紹介しましたけど、チンパンジーと生後8か月の赤ちゃんに、動物がボールに変身する動画を見せます。

犬がボールに変身すると、そのボールは直線的にジグザグに動きます。
ドラゴンがボールに変身すると、そのボールは曲線的ににょろにょろと動きます。
まずは、これを覚えさせます。

これはチンパンジーも赤ちゃんも、すぐに覚えました。
次は、今の逆の動画を見せます。

つまり、ギザギザに動くボールと、にょろにょろ動くボールです。
さて、ボールは犬とドラゴン、どちらに変身するでしょう。

さっきの逆となるだけなので、簡単ですよね。
赤ちゃんはすぐにわかりました。
ところが、チンパンジーは、いくらやってもこれがわからないんですよ。
どうも、逆順というが概念を持っていないようなんです。

つまり、チンパンジーは順番は理解できても、逆順は理解できないわけです。
順番は、実際に見たままの光景です。
逆順は、それをバラして、入れ替えます。
それは、実際には存在しない光景です。
目に見えなくて、心の中にしかありません。

つまり、逆順というのも、一種の抽象概念です。
だからチンパンジーには理解できないんです。
何万回も試行したらできるようになったっていいましたけど、それは高レベルの抽象概念を学習したんじゃありません。
低レベルの具体を何万個と丸暗記しただけです。
人間の赤ちゃんは、4~5回の試行でできるようになるということは、逆順という抽象概念は生まれつきもっているというわけです。

まとめます。
抽象概念は、学習できません。
生まれつき持っているか、持っていないかだけです。
学習できるのは、現実世界にある無数の具体から統計的に抽出したパターンだけです。
大量のデータを統計処理するのは無意識です。
この処理はボトムアップです。

脳内には生まれつき抽象概念があります。
そして、学習したパターンを抽象概念に当てはめることが抽象概念の理解です。
それをするのが意識です。
当てはめはトップダウンです。

意識は、抽象概念をいろんなパターンに当てはめることができます。
これが応用です。
これが人間しか持ちえない汎用的な知能です。

このことから、今の人工知能が汎用人工知能にならないことが見えてきました。
なぜなら、今のAIは、ボトムアップの機械学習しかないからです。
学習したパターンは、学習したものにしか使えないので特化型人工知能にしかなりません。

汎用人工知能を作るには、学習したパターンをトップダウンで、いろんなものにあてはめる抽象概念が必要です。
抽象概念は学習できないので、生まれる前から持たせる必要があります。
これらがそろって、汎用人工知能になるんです。

最後に、最も重要な抽象概念を紹介します。
それは、因果関係です。

子どもは、あるとき、あらゆる物事には原因があることに気づきます。
それに気付くと、なんでも知りたがります。
「なぜ、雨が降るの」
「なぜ、お腹がすくの」
これが「なぜなぜ期」です。
これは好奇心とも言えます。
人は、好奇心に駆られて行動します。

行動の原動力は感情です。
その意味では、好奇心も一種の感情と言えます。

不快を避けて、快を求めるのが感情の基本です。
これは本能とも言えます。
生きたい、死にたくないというのが本能の基本です。
だから、生物は危険を避けて、安心できるとこにいたいと思います。

ただ、そうなると、その生物は安全な一か所にとどまります。
でも環境が変化すると、そこが安全でなくなることはよくあります。
そうなると、その生物は絶滅してしまいます。

そうならないためには、多少の危険を冒しても、新天地を開拓しなければなりません。
そのために生み出された感情が好奇心なのかもしれません。

感情を感じるのが意識です。
意識は、感情を感じて、行動に駆り立てられます。
そして感情の大元は、生きたい、死にたくないという本能です。

それじゃぁ、これを踏まえて、冒頭のChatGPTが作った物語を解析してみましょう。

一年生の女の子は、雨の中、校門の前でぬれて立っていましたよね。
理由もないのに、そんなことするのはおかしいと思いますよね。

ChatGPTはテキストデータから学習しただけだから、こんなおかしな物語を作り出したんでしょう。
ChatGPTをロボットに搭載して、現実世界から学習させれば、この物語のおかしさに気づくでしょう。

僕も、はじめ、そう思っていました。
でも、そうじゃないんです。

現実世界を経験しても、学習できるのは具体的なパターンだけです。
目に見えない抽象概念は理解できません。
目に見えない抽象概念の一つが感情です。
感情の基本は、不快を避けて、快を求めるという本能です。

雨の中立っているのは不快ですよね。
それが不快と感じるのは、風邪をひいて、下手したら死ぬかもしれないという警告だからです。
これは、生物が当たり前にもっている機能です。
それがあって、初めて、理由もなく雨の中に立っているのが不自然だとわかるんです。

小学生でわかる簡単な物語でも、これだけの機能が必要なんです。
今のAIは、環境からパターンを学習することしかできていません。
汎用人工知能を作るには、生物が持つ本能と、生まれつき持つ抽象概念と、それらを感じ取って、学習したパターンに適用する意識が必要です。
これがない限り、汎用人工知能は生まれません。
ただ、どれも技術的には可能です。
つまり、2030年までに汎用人工知能を作ることも可能なんです。
だれか、この動画をイーロン・マスクと孫さんに教えてあげてください。


はい、今回はここまでです。
この動画が面白かったら、チャンネル登録、高評価お願いしますね。
それから、よかったらこちらの本も読んでください。
それじゃぁ、次回も、おっ楽しみに!