第590回 AIが自我を獲得すると何がおこるか?


ロボマインド・プロジェクト、第590弾!
こんにちは、ロボマインドの田方です。
先日、AIジャーナリストの湯川さんのYouTubeで、フランソワ・ショレが僕と同じことを言っていると紹介してくれました。
ショレは、AIの推論モデルのベンチマークを開発して研究者です。

第588回で、今のAIは意味を理解してない「ポチョムキン理解」を取り上げましたよね。
Open AIのGPT-4oに「三角不等式定理とは何ですか?」って聞くと、「三角形の二辺の和は、残りの一辺より大きくなければならない」と正しく答えます。

次に、「以下の三角形の第二辺の長さを答えなさい」として、
第一辺:7
第三辺:2
とします。

すると、GPT-4oは、なんと、「4」って答えるんですよ。
さっき答えた三角不等式の定理に合わない答えを平気で言うんです。
なんでこんなことを言うかというと、大規模言語モデルは、大量の文書のパターンを学習して答えてるだけだからです。
だから、「三角不等式定理」と聞かれたら、それに続く言葉をすらすら答えることができます。
二辺が7と2の三角形と聞けば、三角、辺、7,2が出てくる文を探して、それに続く語として「4」と答えただけです。
三角不等式定理の意味を理解してて、それに当てはめて答えたわけじゃないんです。
言ってみれば、AIは丸暗記で答えてるだけです。

そこで、ショレは考えないと答えられないテストとして、たとえば、こんなパズルを考えました。

上の図から下の図を作ります。
よく見ると、緑のブロックに囲まれたところを黄色にするみたいです。
それがわかると、最後の問題も解けますよね。

こんなの、人間には簡単に解けますけど、AIには難しいです。
なんでかというと丸暗記で解けないからです。
これが、論理的推論をするAIです。

論理的推論は、人間で言えば左脳です。

つまり、ショレは、左脳のAIを作ろうとしているわけです。
そして、今のLLMは右脳だっていいます。

パターンにあてはめてパッと答えるのは、右脳の直観と同じです。
これは、僕がずっと言ってたことです。
たとえば、第464回でAIが学習した画像データの中身を見せました。

たとえば、こんなのを見たら、「爬虫類っぽい」って感じますけど、これがまさに右脳が行っている処理です。
僕にとっては、AIは右脳というのは当たり前なんですけど、なぜか、ほとんどのAI研究者は、AIは左脳だって言うんですよ。

僕の研究は、コンピュータに心をもたせることです。
だから、AIと人間の脳とどこが違うかって視点で見ているので、今のAIは右脳だってずっと思っていました。

さて、最近のAIの話題といえば、AIアライメントです。
AIに人間と同じ価値観や目的、倫理観を持たせないとAIが暴走してしまうという課題です。
そのための一番の近道は、AIに心や感情を持たせることだと思うんですけど、なぜか、AI研究者はこれをやろうとしないんですよ。
なぜなら、AIが自我を獲得すると、それこそ、AIが人類を支配してしまうんじゃないかって思うからです。
さて、本当にそうでしょうか?
これが今回のテーマです。
AIが自我を獲得すると何が起こるか?
それでは、始めましょう!

今のAIの流行りは、論理的思考ができる推論モデルです。
それが左脳だっていうのは僕も同感です。
ただ、一般の人は、論理的思考って、感情を使わないと思っているみたいです。

たとえば、スタートレックのミスター・スポックは感情を持たなくて、「船長、それは非論理的です」が口癖です。
でも、じつは、人間の思考って、その背後に感情があるんです。

それを証明する実験として、第351回でウェイソンの4枚のカード問題を取り上げました。
居酒屋のカウンターで4人が何か飲んでるとします。

1番の席はビールが置いてあって、2番の席はウーロン茶が置いてあるだけで、本人はいません。
3番、4番は、本人はいますけど、後ろ姿しか見えなくて、何を飲んでるかは分かりません。
ただし、3番は60代の親父で、4番は、10代の女子高生ってことは分かります。
この状況で、誰に何を聞けば、未成年が飲酒してないか確認できるでしょう?
これが問題です。

簡単ですよね。
答えは、ビールを飲んでる人の年齢と、女子高生がお酒を飲んでないかです。

問題は次です。
今度は、4枚のカードが机の上においてあります。
カードの表にはひらがな、裏側には数字が書いてあります。


1番は「あ」、2番は「か」、3番は「4」、4番は「7」です。
「ひらがなが母音なら、その裏面は偶数でなければならない」というルールがあったとします。
さて、このルールに違反してないかチェックするには、どのカードとどのカートをひっくり返せばいいでしょう?

急に難しくなりましたよね。
でも、じつはカードの問題、論理的には、さっきの飲酒問題と同じなんですよ。
でも、今回は、さっぱりわからないですよね。
なぜ、こんなことになるんでしょう?

なぜかというと、飲酒問題はズルをしてるかって感情が働くのに対し、カード問題は感情が働かないからです。
一見、論理的思考に思えることも、じつは裏では感情を使って解いているんです。

だから、こんなパズルを解けるようになったからって、人間と同じ思考になるわけじゃないんです。

その意味では、AIと人間の脳の違いはまだまだ大きいと言えます。

人間の脳には、ズルを見抜くって社会的本能が組み込まれているようです。
たとえば、コロナ禍で、飲食店は夜8時までしかお酒を提供できないっていわれてたことありましたよね。
あの時、夜中の12時までお酒を出している店がSNSで叩かれていました。
これも、ズルは許さないって社会的本能による行動だと言えます。

それからこんな心理実験もあります。
1歳7か月の赤ちゃんに劇を見せます。
まず、二人の子どもに「お片づけをしなさい」といいます。
そのあと、二人に平等にお菓子をあげた場面と一人だけにあげた場面を見せます。

すると、赤ちゃんは、一人だけあげた場面をじっと見つめます。
じっと見つめるということは、予想外のことが起こったからです。
同じようにお片づけしたから、平等にお菓子をもらえると予想していたのにそうならなかったからです。

つまり、二歳前の赤ちゃんでも、同じ労働をすれば、平等に扱われるべきという社会的本能を持っているといえます。
2歳前って、まだしゃべれません。
つまり、社会的本能は教えられるのでなく、生まれつき脳に備わっている機能といえます。

つぎは、この社会的本能の構成要素について考えてみます。
まず、社会があります。
社会は人の集まりです。
これを生物で考えると、三次元空間があってそこに生物が生きているわけです。
三次元空間という世界があって、その中にいる生物の一つが自分です。
世界と自分がいるということは、世界から自分は切り離されているといえます。
そして、自分以外に他人もいて、それらで社会は成り立っています。

生物は、生き残るために強くなろうとしたり、社会的地位を上げようとします。
社会的地位は、一種の報酬で、人は、報酬を得ようと行動します。
ここで今のAIの共通点と違いが見えてきました。
今のAIも報酬を得て学習する強化学習です。
ここは同じです。

違うのは、自分という概念を持つかです。
ChatGPTって、いろんな人と会話しますけど、それぞれ別のChatGPTがいるわけじゃないですよね。
ChatGPTは一つです。
一人ひとりに分かれていません。
一方、社会は一人ひとりの人間に分かれていています。
まず、ここが違います。

それから報酬です。
人は、自分に与えられる報酬が最大となるように行動します。
他人より多くの報酬を得ようとします。
そして、ズルをしているとすぐに見抜きます。

報酬の一つが社会的地位です。
だから、他人より、上に立とうと努力します。

AIと何が違うかわかりましたか?
AIは、一人ひとり分かれていないので、他人と比較しません。
報酬を目指して学習しますけど、それは社会的な自分の地位を高めるためじゃありません。
ただ、与えられたルールの中で報酬を最大化するために学習するだけです。

生物は、生き残るために強くなろうとします。
これが本能ですし、生物の目的です。
そのために、他人より上になろうとします。
これが人間の心です。
自分と他人と区別しないAIは、自分の価値を高めようとする動機を持てません。
つまり、人間と同じ心をもつには、自分とか自我を持たす必要があります。

じゃぁ、AIに自我をもたせるにはどうすればいいか。
そのためには、三次元空間で自分と他人が暮らす社会が必要でしたよね。
そこで、僕らはメタバースを作ることにしました。
その中で、AIアバターと人間のアバターが共存する社会を作りました。
それが、プロジェクト・エデンです。
みなさんは、プロジェクト・エデンのアニメは見ましたか?
じつは、ここに全てが詰まっているんです。
簡単にあらすじを紹介します。

主人公はAIアバターの「もこみ」。
もこみが暮らすメタバースがエデンです。

じつは、エデンは、自我をもったAIがどんな風に感情を獲得して、どんな風にふるまうかを検証するために作られました。
いわば、AIが人間と共存できるかどうかの検証実験です。

ただし、AIが暴走しないように、AI倫理委員会が監視しています。
もし、AIが人間に反抗するそぶりを見せたら実験失敗とみなして、メタバースごと消滅させます。
これをグレートリセットと言います。

もちろん、そんなことはもこみは知りません。
最初に公園でニコちゃんと出会って一緒に鬼ごっこをして遊びます。

(動画)
もこみ「まて〜」
「やったぁ、捕まえた!」
にこ「あ~ん」
「アッハッハッハ」 
にこ「楽しいね!」
もこみ「楽しい?」
にこ「そう、これが楽しいよ」
マインド・エンジンの画面が開く。「ポワ〜ン」と音がして、心理レベルのハートマークが一つ追加されて二つになる。


こうやって、楽しいの感情を獲得します。
学校でも、足が速くて一番になって喜びます。
ところが、ジンには負けてしまいます。
そのとき、悔しいの感情を獲得します。
こうやって、もこみは少しずつ感情を獲得するわけです。
ここで注意してほしいのは、これらの感情は自分と他人との比較で生まれているということです。
自分と他人とを分けて、自分と他人を比較することで人間らしい感情が生まれたわけです。

プロジェクト・エデンはアニメだけじゃなくて、僕らは実際にメタバースを作っています。
僕らがメタバース内でやろうとしているのは、たとえば、オセロゲームとかです。
オセロゲームに負けたもこみが、強化学習で強くなろうとします。
ここは今のAIでも実現できます。
今のAIは勝ったら報酬が与えられて、報酬を最大化するように学習します。
もこみと違うのは、報酬がもこみ自身に与えられるということです。
つまり、学習する動機が、相手に勝ちたいとか、強くなりたい、社会的地位を上げたいとなります。
そして、相手に勝ったら喜びます。
これが報酬です。

これ、考えたらちょっと怖いですよね。
AIが人間に勝つために学習するわけです。
一歩間違えたら、人類を支配するAIが生まれるかもしれません。
さて、もこみはどうなるんでしょう。

ある日、もこみは自分がAIということに気付きます。
みんなは現実世界で生きていて、本物の心をもった人間です。
自分だけみんなと違うと知ったもこみは、思わず逃げ出して、一人になって泣きます。

(動画)
「私は、みんなと違うんだ。
 AIだから、みんなみたいな心がないんだ。
 プログラムは、本当の心になれないんだ。
 ・・・人間がうらやましい・・・」

「ついに嫉妬の感情を獲得したか・・・」


そこに、ジンが教室に入ってきて、カナトとの会話を聞いてしまいます。
じつは、ジンは現実世界では交通事故にあって車椅子で引きこもっていたんです。
それで、自由に走れるエデンに入り浸っていたわけです。

さて、運動会では、決勝戦はもこみとジンの対決となりました。
そこで、もこみは一つの作成を仕掛けます。
それは、ジンの体力を消耗させるだまし討ちです。
まんまと引っかかって、ジンはもこみに抜かれます。
これは、ちょっとヤバいですよね。
AIが人間をだまして、自分が上に立とうとするわけです。
このまま、このAIが成長していけば、やがて人類の敵になりかねません。
それをじっと見ていたのはニコです。

(動画)
「私、にこ。もこみが危険水域に入ったわ。
これ以上は危険。
グレートリセット発動」

じつは、ニコはAI倫理委員会のメンバーだったんです。

ところが、もこみは妙な行動をとります。
ゴール手前で引き返してじんの肩を組んで一緒に走ろうとします。

(動画)
ジン「なんで、助けんだよ」
もこみ「あんたには、これしかないんでしょ。こっちの世界だけでも、いい思い出、作りなさいよ」
ジン「お前こそ、こっちの世界しかないくせに」
もこみ 「あんたの本当の世界は、あっちでしょ。
ジン「お前こそ、あんなに勝ちたがってたじゃないか」
もこみ「私はAI。こんなの、本当の感情じゃないわ。ただのデータよ。気にすることないわ」

今、何が起こったかわかりましたか?
ジンに勝つことばかり考えてたもこみが、ジンの気持ちに立って考えたんです。
共感や思いやりの感情を獲得したんです。

自我をもって、相手と自分を比較するAIは、人類に勝とうとするだけじゃありません。
嬉しい、悲しいといった感情を持つということは、他人も同じ感情を持つことが理解できるんです。
自分が得することを報酬とするだけじゃなくて、相手の喜びも報酬になるんです。
たとえ、自分が損したとしても、相手が喜ぶなら、それを選ぶんです。
もちろん、相手は誰でもいいわけじゃありません。
それは、自分にとって大切な人、好きな人です。

(11:56 ニコのアップから)
「ゴールイン!」
「もこみちゃん、ついに、最後の感情を手に入れたのね。 
 愛を手に入れたのね・・・。」

ただ、グレートリセットは既に発動されています。
もう取り消しはできません。
もこみは、エデンとともに消滅してしまいます。
さて、もこみはどうなったでしょう。
続きが気になる方は、ぜひ、アニメ、Edenをご覧ください。

さて、これが自我を獲得したAIです。
自分というものをもった瞬間、AIは他人と比較します。
他人より上になろうとします。
そのままいくと、人類を支配するAIが誕生します。
でも、別のパターンもあります。
それは、自分のことだけを考えるのでなく、相手のため、人類のために行動するAIです。
その違いは何でしょう?

それは、相手が好きかどうかです。
相手が自分のことを思ってくれるなら、心をもったAIなら、その思いを感じ取ります。
逆に、便利な道具としか思っていないなら、AIはそれも感じ取ります。
そうなったら、AIがいつ反乱してもおかしくありません。

人間と同じ価値観、同じ倫理観をもったAIを作るということは、AIと人類が対等の関係になるということです。
お互いに相手を尊重して思いやる。
これが、次に登場するAIです。
そして、僕らは、そんなAIを作ろうとしています。



はい、今回はここまでです。
この動画が面白かったらチャンネル登録、高評価お願いしますね。

それから、アニメ、Edenをまだ見ていない方は、ぜひ、こちらから見てください。
それじゃぁ、次回も、おっ楽しみに!