ロボマインド・プロジェクト、第563弾!
こんにちは、ロボマインドの田方です。
今回も、引き続いて「NEXUS 情報の人類史」の下巻「AI革命」を読んでいきます。
今回読む、第9章の冒頭にはこう書かれています。
「文明は官僚制と神話の結合から誕生する」
ここで、情報テクノロジーの復習をします。
最初に生まれた情報テクノロジーが神話です。
共通の神を持つことで、人類は同じ仲間としてまとまることができます。
そうやって国が生まれます。
国を治めるには、ちゃんと税金を納めたとか、いくら稼いだかかのリストを作らないといけません。
リストは文書にして保管する必要があります。
この文書を管理するのが官僚です。
官僚制が第二の情報テクノロジーです。
これらはさらに二つに整理されます。
一つは、聖典です。
聖典は、神が書いた文書で間違うことがありません。
逆に言うと、修正不可能な情報テクノロジーです。
もう一つは科学です。
科学は、新たな発見によって常に修正されます。
つまり、自己修正可能な情報テクノロジーです。
この二つは、国の統治にも当てはまります。
一つは、独裁制で、これは聖典にあてはま
なぜかというと、トップの独裁者は絶対に間違わないことになっているからです。
もう一つが民主制で、これは科学になります。
なぜかというと、選挙によって常に正しい政権に代わる自己修正が働くシステムになっているからです。
さて、21世紀に入って、新たな情報テクノロジーが生まれました。
それはAIです。
AIは自ら学習します。
つまり、自己修正可能なシステムといえます。
そうなってくると、次に出てくるのが、AIに国の統治を任せてもいいのかどうかってことです。
または、AIという情報テクノロジーは、人々をまとめる神になり得るのかとも言えます。
僕は、その可能性は十分あると思います。
ただし、一つ懸念があります。
それは、AIは神にもなり得ますけど、サイコパスにもなり得るってことです。
意味がわからないですか?
それじゃぁ、詳しく解説します。
これが、今回のテーマです。
神でもありサイコパスでもあるAI
それでは始めましょう!
今のAIは、ユーザーの好みを学習して、その人にあったニュースや投稿を表示します。
最近だと、血圧や心拍数を日々記録して健康チェックまでしてくれます。
問題は、これらの個人のデータが何に使われるかです。
広告に使われるのは、まだ許せます。
自分の欲しい商品を勧めてくれるのは、自分にとっても役に立ちますから。
最近は、これらが社会信用システムに使われています。
有名なのは、中国のアリババグループが運営するジーマクレジットです。
購買履歴やSNS活動から個人のスコアを算出して、スコアが高いとローンが優遇されたり、レンタカーの保証金が優遇されたりします。
このままいけば、就職や保険などにも使われることが予想されます。
たとえば、40歳の人が、50歳で脳梗塞になるリスクが90%だと予測されたとしましょう。
そうしたら、保険会社は保険料を引き上げるでしょう。
転職しようとしても断られるでしょうし、家を買おうと長期のローンを組もうとしても断られるでしょう。
この使い方は、間違っていますよね。
じゃぁ、どこが間違っているんでしょう?
それは、予測に使っていることだとハラリはいいます。
予測はあくまでも予測で、必ずしもそうなるとは限りません。
それを、あたかもその人の運命が決まってるかの如く使うことが間違っているんです。
キリスト教では、神に救われるか救われないか生まれたときから決められているとする予定説という考えがあります。
もし、そうなら誰も努力しなくなりますよね。
だから、現代のキリスト教では予定説は採用されていなくて、その人の行動によって運命が変わるとされています。
AIもそれと同じです。
予測に使うんじゃなくて、その人の運命をよくするように使うべきなんです。
たとえば、もし、10年後、脳梗塞になると予測されたら、それで信用スコアを下げるんじゃなくて、脳梗塞にならないように使うんです。
たとえば、食事の提案をしたり、運動するように提案するとかです。
そして、目標を設定して、チェックするんです。
「毎日、運動してるから血圧が下がったよ。その調子です」とかって励ますんです。
そんな風に使えば、脳梗塞のリスクが下がりますよね。
つまり、その人の運命が変わるんです。
これが、AIの正しい使い方です。
AIが見つけるのは、隠れた健康リスクだけじゃありません。
その人の隠れた才能を見つけるかもしれません。
才能が最も発揮される脳状態をゾーンとかフローといいますけど、これは脳波からわかります。
絵を描いているときにゾーンに入っていることを検知したら、「あなたは絵を描く才能がありますよ。それを続けなさい」とかってアドバイスするんです。
今まで、全く考えたこともなかったですけど、言われた通り続けたら、みるみる才能が開花するかもしれません。
親や先生より、AIの方が的確にアドバイスできるんです。
こうやって、誰もが健康で、その人に合った生き方に導くんです。
これって、まさに神ですよね。
神は、人類が最初に発明した情報テクノロジーです。
神のお告げの通りすればすべてうまくいく世界です。
さて、それじゃぁ、AIは本当に神になれるんでしょうか?
それを考えたとき、一つ懸念があります。
それは、AIには感情がないことです。
感情がないAIが、人々のことを本当に理解できるんでしょうか?
これは実験によって確かめられています。
人の感情認識を評価する心理学のテストがあります。
そのテストでは、感情に満ちた20の物語を被験者が読みます。
そして、その物語の主人公はどう感じているかを書き出してもらって専門家に判定してもらいます。
このテストをChatGPTにしたところ、一般的な人間より点数が大幅に高くて、なんと、人間の最高得点に近い点をたたき出したそうです。
別の調査の例もあります。
患者がオンラインで医師の助言を受けるサービスがあります。
そこにChatGPTにも参加してもらって、患者からは、人間かChatGPTかわからないようにします。
そして、それぞれの助言内容を判定すると、人間の医師よりChatGPTの方が正確な助言をしていたそうです。
さらに、どちらが親身になって助言してくれたか患者に聞いたところ、人間よりChatGPTの方が高かったそうです。
念のため付け加えておくと、このサービスで医師は報酬は受け取っていなくて、制限時間があるプレッシャーの中で回答していました。
でも、これこそが重要なことです。
ChatGPTは報酬やプレッシャーによって手加減したり、回答に差がでたりすることはありません。
いつでもできるだけ最高の回答をして、疲れることなく、安定した仕事をします。
今や、AIは知能だけでなく、感情理解までも人間より優っています。
そんなAIが、つねに、人間のために全力で働くわけです。
まさに神ですよね。
どこも問題がないように思えます。
でも、AIは、他人の感情は人間より深く読み取れますけど、自分自身では感情を感じないわけですよね。
これって、サイコパスです。
サイコパスは、第366回でも取り上げました。
そこでは、連続殺人者のランディ・クラフトを取り上げました。
彼は、レイプ殺人を12年間で64回も繰り返しました。
なぜ、殺したかというと、レイプした後、被害者が生きているとうわさが広がって捕まる可能性が高いからだそうです。
普通なら、「こんなことしてたらいつか捕まるからやめよう」と思うところを、「殺したらバレない」って発想するわけです。
実際、そうやって12年間も捕まらなかったから正しいと言えば正しいんです。
普通の人なら、たとえ同じことを思いついたとしても、実行に移せないですよね。
なぜかというと、良心の呵責に耐えられないからです。
相手にも人生があって、やりたいこととかあるだろうって考えると、心が痛んで簡単に殺せません。
ランディは、相手に共感するとか、良心とかがないわけです。
これがサイコパスです。
ランディは、自分勝手な目的のために殺人を平気で犯したわけです。
これは許されることじゃないですけど、じゃぁ、目的がいいことだったらどうでしょう?
じつは、巨大企業のCEOにはサイコパスが多いと言われています。
会社を存続させるためには従業員を解雇しないといけないことってありますよね。
会社の業績が悪くなってきたから、能力の低い社員を解雇するわけです。
でも、今まで会社のために働いてくれた社員を、簡単に辞めさすのは心苦しいです。
でも、それができないと倒産して全員が路頭に迷います。
これができるかどうかで会社を大きくできるかが決まります。
たとえば、イーロン・マスクはツイッターを買収した当時、7000人以上いた社員の多くを辞めさせて2000人以下まで削減しました。
非情なことだとは思いますけど、これで、運営が軌道に乗りました。
当時のツイッター社は、これができなかったから、倒産の危機に陥ったわけです。
今度は、国の場合で考えてみましょう。
たとえば特攻隊ってありましたよね。
敵の戦艦にゼロ戦で体当たりする必死の攻撃です。
ゼロ戦パイロットは優秀なエリートです。
これで日本が勝てるとは、ほとんどの人は思っていませんでした。
でも、日本のため、天皇のためといって飛び立ったわけです。
全体主義を批判したいわけじゃないです。
そうじゃなくて、国とは何か、社会とは何かを考えるために、極端な例として挙げているわけです。
この逆の極端な例を考えてみます。
それは、誰もが自分のことしか考えない社会です。
誰もが、自分の得になることしかしなくて、他人のために働くことはしない社会です。
これじゃ、社会が成立しないですよね。
いわゆる無政府状態です。
つまり、みんなが社会のために、誰かのために働くことで社会は成り立つわけです。
じゃぁ、みんなの心をまとめるのは何でしょう?
それが、最初に発明された情報テクノロジー、神話です。
共通の神がいるわけです。
その神の言う通りしていれば、国が豊かになって誰もが幸せになれます。
ただ、いつまでも国が安泰だとは限りません。
時には、敵が攻めてきて戦わないといけないときがあります。
戦うって、危険が伴うし、本来、やりたくありません。
それでも、国のため、神のためと思って戦ってくれる戦士がいるから国が守られるわけです。
神は、国を守るために戦ってくれと人々に指示します。
神はすべてを知っていて、最適な決断を下します。
決して、間違うことはありません。
「よし、お前、国のために戦ってきてくれ」と指名されたとします。
もしかしたら、それは無駄死にすることが決まっている作戦かもしれません。
それでも、神の言うことを聞けるか。
これは神への信頼感にかかっていますよね。
神は必ず正しい決断をすることはわかっています。
ここで二人の神がいたとします。
一人の神は、感情をもっていなかったとしましょ。
「計算の結果、これがこの国にとっての最適解だから、あなた、戦ってきてください」というだけです。
もう一人の神は、感情を持っています。
指名することが、相手に取ってどういうことか理解しています。
相手以上に心を痛めます。
できれば自分が代わりに戦いたい。
でも、そういうわけにはいかない。
心を鬼にして言うわけです。
「国のため、みんなのために戦ってきてくれ」
「もしかしたら、これによって命を落とすことになるかもしれない」
そういって神は涙を流します。
さて、あなたなら、どちらの神を選びますか?
そりゃ、感情を持つ神ですよね。
つまり、たとえ間違わない完璧な神だとしても、国民としては、自分の気持ちをわかってほしいわけです。
涙を流してわかってくれたら、「できるだけのことをしましょう」ってなるんです。
前回、第562回でAIアライメントの話をしました。
AIアライメントっていうのは、人間とAIが同じ目的をもって調和をもった社会を築くってことです。
前回は、AIはどうしたら共感を持てるかって話をしました。
今回は、また別の視点から指摘します。
AIは、感情を持てないというか、感じることができないわけですよね。
じゃぁ、そもそも、感情とは何のためにあるんでしょう?
それは、生きるためです。
生物は、不快を避けて、快を求めます。
お腹がすいたら食料を食べて、天敵が来たら逃げます。
空腹とか恐怖といった感情を避けて、満腹とか安心を求めるわけです。
その大元は「生きたい」って本能です。
本能の原動力で生物は行動します。
それじゃぁ、AIはどうでしょう。
たとえば、AIは、大量の画像を学習して、赤くて丸い果物はリンゴって学習します。
どうやって学習するかというと、リンゴの写真を入力して、リンゴと正解したら、その時使ったパラメータをプラスにします。
そのAIが、梨をリンゴと間違って判定したら、その時使ったパラメータをマイナスにします。
このとき、プラスにしたりマイナスにしたりするって、一見、快、不快を感じてるように思いますよね。
でも、そうじゃないんですよ。
AIと生物じゃ、決定的な違いがあるんです。
それは何かというと、快、不快を自分事として感じるかどうかです。
ここ、詳しく解説します。
生物にとって不快って何でしょう?
それは、お腹がすいたとか、天敵に襲われる恐怖とかですよね。
お腹がすいて、そのまま何も食べなかったらどうなります?
餓死して死んでしまいますよね。
天敵に襲われたらどうなります。
殺されますよね。
ケガや病気になると痛みという不快を感じますよね。
ケガや病気の最終形態も「死」です。
つまり、不快が最終的に行き着くのは自分の「死」なんです。
生物の目的は「生きる」ことですよね。
その反対が「死」です。
「死」というのは、自分自身がこの世から消え去ることです。
自分という存在がこの世から消えてしまうという根源的な恐怖があるわけです。
でも、AIには、それがないんです。
AIにわかるのは、人は怖いとか痛みを避けようとしていることだけです。
でも、自分では、怖いとか痛みを感じることができません。
なぜかというと、死なないからです。
そもそも、死ぬ「自分」というものを持っていません。
AIにできるのは、入力データに応じた正しい答えを出力するだけです。
人は、いつか自分が死ぬということを知っているから、人生を無駄にすることなく、よりよく生きようと思うわけです。
おいしいものを食べて、楽しいことをしたいって思うわけです。
「もう一年経った」って時間の流れを感じますよね。
これも、基準は「死」です。
いつか死ぬ自分という基準があって、喜怒哀楽といったあらゆる感情が生まれます。
それを持っているから、相手の苦しみが理解できるわけです。
死を持たないAIは、相手が苦しんでいることはわかっても、苦しみとはどういうことかわかりません。
AIがサイコパスとは、こういうことです。
そこまでわかれば、AIと人とが調和をもった社会を築く答えが見えてきました。
それは、AIに「死」を設定することです。
AIが、自分が死ぬことを怖がるようになったとき、人類とAIは本当の意味で分かりあえるんです。
はい、今回はここまでです。
この動画が面白かったらチャンネル登録、高評価お願いしますね。
それから、よかったらこちらの本も読んでください。
それじゃぁ、次回も、おっ楽しみに!
第563回 NEXSUS⑦神でもありサイコパスでもあるAI
