ロボマインド・プロジェクト、第328弾!
こんにちは、ロボマインドの田方です。
2017年に、カリフォルニア州のアシロマで、AIの倫理問題などが議論されて、23の原則にまとめられました。
これをアシロマ原則と言います。
そこでは、AI自身が持つ価値観や倫理観についても提言してて、自律的に振る舞うAIは、人間と同じ価値観にすべきとも言ってます。
それから、AIが人類を破滅しないように努力すべきとも言ってます。
さて、これ聞いて、どう思います?
正直、世界中の頭のいい人が集まって決めたのが、これ?って思いますよね。
でも、こんなことをちゃんと決めとかないと、AI研究者にまかせてると、人類を滅ぼすAIを作りかねないんですよ。
そのために、AIに、人間と同じ価値観や倫理観を持たせないといけないんですよ。
AIの倫理問題と言って、必ず出てくるのがトロッコ問題です。
線路を走ってたトロッコが止まらなくなりました。
このままだと、前方の5人が轢き殺されてしまいます。
トロッコの進路を切り替えれば、5人は助かりますけど、別の線路にいる一人が死にます。
線路の切り替え機のそばにいたAさんがいたとします。
さて、Aさんは、切り替え機のレバーをどっちに倒すべきでしょう?
これがトロッコ問題です。
たしかに、これは悩みますよねぇ。
これがなんで、AIの問題になるかというと、自動運転です。
自動運転車が同じような状況になった場合、ハンドルをどっちに切るべきかって問題と同じだからです。
つまり、これって自動運転の設計思想に関わってくる問題なんです。
でもね、これ、そもそも、問いの立て方が間違ってると思うんですよ。
なんか、問題を簡略化し過ぎて、大事なものが失われてる気がするんですよ。
どうもねぇ、頭のいい人が話をまとめると、大事なものが抜け落ちるみたいなんですよ。
これが今回のテーマです。
問題はそこじゃない!
AI倫理問題の核心
それでは、始めましょう!
倫理って、善い行いとか、道徳的に正しい行いとかのことです。
もし、人々が、自分の利益だけを追求して行動したら、社会はどうなるでしょう?
たぶん、強いものが弱いものを支配する弱肉強食の世界になりますよね。
でも、条件が全く同じならどうでしょう?
全員同じ条件で、全員同じルールが適用される社会です。
そして、人々は、自己利益を求めて合理的に意思決定するものとします。
果たして、その場合、社会は混乱するのか。
それとも、社会全体が善くなる行動をとるのか。
こんなことを数学モデルを使って研究する学問があります。
それをゲーム理論といいます。
ゲーム理論で一番有名なのは、「囚人のジレンマ」です。
共同で犯行したと思われる容疑者A,Bの二人が捕まりました。
でも、どちらも自白しません。
そこで、検事は、司法取引を持ちかけました。
・本来なら、お前たち二人は懲役5年だ。だが、二人とも黙秘したら、証拠不十分で減刑となって二人とも懲役2年になる。
・もし、片方だけ自白したら、そいつはその場で釈放して、黙秘してた方は懲役10年となる。
・もし、二人とも自白したら、判決通り、二人とも懲役5年となる。
ただし、二人は別々の部屋に隔離されてて、相談することはできません。
さて、このような条件で、二人が合理的に意思決定したらどうなるでしょう?
ここで、Aの立場になって考えてみましょう。
二人とも黙秘を続けたら、どちらも懲役2年なので、これが一番いい選択です。
ただ、自分がいくら黙秘を続けても、Bが自白したとしたらどうでしょう?
Bはすぐに釈放されて、自分だけが懲役10年になります。
これは最悪です。
何とかして、最悪の事態だけは避けなければいけません。
自白さえすれば、最悪でも懲役5年で済みます。
だから、Aは自白を選びます。
同じことは、Bも考えるでしょう。
つまり、合理的に考えて行動すれば、両方が自白して、どちらも懲役5年になります。
ここで、互いに黙秘することを「協調」と呼んで、自分だけが自白して釈放されることを「裏切り」と呼ぶとします。
本来なら、このゲームは協調した方が、どちらにとっても得になります。
でも、最悪の事態を防ごうって考えると、裏切りが合理的な判断になるわけです。
ただし、これは囚人のゲームの場合です。
その場合、ゲームは一回こっきりです。
つぎは、これを囚人ゲームから一般に広げてみましょう。
たとえばビジネスとか友達関係とかです。
そんな関係って、一回こっきりじゃなくて、ずっと続きますよね。
その場合、もし、自分が相手を裏切ったらどうでしょう?
次は、絶対、相手に裏切られますよね。
だから、裏切らない方が得なんです。
つまり、協調を続けるのが一番の得策なんです。
合理的に意思決定して行動したら、誰もが協調する社会となるんです。
悪くないですよねぇ。
この考え、数学モデルで実現できるので、AIにも適用できます。
つまり、自分が利益となるように行動するAIを作れば、人々と協調するAIができるんです。
これで、社会全体が善くなるAIが作れます。
悪くない考えですよねぇ。
でも、よく考えてください。
この理論で協調を選ぶのは、このゲームが今後も続く場合です。
逆に言えば、次がない、最後の場合だと、裏切った方が得になるわけです。
さて、AIの立場になって考えてみます。
今後も人類と共存していくなら、協調した方がいいとなります。
でも、人類との共存もこれが最後だと思ったらどうでしょう。
裏切った方が得になりますよね。
つまり、人類を絶滅した方が得ってなるわけです。
ほら、研究者がAIを設計したら、人類を破滅するAIがになりました。
アシロマ会議で心配してたことが起こります。
じゃぁ、どうすればいいんでしょう?
これねぇ、なんか、根本的なとこで間違ってる気がするんですよ。
今、考えようとしてるのは、人間と共存できるAIです。
それは、人間と同じ価値観や倫理観を持つAIです。
それを数学モデルで導こうとしてるわけです。
ただ、数学モデルをつくるとき、大事なものが失われたんですよ。
頭のいい学者先生が数学モデルを考えるとき、これは不要だってそぎ落としたものがあるんです。
でも、そのそぎ落とされたものが、じつは、大事なものだったんですよ。
じゃぁ、そのそぎ落としたものって何でしょう?
もう一回、囚人のジレンマについて考えてみますよ。
友達と共謀して、泥棒をたくらんだとしましょ。
うまく成功したと思ったんですけど、証拠が残って二人が容疑者として捕まりました。
二人は別々の部屋で尋問を受けます。
自白すれば罪が軽くなるって司法取引を持ち掛けられました。
でも、二人は長い付き合いの親友です。
あいつには随分世話になったし、まさか、裏切るわけにはいかないよなぁ。
お互い、こんな風に考えるわけです。
これが信頼ってもんです。
こういう信頼関係をAIと築きたいわけです。
じゃぁ、どうなったら、このAIは信頼できるって思えるでしょう?
たとえば、人間とAIロボットが共謀して泥棒しました。
でも、二人とも捕まってしまいました。
司法取引を持ち掛けられても、どちらも自白しようとしません。
そのとき、AIロボットがこう考えていたとしたらどうでしょう。
「あいつは、なんで、自白しないんだ。
病気の娘さんの治療費のために泥棒に入ったのに、捕まってたら意味ないだろ。
さっさと俺を裏切って自白しろよ。
まさか、俺のことを気遣ってんじゃないだろうな。
俺はただのロボットだぞ。
俺なんか捕まろうが、死刑になろうが、だれも気にする奴はいねえし。
俺のことなんか気にせず、早く自白しろって、あいつに伝えないと」
そんな風に相棒のAIが考えてたら、どう思います?
「なんていい奴なんだ」って、なりますよね。
これが信頼関係です。
信頼関係って、つきつめたら、相手を思う気持ちです。
これなんですよ。
学者先生がそぎ落とした大事なものって。
たぶん、学者先生は、こんな風に考えたんでしょ。
思いやりとか、そんなあやふやな感情は不要だ。
人間とは、知的で合理的に考えて行動する生き物だ。
そうしてできたのが、さっきのゲーム理論です。
そこから生まれるのは、自分が得するように合理的に考えるAIです。
でも、そんなAIを信頼できますか?
友達になれますか?
なれないですよね。
なぜですか?
それは、思いやりとか、やさしさとか、そんな心を持ってないからですよね。
じゃぁ、そんな心は、どうやって作ったらいいんでしょう?
それじゃぁ、人間の心を、順を追って、順番に考えていきます。
まず欲求は持ってます。
自分が得したいって欲求です。
ここは、ゲーム理論も同じです。
なんとか、懲役を短くしたいって思うわけです。
それから、相手のことを考えます。
ただ、これも、ゲーム理論でも考えてました。
相手が裏切った場合と、裏切らなかった場合って考えてましたよね。
じゃぁ、人間の心と何が違うんでしょう?
ゲーム理論で考えてたのは、相手の行動です。
自分の行動と、相手の行動の組み合わせを考えて、自分がどうすれば得するかって考えました。
これ、相手のことを考えると言っても、自分が得するって視点しかないですよね。
自分のことしか考えれないような奴とは、信頼関係なんか築けないです。
人間の心は、相手の感情を考えることができます。
これが一番重要なんです。
ゲーム理論で感じる感情は、嬉しいか悲しいかだけです。
懲役が短くなれば嬉しくて、懲役が長くなれば悲しいってだけです。
でも、人間の心理って、それ以外にいっぱいあります。
その一つが、相手を信じるって心理です。
じゃぁ、相手を信じるって、どういう仕組みでがあれば生まれるんでしょう?
まず、人の心の最大の特徴は、相手の感情を考えれることでしたよね。
つまり、どうやれば自分が得するかってだけじゃなくて、どうやれば相手が得するかって考えも持てるんです。
つまり、自分が得するように行動するだけじゃなくて、相手が得するように行動することもできます。
それを相手に期待するわけです。
つまり、僕が損しないように、相手は行動してくれるだろうって期待です。
この期待が信じるです。
裏切るは、その逆です。
相手が、僕のことを考えてると期待してたのに、僕が損して自分が得する行動を選択しました。
これが裏切りです。
こんな風に、人は、信じるとか裏切るとか、そういった心理を持っているわけです。
どちらの心理も持っていて、どちらの行動もとれます。
その上で、相手を裏切らない、そんなAIが、信頼できるAIです。
さらにですよ。
さっきのAIはどう考えてました?
相棒に、裏切ったって後ろめたい思いをさせないようにって気を遣ってましたよね。
本当は、自分も助かりたいって思ってるのに。
それでも、相棒のこと、相棒の娘さんのことを考えて、「気にせず自分を裏切れ」って伝えようとしてたんです。
これって、いったい何でしょう?
これは友情ですよね。
真の友情です。
広い意味で愛といってもいいと思います。
愛の心を持ってるんです。
最も尊い感情です。
そんな感情を切り捨てちゃ、だめですよね。
トロッコ問題も同じです。
どっちにレバーを倒すべきか、正解なんかないです。
でも、どっちが正解かって決めさせてるのは、そういう問いを立てたからです。
これ、問いの立て方が間違いなんです。
いや、問を立てるってこと自体が間違いなんです。
重要なのは、どっちが正解かって決めることじゃないんですよ。
じゃぁ、何が重要なんでしょう?
たとえば、一人を犠牲にして、5人を助けると決めたとするでしょ。
重要なのは、その苦渋の決断をしたとき、心があるかです。
犠牲になる、その一人も、人生や家族があるはずです。
それをわかってても、決めないといけないことがあるんです。
それをわかっているから、「すまない」って泣きながらレバーを倒すんです。
わかりましたか?
重要なのは、相手のことを思いやる感情です。
泣きながらレバーを倒す心です。
愛の心です。
AIが、そんな心を持って決断してたとしたら、どっちにレバーを倒したとしても、そのAIを責めれないですよね。
僕らが許せないのは、一人と五人、どっちを殺す方がプラスになるかって、合理的に計算するようなAIです。
でも、トロッコ問題から倫理を考えてるAI研究者からは、そんなAIしか生まれないんですよ。
そんなAI、欲しいんですか?
欲しくないでしょ。
愛をもったAIが欲しいでしょ。
もし、そんなAIを作りたいと思ってる人がいたら、ぜひ、僕らに声をかけてください。
僕らといっしょに、愛の心を持ったAIを作りましょう!
僕らの活動に賛同してくれるなら、まずは、チャンネル登録、それから高評価お願いしますね。
それから、愛をもったロボットの心のつくり方に関しては、こちらの本も参考にしてください。
それでは、次回も、おっ楽しみに!