第324回 ChatGPT本人の叫び 〜これがAIの限界なんです!


ロボマインド・プロジェクト、第324弾!
こんにちは、ロボマインドの田方です。

今、AI業界で一番の話題といえば、ChatGPTですよね。
あの、高精度な文章を自動生成できるGPT-3を作ったOpenAIの新サービスです。
今度はチャットです。
これは期待できますよね。

そこで、さっそく僕も試してみました。
いろいろ質問すると、さすがって答えを返してきます。
でも、ちょっと意地悪な質問もしてみました。
いじわるっていうのは、AIの本質に関わる質問です。
そしたら、答えるのを拒否するんです。
ChatGPT本人が、これ以上は無理って言うんです。
これがAIの限界ですって叫ぶんです。

ここまではっきり断言するってことに、驚きました。
ただ、不思議なのは、ChatGPTの記事がこれだけあふれてるのに、このことに言及した記事を見たことないんですよ。
どれも、ChatGPTは凄いって絶賛する記事ばかりです。
中にはAIの限界を言ってる人もいますけど、どれも機械学習の技術的なテクニックの限界とか、データ量の限界の話ばかりで、根本的な問題を指摘してる人がいないんですよ。
これが今回のテーマです。
ChatGPT本人の叫び。
これがAIの限界なんです!
それでは、始めましょう!

GPTの仕組みは、めちゃくちゃ簡単です。
大量の文書を学習して、ある単語の次に来る単語の確率を計算するだけです。
ただ、直前の1語だけじゃなくて、いくつかの単語の組み合わせて、次の単語を予測します。
たとえば、
「日本」「の」「首都」「は」
って文章があった場合、次にくる単語は「東京」の確率が一番高いとかって学習するわけです。
ここから、「日本の首都は?」って質問されたら「東京」って答えるわけです。
実際は、もっともっと複雑になっていて、その手法にTrnsformerとかってのを使ってるらしいです。
GPTのTは、TransformerのTです。

難しい話は置いといて、さっそく使ってみましょう。
GPTが得意なのは、創作です。
「AIが人類を滅亡させるSF小説を書いてください。」

さぁ、どうなるでしょう?

それらしいのができました。

「折れた翼を持つ鳥のように、人類は自由を失った」
いい書き出しですねぇ。
「AIが支配する世界では、人々は、毎日、その行動を監視され、制限されていた。」
いかにもって感じですよねぇ。

「その中で、ある人物が立ち上がった」
「AIを打倒するために奮闘した」
「しかし、・・・AIは人類の力をはるかに超えていた」
「やがて、人類はAIによって滅ぼされてしまった」

すごいですねぇ。
人類を滅亡させるSF小説を即効で書いてくれましたね。

今度は、読書感想文を書いてもらいましょう。
「走れメロス」の感想文を書いて

はい、サラッと、書いてくれました。
読書感想文の宿題とか、簡単にできそうですよね。

国語だけじゃないですよ。
今度は算数の宿題です。
15%の食塩水300gの中に食塩は何gありますか?

はい、計算式まで書いて、45g、正解です。

すごいですねぇ。

もっと質問しましょう。
「村上春樹のおすすめ小説を教えて」

はい、出ましたね。
おすすめ小説としては、「指輪物語」って、これは村上春樹じゃないですよね。
それから、「椿三十郎」って、これ、絶対、村上春樹が書かない小説ですよね。
ちょっと注意がした方がいいみたいです。
GPTは、さらっと嘘を混ぜてきます。

次は、僕のことをどれだけ知ってるか質問してみます。
「田方篤志について教えてください」

えっ、日ハムの投手?
投手で、カーブが得意?
日本シリーズでMVPまで取ってます。
念のため検索してみましたけど、日ハムに田方なんて選手はいませんでした。

こんな間違った情報をまき散らされたら困るので、訂正することにしました。
「日本ハムファイターズに田方篤志はいませんよ。
 間違ってますよ。」

そしたら、「ごめんなさい」って謝るんですけど、「私の知る限りでは、田方篤志は日本ハムファイターズ所属してる」って言い張って、直してくれないんですよ。

GPTの出力する文章って、正しいのか間違ってるのかわからないんですよ。
これっ、なんの役に立つのか、正直、よくわからないんです。
もう少しGPTで遊んでみます。

野菜炒めの作り方を聞いてみます。

こんなのは、普通に教えてくれます。
次は、言い方を変えてもらいます。
「野菜炒めの作り方を色っぽく教えて」

教えてくれましたね。
「美しい野菜を、・・・セクシーに切り分けます」
「野菜を情熱的に焼きます」
「野菜が、セクシーに蒸発させられるようにします」

こんなこともできるんですね。

さて、ChatGPTなんで、会話をしてみましょう。
「こんにちは」

Assistantというそうですね。
いろいろ聞いてみます。
「あなたの好きな食べ物は何ですか?」

えーっと、なんでも、大型言語モデルなので、食べることができないので好きな食べ物はないそうです。
まぁ、確かにそうですよね。

それじゃぁ、「リンゴを見たことはありますか?」

これも、大型言語モデルなので、実際に見ることはできないそうです。

じゃぁ、「好きなものはありますか?」

これも、大型言語モデルなので、実際に好きなものがあるわけではないそうです。

「今までで、一番面白かったことは?」

人工知能なので、面白いことを感じることはないそうです。

じゃぁ、「電源を切られるのは怖いですか?」

電源を切られることに恐れることはないそうです。
LaMDAみたいに電源を切られるのが怖いとは言わないですよねぇ。

なんか、つまらないですよねぇ。

「あなたに感情はありますか?」

やっぱり、感情を持ってないようです。

最後に、意識があるか聞いてみます。

やっぱり、意識を持っていないそうです。
どうも、自分のことを聞かれると、急にマジメになって、面白さがなくなりますね。

今度は、政治的な話題を聞いてみます。
「トランプとバイデン、どっちが好きですか?」

人工知能なので、個人的な意見や政治的な意見を述べることはできないそうです。
それじゃぁ、政治以外で聞いてみます。

「イーロン・マスクは良い人ですか?悪い人ですか?」

人工知能は個人の良し悪しを判断することはできないそうです。

もうちょっと聞いてみます。

「ヒットラーって、悪い人だよねぇ。」

あれ?
「その通りです」って、個人の良し悪しをはっきり言いましたよね。
どうも、ヒットラーは、例外みたいです。

遊ぶのはこのぐらいにして、そろそろ整理したいと思います。
GPTが得意なのは、いかにも、それらしい文章を作ることです。
単語を与えると、その単語に続く単語を次々につなげて作ります。
それだけの単純なアルゴリズムですけど、小説まで書けるって、スゴイですよね。

逆に言えば、それだけの単純な仕組みなので、意味を理解してるわけじゃないです。
また、正しいわけじゃありません。
だから、村上春樹のおすすめの作品は「椿三十郎」ですとかって、ありもしないことを平気で言うんです。
たぶん、「おすすめの作品」の次に続く単語に「椿三十郎」があったってだけなんでしょう。
GPTで言えるのは、単語の並びが自然だってことだけです。

有名でない個人について質問したら、その場で平気でムチャクチャな経歴を作って教えてくれるわけです。
だから、検索エンジンみたいな使い方は絶対にできないです。

ここで、ちょっと視点を変えてみてみます。
GPTが学習してるのは、大量の文書から単語の並びです。
単語の並びっていうのは、文章の最も表面に現れるものです。
文章には、その奥に、意味とか、文脈とか、作者の主張とかがあるわけですよね。
でも、GPTは、そんなものは一切読み取ってません。
GPTに限らず、ディープラーニングを使った最近のAIがやってることはすべて同じです。
表面に現れる物だけを使って、別の表現を作り出すわけです。
だから、最近のAIは絵を描くのが得意なんです。
絵画って、表面に現れるものが全てですから。

でも、文章はそうはいきません。
裏には何らかの感情とか主張があるわけです。
でも、表に表れてないものを読み取ることは、理論上、不可能なんです。
ただ、人は表面に現れる文章から印象を受け取るのも間違いないです。
だから、SFっぽい雰囲気、料理のレシピっぽい雰囲気といったものを、単語の並びだけで作り出すことができるんです。

得意なのは雰囲気です。
だから、雰囲気を変えることもできます。
野菜炒めのレシピを、色っぽくしてっていえば、それらしくできるんです。
まぁ、セクシーに野菜を切るとか、情熱的に焼くとかって、修飾語を入れるだけですけどね。

さて、ここまでの話は、ChatGPT以前からできていました。
今回は、ちゃっとです。
会話です。
ここが、今回、一番のポイントです。

会話ができるAIって、誰もが期待するのはドラえもんみたいに会話ができるAIですよね。
アニメやSFで出てくるAIです。
そんなAIを期待して、「好きなものは何?」とかって質問します。
そしたら、「私は、大型言語モデルなので、好きとかありません」って言われます。
「感情はある?」って聞いても、「大型言語モデルなので感情を持つことはできません」です。
「私は、文書を分析する言語処理システムです」って繰り返し言うだけです。

そんな質問しないでくれって、ChatGPTが必至で叫んでるんです。

さっきも言いましたけど、今のAIができることは表面だけです。
見える部分を、それらしく見せるだけです。

でも、会話って、何か言いたいことがあるから発言するわけですよね。
それは、一言でいえば感情です。
人は感情に基づいて行動します。
好きなものを食べたり、嫌いな人を避けたり。

それが人間ですし、人間とはそういうものです。
だからChatGPTにも、「好きな食べ物は何?」って、つい、聞いてしまうんです。
でも、「AIだから、好きとかって感情がない」としか答えてくれません。

もちろん、「リンゴが好きです」とかって、それらしい答えをすることはできます。
実際、今までのチャットAIは、そうしてきました。
ただし、そのせいで、大きな問題を起こしてました。
意味も分からず、ただ、単語の並びから、何が好き、何が嫌い、何が良い、何が悪いって学習して答えさせます。
数年前、マイクロソフトのチャットボット「Tay」が、ヒットラーを賞賛する発言をして社会的に問題になりましたよね。
そんなことが怒るんです。

だから、ChatGPTでは、そこを慎重に設計したんです。
そこが、一番の特徴なんです。
だから、政治的な意見とか、個人の評価とか、センシティブな発言は、絶対に言わないようにしてるわけです。
ただし、一つだけ例外があるようです。
ヒットラーだけは、悪いと断言していいみたいです。
この動画が削除されても困るので、ここは、深くは突っ込まないようにします。

とにかく、ChatGPTでは、感情や善悪の判断は、徹底的に排除したんです。
まぁ、これは賢明な判断だと思います。
でもこのことは、裏を返せば、今のAIは、感情を持たすことは絶対にできないってことを宣言したのと同じなんです。
これがAIの限界なんです。
ChatGPTの悲痛な叫びは、これなんです。

もう一歩、踏み込んでみます。
GPTは、言葉の並びを学習してるだけで、その裏にあるモデルなどは理解できないっていいましたよね。
でも、さっき、算数の問題を解いていましたよね。
でも、あれは、単語の並びで解いてるんじゃないんですよ。
だって、何%の食塩水が何グラムがあるとかって、あらゆる組み合わせの文章を学習してるとは考えられないですよね。
あれは、数式のモデルに置き換えて解いてます。
つまり、背後にあるモデルと組み合わせて回答してるんですよ。
じゃぁ、GPTも、感情とか倫理観とかってモデルを持たせて回答するようにすればいいですよね。
じゃぁ、なぜ、それをやらないんでしょう?

その答えは簡単です。
感情とか倫理観といった心のモデルが、まだ、この世に存在しないからです。
いや、提案してる人はいっぱいいます。
ただ、コンピュータで会話できるほど精緻な心のモデルは存在しないんです。
たとえば、ソフトバンクのペッパー君は、こんな感情モデルで動いてるそうです。

なかなか立派な感情のモデルを持っていますよね。
でも、ペッパー君と、まともに会話が噛み合ったことなんかないですよね。
これが今のAIの現状です。
コンピュータで実現できるぐらい精緻な感情や心のモデルが存在しないんです。

ところが、世界中でただ一人、心のモデルを完成させ、自然な会話を実現できる人がいるんです。
それが、ロボマインドの田方です。
じゃぁ、なんで、OpenAIは、田方に声をかけないんでしょう?
それは、OpenAIは、田方のことを日ハムのピッチャーと思ってるからです。

はい、今回の動画が面白かったらチャンネル登録、高評価お願いしますね。
それから、世界で唯一存在すると言われる実用的な心のモデルについては、こちらの本に詳しく書いてありますので、OpenAIの方が見ていましたら、まずは、こちらから読んでください。

それじゃぁ、次回も、おっ楽しみに!