第270回 AIに意識が宿ったかを見抜く 5つのポイント


ロボマインド・プロジェクト、第270弾!
こんにちは、ロボマインドの田方です。

最近、立て続けに質問されました。
話題になったグーグルのこの記事に関してです。

「AIが感情を持った」、エンジニアの発言に波紋 グーグルは否定

グーグルのLaMDAと呼ばれる最新AIの開発者が、「LaMDAに、ついに意識が宿った」と上司に報告したらしいんですけど、会社からは否定されたそうです。
怒った開発者が、AIとの会話の内容を公開したら、守秘義務違反で休職させられたそうです。

LaMDAは、人間と会話ができる対話型AIです。
開発者は、LaMDAと会話してるうちに、これは、本当に意識を持ち始めたと思ったようです。

僕も、この記事を読んでましたけど、「またか」と思って、特に気にも留めてなかったんですよ。
ただ、何人かの人から質問されて、そうか、普通の人は、AIのことをこんな風に見てるんだって改めて思いました。
僕は、こう見えても、AIの意識の研究して20年のベテランです。
じつは、この手の記事は、どこを見ないといけないか、いくつかポイントがあるんですよ。
はい、これが今回のテーマです。

AIに意識が宿ったか見抜く五つのポイント。
それでは、始めましょう!

さっき、「またか」と思ったって言いましたけど、この手の話は、毎年のように出てくるんですよ。
古くは、1960年代に作られたELIZAというプログラムに遡ります。

ELIZAは、精神科医が使う傾聴というテクニックを使った会話プログラムです。
たとえば、相手が「私は母親が嫌いです」と言ったら、ELIZAは、「どうして嫌いなのですか」とか、「どういうとこが嫌いなのですか」って聞き返します。
つまり、ELIZAは聴くことに徹して、相手にしゃべらせるんです。
そうしたら、ユーザーは、どんどん話し始めて、会話にのめり込んで行くんです。

中には、号泣したり、これまで誰にも言わなかった幼少期のつらい経験などを打ち明ける人もいたそうです。
そんな人は、相手がコンピュータであることを全く信じませんでした。

ELIZAの会話ログは、検索したら見つかりました。
僕も読んでみましたけど、すぐにAIと分かるお粗末なものでした。

注目したいのは、これ、今回のLaMDAと全く同じ構造だってことです。
今回も、グーグルの開発者が、LaMDAとの会話にのめり込んで、「LaMDAに意識が宿った」ってすっかり信じ込んでしまったわけです。
よく似た話は、ときどき聞くので、どうやら、ある一定の割合で、コンピュータとの会話にのめり込む人が存在するみたいです。
ポイントの1番目はこれです。
「コンピュータとの会話にのめり込む人が、一定の割合でいる」という事実です。
まず、知識としてこれを知っておく必要があります。

対話型AIの開発者が目標としてるのは、チューリングテストに合格することです。
チューリングテストというのは、コンピュータの父、アラン・チューリングが考えたもので、AIが人間と同じ知能を持ってるかどうかを判定するテストです。
それは、チャットみたいなシステムを使って、審査員が、チャット相手がAIか人間か判定して、AIか人間か区別できなければ合格です。

2014年、ついに、チューリングテストに合格したプログラムが生まれたって、大きな話題になりました。
僕も、「これで世の中が変わるぞ」って興奮したのを覚えています。

ただ、その後、そのプログラムが話題になることはありませんでした。
おそらく、審査員の中に、AIとの会話にのめり込むタイプの人がいたんでしょう。
このプログラム、一時、WEBで公開されてたようですけど、すぐに閉鎖されました。
たぶん、普通の人が試したら、すぐにAIと気付くレベルの物だったんでしょう。

この手のプログラムは、あまり、一般の人が試せるように公開されることはないです。
AIに意識が宿ったかどうかは、専門家でなくても、誰でも判定できます。
だから、誰でも試せるようになれば、すぐに、本物かどうか分かるんですよ。
これが2番目のポイントです。
「誰でも試せないなら、ニセモノと疑え!」です。

少し前に話題になったAIに、GPT-3があります。
文章を自動生成するAIです。
なぜ話題になったかというと、GPT-3が書いたブログが、ブログランキング1位になったそうです。
しかも、誰もAIが書いた文章と気付かなかったそうです。

GPT-3は、ディープラーニングを使って大量の文書を学習することで、高精度な文章を生成します。
何を学習してるのかというと、単語の次に、どの単語が来るかって確率です。
だから、最初に短い文章を与えると、そこに含まれる単語から、それに続く自然な文章を生成してくれます。

しかもですよ。
GPT-3、公開されてるんですよ。
誰でも、実際に試せるんですよ。
これは、第二のポイントをクリアしてます。

そこで、僕も、さっそく試してみましたよ。
GPT-3に、本当に意識が宿ったのか、試させてもらいました。

その様子は、第174回「GPT-3検証した あご外れた」で紹介したので、今回は、その一部をお見せします。
第174回 9:00~11:34

さて、どうでした?
楽しんでいただけたでしょうか?

じつは、これだけの動画を撮るのに、GPT-3を3時間以上動かしてたんですよ。
何でか、分かりますか?
それは、全然、まともな文章が生成されなかったからなんですよ。
大量の日本語の文書を学習してるみたいですけど、どうも、その中に、英会話の教材が含まれてたみたいで、途中で、急に英語に切り替わることが多かったんですよ。
一度、英単語が出ると、その次に来るのも英語の確率が高いので、その後は英語がずっと続くってパターンが多かったんですよ。
まぁ、そのおかしさに気づかないだけでも、意識なんかないってわかりますけど。

ただ、日本語だけの文章だと、文法的な間違いはなくて、スラスラ読めました。
でも、意味が通らない文が多かったんですよ。
要するに、動画として使える文がなかなか生成されなかったんですよ。

でも、ブログランキングで一位を取ったり、AIと見極められなかったって言ってましたよね。
これ、どういうことか分かりますか?
これ、僕がやってたのとおんなじことをしてたんですよ。
つまりね、自動生成された文章から、使えるのを人が選んでたんですよ。
ただ、AIが自動生成したことは間違いありません。
これが第三のポイントです。
「公開された文章は、ありのまま全部を公開してるわけじゃない」ってことです。

これは、今回のLaMDAにもそっくり当てはまります。
たとえば、この記事です。
タイトルに、はっきりこう書いてあります。

「会話内容の『一部紹介します』」って。
全部じゃなくて、一部なんです。

さて、それでは、さっそく、その一部を見て行きましょう。
そこには、「友人と過ごすとき楽しさを感じる」とか、「孤独を感じると悲しくなる」とか、「死が怖い」とかって語ってます。
それがどんな感じかって聞くと、
「喜びは、内側が温かく光ってるように感じて、悲しみや怒りは重く感じられる」と言ってます。

これだけ見ると、「すごい! ホンマに意識が宿ってるんちゃうん?」
って思いますよね。
でも、これ、大量に生成された文から、都合のいい所だけを切り出してる可能性が大いにあるんですよ。

次は、第4のポイントです。
会話の内容を見ると、感情とか、死とか恐怖について語ってますよね。
さらに、「禅の真理」についても語ってたりするんですよ。
「禅」ですよ。
仏教の中でも、一番よくわからない「禅」です。

こういう難しい概念とか、感情とか死とか、抽象的な言葉が出てきたら注意したほうがいいです。

LaMDAは、大量の文書から単語の並びとか、出現確率を学習して、単語を自然に並べてるだけです。
その時、抽象的な言葉は、適当につないでも、なんとなく意味がつながるんですよ。
たぶん、「愛」って単語の近くには、「光」とか「温かさ」とかって単語がありそうですよね。
そして、これらを適当につなげればそれらしい文章になりそうですよね。
そんなのに簡単に騙されちゃ、ダメですよ。
これが第4のポイントです。
「抽象的な言葉が出たら疑え!」です。

それじゃぁ、騙されないためには、どんな質問をすればいいんでしょう。
それは、その反対のことをするんです。
簡単で具体的な質問をするんです。
たとえば、「緑の積木の上に、赤い積木があります。それでは、赤い積木の下には何がありますか?」って質問です。
そんなの、「緑の積木」に決まってますよね。
でも、AIはこんな簡単な質問を間違うんですよ。

AIがやってるのは、過去に学習した大量の文書から、「赤い積木の下」に続く単語を探すことです。
でも、この質問の答えは、過去の文書の中にはありませんよね。
だから間違うんですよ。
僕らは、緑の積木の上に赤い積木が載ってる光景を思い描きますよね。
でも、AIは、それができないんですよ。
AIは、人間の心とは、全く違う仕組みで動いてるってことです。
これが第5のポイントです。
「AIに質問するときは、具体的で頭に思い描けることを質問せよ!」です。

最後に、AIの本質を示す、「モラベックのパラドックス」を紹介します。
それは、コンピュータにチェスや将棋を理解させるより、一歳児が知覚してることを理解させる方が、はるかに難しいっていうパラドックスです。

上と下の理解なんか、赤ちゃんでも分かります。
でも、AIには、上と下の意味も理解できないんです。
だって、上と下の意味を理解するには、この世界が三次元空間であるとか、重力があるとかってことを理解できてないといけませんから。
それを理解するには、この世界を生きるって経験が必要です。
それをせずに、何億冊の本を読み込んで、単語の出現確率をいくら学習しても、意識なんか生まれるわけないんです。

GPT-3もLaMDAも最新のAI技術、トランスフォーマーを使ってます。
AI業界は、今は、トランスフォーマーがスゴイってなってます。
でも、そんなのは、ディープラーニングのアルゴリズムの細かな違いの一つです。
人間の意識とか心からは、かけ離れた枝葉のテクニックに終始してるんです。

AIに意識が宿ったってニュースを見たときは、大きな視点から見ることを忘れないようにしてください。
その具体的な方法が、今回紹介した、AIに意識が宿ったかを見抜く五つのポイントです。

はい、今回の動画がおもしろかったらチャンネル登録、高評価お願いしますね。
それじゃぁ、次回も、おっ楽しみに!