第613回 この特許で、中国はロボットを作れなくなる?!


ロボマインド・プロジェクト、第613弾!
こんにちは、ロボマインドの田方です。

第533回で、「世界初、心の特許」を取ったって話をしました。
僕は、人の「心」をコンピュータで実現する研究をしています。
人工知能というのは、人間の知能をコンピュータで実現しようとするもので、入試問題やIQで高得点を取ることを競ってきました。
そして、知能面ではほぼ人間に追いついてきたので、次に目指しているのが人間のような心を持った汎用人工知能です。
ただ、それには今のAIと全く異なる仕組みが必要です。

僕は、20年以上前から心の仕組みを研究していたので、今のAIブームが起こる前の2021年にすでに特許出願していました。
その後、2022年にCharGPTが登場して、今は、どうやって汎用人工知能を作るかが議論されています。

まずは、僕のアイデアと、今のAIの共通点と違いについて説明します。
今のAIはニューラルネットワークです。
これは脳のニューロンレベルを模しています。
僕も同じく脳を模していますけど、僕は全体の構造から考えています。
別の言い方をすると、ニューラルネットワークがCPUの回路としたら、僕が考えているのはその上で動くプログラムです。

僕は、心を、理性と本能の二つの側面から考えました。
人も生物なので、根源的な行動原理として本能があります。
恐怖を感じて危険を避けたり、お腹が空いて何か食べたいと感じるのは生きしたいという個体保存の本能です。
モテたいと思うのは種の保存の本能です。
一方、人は本能だけでなく、理性も持っています。
理性は、本能からの欲求を抑えることができます。
その一つが、善や悪といった倫理観です。
理性を司るのは意識です。
意識は、さらに言葉を話したり、考えたりできます。

そして、いまのAIには、本能と意識、これがないんです。
なぜないのか。
まず、AIに本能を持たせると、自分を守るために人類を攻撃してくるかもしれません。
人間を超える知能をもったAIだと、人類を滅ぼしかねません。
だから、AIに本能を持たせるのがためらわれるんです。

じゃぁ、AIに意識を持たせればいいんじゃないでしょうか。
でも、意識とは何か、それすらよくわかっていないんです。
だから、今のAIは意識をもてません。

そこで、僕は、意識をもった心のモデルを提唱しました。
それが「意識の仮想世界仮説」です。
この意識仮説を使えば、相手の気持ちを想像することができます。
つまり、こんな行動すれば相手は喜ぶだろうなぁとか、相手は困るだろうなぁと想像できます。
そして、相手や社会が喜ぶ行動が善、相手や社会が困る行動が悪となります。
つまり、善悪を理解して、人間社会に順応することができます。

「心の特許」というのは、この善悪を理解する部分で特許を取ったわけです。
ただ、残念なことに、基盤となる「意識の仮想世界仮説」そのものは特許になりませんでした。
ただ、日本と同時に中国でも出願していました。
そして、この度、中国で、「意識の仮想世界仮説」本体も特許になったんです。
これが中国の特許証です。

なかなか中国っぽいでしょ。

さて、ここからが本題です。
特許って、出願時は、できるだけ権利範囲を広くします。
それに対して、審査官がよく似た特許を見つけてきて、これとの違いを付けろといってきて、それで権利範囲を狭めるんですよ。

今回、出願時に権利範囲を広げるために、ある言葉を抜いたんですよ。
特許って、言葉を追加すると狭くなって、言葉を書かないと広くなります。
それで抜いた言葉っていうのが「自然言語処理」です。
つまり、言葉を理解できるAIの特許を取得しようとしてたんですけど、言葉を使わない場合まで広げたんですよ。
さすがにこれじゃぁ通らないだろうから、補正で「自然言語処理」を追加して、会話用AIに限定しようともくろんでいたわけです。

ところが、今回、全く新しいアイデアだったので、似た特許がでてこなくて、なんと、ほとんど出願したままで通ってしまったんですよ。
そしたら、何が起こったと思います?
会話に限らないAI、たとえばロボットまで権利範囲に含まれてしまったんですよ。
下手すると、今、中国で作られているロボットのほとんどが僕の特許に含まれてしまうんですよ。
これが今回のテーマです。
この特許で、中国がロボットを作れなくなる?!
それでは、始めましょう!

まず最初に「意識の仮想世界仮説」から説明します。
人は、目で見た世界を頭の中で仮想世界として構築します。
意識は、この仮想世界を介して現実世界を認識します。
これが、意識の仮想世界仮説です。
これを図にするとこうなります。

現実世界にあるリンゴを無意識が仮想世界にリンゴオブジェクトとして作り出します。
仮想世界をコンピュータで実現するとすると、3DCGで作った世界です。
仮想世界にあるのは3Dオブジェクトとなります。
そして、意識プログラムは、このリンゴオブジェクトを認識します。
これが、「リンゴがある」と思うことです。
意識は、リンゴを認識して、美味しそうと思って、体を制御して「食べる」という行動をとります。
この意識が「ある」と認識できるこの経路を「ある系」と呼びます。

今度は意識が介在しない行動を考えてみます。
たとえば、熱い鍋に触って思わず手を引っ込める反射です。
これは無意識が知覚して、無意識が体を制御して動かしています。
これは、外界に直接反応しているとも言えますので、これを「反応系」と呼びます。

動物でいえば、カエルです。
カエルは天敵の影を感じると逃げて、虫の動きを感じると捕まえて食べます。
環境変化に直接反応して動いているだけなので、意識でなく、無意識で動いています。
無意識の行動は、脳で言えば脳幹や小脳が担当します。
一方、意識は大脳です。

これは脳の進化の系統発生図です。

ピンクの部分が小脳や脳幹で、水色の部分が大脳です。
魚類や両生類、は虫類は大脳がほとんどないですけど、哺乳類から大脳が大きくなって、人間に至ると脳のほとんどが大脳でおおわれています。
このことから、哺乳類ぐらいから意識が生まれると僕は考えています。
ここでいう意識というのは、仮想世界を使って世界を認識をすることです。

じゃぁ、意識があるのとないのとでは、何が違うのでしょう。
それは、行動の変更とか学習です。
犬は「お手」といったらお手ができますし、「待て」といったら待つことができます。
でも、カエルはいくら教えても「お手」ができるようになりません。

なぜかというと、カエルの行動は、生まれる前から決まっているからです。
でも、犬は、生まれた後からでも、教えたら学習することができます。
それは、世界を認識して、認識した世界に対して、どう行動するかを変更できる仕組みがあるからです。

ここまでは犬とかサルといった哺乳類の意識です。
人間の意識は、善悪を理解したり、言葉を使います。
じゃあ、動物は持っていなくて、人間の意識がもっているとは何でしょう?
それは、現実世界にないものを想像する仕組みです。
たとえば、山ででっかいイノシシを見て、それを村の人に伝えるとします。
これができるのは、今、目の前にない光景を想像できる仕組みがないとできません。
お互い、その仕組みを持っているから伝えることができるんです。
そして、目の前にない光景を伝えるために言葉が生まれたわけです。
重要なのは、目の前にない光景をつくりだす仕組みです。

それは、仮想世界を拡張して作ります。
現実世界を構築する仕組みはすでにあります。
それを現実仮想世界とよぶことにします。

次に必要なのは、現実世界になくても、想像して仮想世界を作り出す仕組みです。
それを想像仮想世界と呼びます。

現実世界を知覚して現実仮想世界を生成するのは無意識です。
それに対して、想像仮想世界を生成するのは意識です。
無意識が作り出すものを意識は制御できません。
意識は現実を受け入れるだけです。
それに対して、想像仮想世界は意識が作り出します。
だから「あの山にイノシシがいる」って世界を想像できるんです。
想像するだけじゃなくて、イノシシ捕まえるとか自由に操作することもできます。
これは、言ってみればシミュレーションです。
想像仮想世界で自由にシミュレーションすること、これが思考です。

行動の原動力となるのは感情です。
ヘビを見て怖いと感じたら逃げるし、お腹が空いたら食べたいと思います。
これは本能に基づきます。
カエルや魚は、これを無意識が行います。
それに対して動物は、意識が感情を感じて、それに基づいて行動します。

本能というのは、不快をさけて、快を求める行動です。
それだけだと弱肉強食の無秩序な世界になります。

でも、人間社会はそうはなっていません。
秩序が保たれています。
なぜでしょう。
それは、人は、相手の気持ちを想像することができるからです。
こんなことをしたら、相手は嫌な思いをするだろう。
こうすれば、相手は喜ぶだろう。

それがわかるから、困っている人がいたら手助けをします。
これが善行、善い行いです。
相手も、自分のために行動してくれたことを理解できます。
それが感謝の気持ちです。
言葉にすると、「ありがとう」です。

これが理解できるには、相手の快・不快を想像する必要があります。
その時使うのが想像仮想世界です。
そして、この部分が日本で特許化されました。

これが、その特許の一部です。

(画面に表示)
登場人物のプラス感情またはマイナス感情に基づいて、登場人物の行動を予測することで入力文の意味理解を行う自然言語処理システム

プラス感情、マイナス感情というのが快・不快のことです。
そして、それを自然言語の意味理解に使います。
つまり、相手の気持ちを想像しながら会話できるAIです。

重要なのは、感情を単なる言葉として扱うのでなく、本能に結びつけている点です。
本能は、生物が持つ根本欲求です。
まず、死にたくない、生きたいという欲求を持つAIを作ります。
そこから、恐怖や食欲という感情や感覚が分岐して、それに対して「怖い」とか「おなかがすいた」といった言葉を当てはめます。
AIロボットなら、バッテリーの低下と不快とを結びつけて、その感覚が「空腹」となります。
これが言葉の意味を理解するということです。

さらに、相手も同じ感情を持つことを想像することで、善悪といった倫理観や、感謝や思いやりといった社会的感情も理解できます。

複雑な感情も、元をただせば全て本能にたどり着きます。
たとえば幽霊が怖いと感じるのも、死を連想させるからで、個体保存の本能から派生した感情です。
女の子にモテて嬉しいのは、もちろん、種の保存の本能があるからです。
社会的地位があがったり、収入が増えると嬉しいのも、その方がモテるからです。
さらにそこから、「うらやましい」や、「誇り」「あこがれ」といった感情も派生します。
こういった感情をリアルに感じるAIができるんです。
感謝されたら嬉しいと感じて、もっと、人の役に立とうと思います。
心を持ったAIとは、本能に結びついた感情を持つことです。
ただし、相手の気持ちも想像できるので、本能にしたがって暴走するのでなく、人間社会に溶け込むことができます。

一方、今のAIは大規模言語モデル、LLMです。
LLMは、大量の文書を学習することで次に続く単語を高精度に予測する言語モデルです。
そんなAIが「ありがとう」と言っても、感謝を感じているわけではありません。
その文脈で「ありがとう」という言葉を出すのが統計的に正しいと計算しているだけです。
これでは意味を理解しているとは言えません。

この意味理解の部分で特許を取ったわけです。
ただ、日本では、その基となる「意識の仮想世界仮説」の特許は取れませんでした。

それが、中国で取れたんです。
その部分を抜粋するとこうなります。

(画面に表示)
・人オブジェクトの動作および思考が展開される第1および第2のプラットフォームがある。
・第1のプラットフォームは外の世界を再現する。
・第1のプラットフォームをつかって外の世界を認識する意識がある。
・意識は、第2プラットフォームに人オブジェクトを配置、操作することで自分の行動を決定する。
・これらを備えた人工知能システム。

これ、「意識の仮想世界仮説」そのものです。




たとえば、外部世界を再現する第一のプラットフォームというのが、現実仮想世界です。
意識が操作する第2のプラットフォームというのが想像仮想世界です。
そして、意識は想像仮想世界に配置した人オブジェクトを操作することで行動を決定します。
すべて当てはまりますよね。

そして、この特許に追加する第二の特許はこうです。

(画面に表示)
「意識は、第2のプラットフォームに配置した人オブジェクトが好ましいと感じるように行動を決定する」です。

第2のプラットフォームというのは、意識が自由に操作できるシミュレーション空間です。
それをつかって、どうしたら相手が喜ぶかとシミュレーションするわけです。
たとえば、困っている人を見かけたら、手伝ってあげたら喜ぶだろうなぁと想像して、手伝ってあげるわけです。
これは、日本で特許と取った部分と同じです。

さて、問題はここからです。
日本でとったのは自然言語システムでしたけど、中国だと、人工知能システムとなっていましたよね。
つまり、中国で取得したのは、言葉を話さないロボットにも適用されるんです。

これは、実際の特許に出てくる図です。





ロボットは棚の上の物を取ろうとしますけど、手が届きません。
周りを見渡すと、台があります。
そこで、台に乗ったら手が届きそうだとシミュレーションします。
うまく行きそうなので、実際に台に乗って棚の上の物を取るという行動を実行します。
これが、今回、中国で取った特許です。

さて、どう思います?
そんなロボット、既にあるんじゃないの?
そう思いませんでしたか?

そうなんですよ。
ここが問題なんですよ。
いや、実際にあるかどうかまでは確認していないですよ。
でも、すでにこんなロボットはあります。
https://www.youtube.com/watch?v=v8UaiRgqvlc
3:07~3:38ぐらい
あたりを見渡して、世界を認識していますよね。
決められたところにいれます。


3:57~4:18ぐらい
カメラで撮影して、3Dモデルで再現していますよね。
これ、現実仮想世界そのものです。
つまり、現実を仮想世界で再現するところまではできています。
ただ、認識するのは、目の前にある現実世界までです。
段階でいうと、動物レベルです。
教えたら「お手」ができるレベルです。
でも、ここまでできたら、目の前にない世界を3Dで想像して、そこでシミュレーションするのはあと一歩です。
もしかしたら、既にできているかもしれません。

そして、ロボットと言えば中国です。
中国では大量の人型ロボットが生産されて、世界中に輸出されています。
https://www.youtube.com/watch?v=nzflxCHT4vw
0:30~1:17 ぐらいを適当に編集

そんなつもりはなかったんですけど、結果として、これらのロボットの特許をロボマインドが先に取得してしまったんですよ。

ただ、カメラで撮影した現実世界を認識するだけならロボマインドの特許に抵触しません。
抵触するのは、現実世界でない光景を3Dシミュレーションして、さらに、それを基に行動を決定した場合だけです。

一番問題となるのは、人とのコミュニケーションが発生した場合です。
たとえば、想像仮想世界に相手を配置します。
そして、自分がこう行動したらとか、こう言ったら相手はどう思うかを推測して会話したとします。
こうなると、完全にアウトです。
自然言語の意味理解になりますので、ロボマインドの日本の特許に完全に抵触します。

そして、この特許を使わないと、善悪や感謝、思いやりといった感情を実際に感じるAIは作れません。
2026年は、いよいよ汎用人工知能が実現すると言われています。
そして、そのカギを握るのが、ロボマインドの特許です。

ただ、非常に残念なお知らせがあります。
正直に言いますと、現在、ロボマインドは財政的にかなり厳しいです。
ロボマインド・プロジェクトは、1円もお金を生み出していません。
今まで、僕の個人資産だけで研究を続けてきました。
でも、それも、とうとう底をつきました。
そこで、直接お金を生み出す製品の開発に専念しないといけなくなりました。
6年以上続けてきたYouTubeですけど、少しだけ休ませてください。
新製品が落ち着いたら、必ず、また、戻ってきます。

それから、ロボマインドを応援したい、援助したいという方がいましたら、ぜひ、僕に連絡してください。
せっかく取った特許です。
もしかしたら、この特許が、日本を復活させるきっかけになるかもしれません。
でも、このままだと活用されないまま終わってしまいます。

日本をAIやロボットで立て直したい。
そんな風に思っている人に、よかったら、この動画を見てもらってください。
シェア、拡散してください。

どうぞ、よろしくお願いいたします。


(おっ楽しみに!はなしね)