OpenAIってなに?人工知能支配への抑止力を目指す非営利研究機関

企業家イーロン・マスク氏が出資して設立したOpenAIという企業をご存知ですか? OpenAIは人工知能を研究する企業ではありますが、OpenAIが他の組織と違うのは、OpenAIが「非営利団体」であり、且つ「研究内容を公開・共有」するという点にあります。

2015年12月に設立された組織なので本格的な活動はまだ始まっていませんが、世界的にも人工知能に注目が集まり、あらゆるコンピューターに大なり小なり人工知能が搭載され始めている現代において人工知能はある意味ドル箱の技術です。それを営利目的に使わず、しかも研究内容を公開して共有しようというのですから何を考えているか分かりません。そんなOpenAIの目的や意義について考えてみます。

OpenAIという非営利企業

営利団体における研究では、常に「研究結果が利益に繋がるかどうか」が問われています。そのため、利益に繋がらない研究は出来ません。そして、この「利益」というのは企業自身の金銭的な利益に終始します。

そうなると、企業の利益にはならないかもしれないけど、人々の利益になるという研究が見逃されるかも知れないのです。また、企業と人々の利益になっても出資に見合わなかったり、利益が出るのに時間がかかるというものも敬遠されます。

もちろん、そういう研究は大学や公的機関で行われることもあるのですが、この財源も元を正せば国民の税金。使い方は慎重にならざるを得ないでしょう。「結果が出る保証のない研究」や「国民の利益になる確証のない研究」などは行われません。つまり、利益を追求しない公的機関の研究においても強い縛りがあるのです。

しかし、OpenAIにおける研究は「営利企業」や「公的機関」の研究の縛りに囚われません

人工知能の研究と発展を目的にしており、人工知能の可能性を広げる研究であれば出資されます。もちろん、財源が限られているので何でも良いとはなりませんが、利益や確実性に捕らわれず、「新しい研究」や「将来性のある研究」であれば、予算が下りるでしょう。

そして、これらの研究は公開されるため、他の企業や公的機関が自由に利用することが出来るようになります。

これはLinuxのようなオープンソースで自由に行われる研究開発に近いかもしれません。Linuxは無料で利用できるOSでサーバーなどに幅広く利用されていますが、OpenAIの研究は同じように広がっていく可能性を秘めています。

そういう意味では、OpenAIは社会全体に利益をもたらす非営利企業を目指していると言えなくもないでしょう。

ただ、非営利企業でも出資者はいて、出資者の影響力は無視できません。出資者がそれは研究する価値がないと判断すれば、研究しにくくなるテーマが出てくることは間違いないです。

そこで気になってくるのが出資者の意図です。
出資者たちは一体何を考えてOpenAIを作ったのでしょうか?

イーロン・マスクら出資者たちの意図

まず、一番分かりやすいのが出資者達が出資している別の企業に対する利益になるという点です。

イーロン・マスクであれば「テスラ・モーターズ」や「スペースX」がありますし、サム・アルトマンであればクラウドサービスの「Dropbox」や宿泊施設を紹介する「Airbnb」、さらにインターネット販売大手のAmazonも出資しています。

どれも、人工知能のサポートがあれば飛躍的に利益を産める可能性のある企業がOpenAIに関わっているのです。

本当であれば彼らも自社だけで開発して、自社だけの利益にしたいところでしょう。しかし、Googleを始めとする人工知能研究において遥かに進んだ企業がライバルとして先行していて、後から研究を始めたとしても後塵を拝すだけです。

かと言って、何もしない訳は行きません。先行する企業群が人工知能技術を独占すれば、遅れた企業は一気に不利な立場になるでしょう。場合によっては、先行企業にお金を払って人工知能の技術を借り受け、自社が利益を上げれば上げるほど先行企業が利益を上げるなんて構図にもなりかねません。

研究しようにも今更手遅れですが、独力で研究しても駄目なら協力すれば良いのです。そこで、人工知能研究の遅れを取り戻すべく設立されたのがOpenAIだと考える事もできるでしょう。

蓋を開けてみれば、「結局のところ企業の利益のためなんじゃないか」となりますが、話はそれだけでは終わりません。「人工知能技術を持っている企業に支配される」という恐れは、そのまま「人工知能に人類が支配される」という恐れに繋がります。

実際にOpenAIに出資している出資者や参加している研究者の多くが、「人工知能に対抗する人工知能が必要」と考えてOpenAIに協力しています。

つまり、「人工知能開発で先行した企業に対抗する人工知能を開発すること」は、そのまま同時に「人工知能による支配を防ぐための人工知能を開発する」ことに繋がってくるということです。

目には目をとも考えられますが、これは一体どういう原理なのでしょうか?
他に方法はないのでしょうか?

核への抑止力と並ぶ、人工知能支配への抑止力

一言で言えば核兵器と同じです。核兵器を独占されればその国に世界が支配されてしまう。だから、多くの国で核兵器を持とうという理論です。

核兵器と人工知能を同列に並べるのに違和感がある方もいるかもしれませんが、人より優れた知性を持った存在というのは核兵器よりも恐ろしい存在でしょう。

よく言われるのは、反乱を起こした人工知能による核ミサイルのハッキングや各種情報の支配ですが、それ以前に一般的な業務・技術研究のサポートに人工知能が使われるようになるだけで大きな違いです。

「ちょっと整理しといて」とか「資料をまとめておいて」と部下に頼んだ作業が1秒で終わると考えてみてください。一人一人の作業効率が飛躍的に変化するはずです。小さな企業でも数千人の従業員を抱える大企業並のパフォーマンスを出せるでしょう。そんな技術が一部企業に独占されるだけでも、社会の構図が変わります。

人工知能が反乱を起こす前に、人工知能技術を独占した企業や国が世界を支配するということです。

まあ、それは言い過ぎかもしれません。
ですが、少なくともそれだけのポテンシャルを人工知能は秘めています

人工知能が恐ろしいのであれば、みんなで人工知能を持てば良い。
この考え方はアメリカの銃社会に似ていますが、大きな違いは人工知能は必ずしも武器ではないことです。むしろ、基本的には車やスマホと同類の人類を助ける技術であり、危ないから止めろと言っても必ず誰かが開発して所有してしまいます

核兵器や銃なら「危険なものは所持するべきではない」という理屈で「皆で捨てる」という選択もできますが、「車で大量の兵器を輸送されるから捨てろ」とか、「スマホを犯罪組織が使うから捨てろ」と主張したとしても、便利な技術を捨てる選択は難しいでしょう。

そういう意味でも、OpenAIのような企業を中心に、「全ての人間が簡単に人工知能を手に入れられる社会作り」を目指すことが、人工知能社会を迎える上で本当に大切なことなのかもしれませんね。