MetaがオープンソースのGPT-3級自然言語AIを公開。AI分野でのGAFAMの激突
2022.05.09
Updated by Ryo Shimizu on May 9, 2022, 11:00 am JST
2022.05.09
Updated by Ryo Shimizu on May 9, 2022, 11:00 am JST
イーロン・マスクが出資するOpenAIは、世界で最も注目すべきAI研究所の一つである。
OpenAIの成果はめざましく、強化学習を容易にするOpenAI Gymで世界に大きく貢献し、人間並の著述能力を持つ自然言語AIであるGPT-3をいち早く開発・発表して世界を驚かせ、GPT-3(GPTはGeneral Pre-trained Transformers、事前訓練済み変換モデルの意味)の応用として、言葉から自在に絵を作り出すDALL-Eを昨年に、さらに高精細な絵を描くことができるDALL-E2を今年の1月に相次いで発表した。
ただし、OpenAIの態度には不満を抱く研究者が少なくなかった。
というのも、OpenAIは、GPT-3を作った段階で、「これはあまりにも危険すぎる」と判断し、GPT-3の一般公開を拒否し、代わりにAPI(プログラムやWebブラウザなどから間接的にサービスを利用する方法)のみを一部有料で提供するという方針に切り替えた。また、DALL-Eは発表から一年を過ぎても完全には公開されず、痺れを切らした世界中の有志がDALL-Eクローンを作ろうという試みを繰り返している。同様に、DALL-E2のクローンも早速取り掛かっているようだ。
ただ、こうした取り組みはあくまでも追試験的なものであり、OpenAIがDALL-EやGPT-3をオープンソースにしていれば世界中の研究者たちはもっと手っ取り早く結論に達しただろう。
また、GPT-3もDALL-EもAIの規模が大き過ぎて小さな組織が単独で学習させるには手に余るのが現状だ。
ではなぜOpenAIがGPT-3やDALL-Eをオープンソース化しないのかというと、おそらくはOpenAIが「危険だ」と考えている価値観に原因がある。
GPT-3は人間でも驚くような文章を出力するが、それは単にネット上にある文章を大量に学習したにすぎず、社会的・文化的に不適切な発言を出力してしまう可能性がある。
また、どんな絵でも描けてしまうDALL-Eは、簡単に不適切・不謹慎な絵を、しかも写真のように描き出してしまう。
OpenAIとしては、それが原因で自分達の研究や存在意義が社会的な批判を浴びないように注意深く「健全化」してきた。
たとえば、DALL-EではないがOpenAIが公開した絵を描く他のAIは、人間を描かせようとすると全て鳥に変換されるような「健全化」が施されている。
OpenAIは批判を避けるためのやむを得ない措置としている。しかし、もともと非営利団体としてスタートしたOpenAI LPが、やがてマイクロソフトの出資を受けて営利団体のOpenAI Inc.の子会社となったことで、当初は「研究成果をオープンにする」と掲げていた目標が営利目的のために変節した結果、オープンソース化を限定的なものにするという行動につながったと考えられる。
今回、Facebookを傘下にもつマーク・ザッカーバーグの企業Metaは、新たにGPT-3相当の「危険さを含む」自然言語AIであるOPT(Open Pre-trained Transformers;オープン事前学習モデル)をオープンソースで公開したのは、そういう状況に対する対抗策でもある。ただし、OPTも完全に自由なソフトウェアというわけではなく、オープンではあるが非営利目的に限定されている。それでも大きな進歩だ。
Facebook AI Research(FAIRと呼ばれる)は、数々の研究成果をオープンソース化してきた実績があり、Google傘下のDeepMind、Microsoft傘下のOpenAIと対抗し得る数少ない研究所でもある。
特にGPT-3級の巨大なAIモデル(人工知能の本体)を学習させるためには、スーパーコンピュータ並の環境が必要であり、この分野での最先端の研究を行うにはまずスーパーコンピュータやデータセンターに相当するものから作らなければならない。それだけでこの分野がいかに設備投資が大切か伺えるだろう。日本国内でもGPT-3級の日本語・韓国語対応の自然言語AIを作る試みがLINE社で行われている。LINEくらいの規模がないとこの手の研究には手が出せない、というのが実際のところだ。
いわば、MicrosoftのGPT-3に対するMetaのOPTはGAFAMの代理戦争勃発の兆しであり、これまで直接的に衝突して来ず、どちらかといえば持ちつ持たれつだったAI研究分野で二強が正反対の政策を打ち出したのは興味深い。
学習には設備だけでなくそれを動かす大量の電力も必要で、何より今回Metaが公開した学習過程の詳しいログは、これからこの手の大規模自然言語AIを研究する研究者たちにとって非常に有用な参考資料になる。
AIをめぐる争いというのは、結局のところ、優秀な人の奪い合いに終始する。
GoogleもFacebook(Meta)もMicrosoftも、優秀なAI研究者やエンジニアをなんとか自社に招こうと躍起になっているが、その方法として、大きく二つある。
一つは、Microsoft傘下のOpenAIのように「卓越した研究成果を発表する」ことだ。卓越した研究成果を持つ会社に優秀なAI研究者が心惹かれるのは当然のことだ。
しかしもっと効果的なのは、「人工知能研究者コミュニティに貢献し、尊敬を集める」という方法である。
今回、Metaが行ったのはまさに後者の方法で、Meta傘下の研究所であるFAIRは、その名の如くフェアで、オープンな環境を自社の研究者に提供するというメッセージになっている。
研究者にとって、論文を発表することも大切だが、もっと大切なのはアカデミックコミュニティで尊敬を集めることだ。
一人一人の研究者のキャリアを考えたら、自社で発明された技術や理論はどんどんオープンソースにして公開して行った方が良い。
オープンソースになれば、ソースが引用される数は飛躍的に増える。
OpenAIが部分的にしか公開しないので有志によるGPTやDALL-Eクローンの開発計画が立ち上がるという、いわば世界的な意味での「二度手間」が発生してしまっている理由は、OpenAIが営利企業としての顔も持ち始めたからであろう。
もちろん研究はタダではできない。特にGPT-3規模の研究となれば何十億円という投資が必要で、投資を回収しようと思えば有料APIによる提供を前提としてノウハウの根幹であるソースコードや学習方法などは秘中の秘にしておきたいという事情も理解できる。ただ、OpenAIはAPIのみで提供する理由を「危険すぎるから」というかなり曖昧な定義にしている。
Microsoft傘下であるOpenAIの方針は営利企業としては当然だが、Meta社はその態度に厳然とノーを突きつけた格好になる。
「危険すぎる」かどうかはあくまでも使う側の良心に委ねるべきだというのがMeta社の考え方だろう。
それよりも、卓越した研究成果を誰もが自由に素早く使うことができるような環境にし、車輪の再発明を行わなくても済むようにして人類をもっと前進させるべきという明確なメッセージを感じる。
余談だが、Google傘下のDeepMindは、その点、非常にバランスが取れている。
アルファ碁やアルファフォールドなど、さまざまな分野で卓越した成果を示して羨望の的となりつつ、必要に応じてアルゴリズムを論文やソースコードの形で公開することで研究者コミュニティに直接的な貢献をしている。
もちろんDeepMindそのものはそれで利益を得るわけではないが、DeepMindを悪くいう研究者は世界に一人もいない。
この状況は、マイクロコンピュータ黎明期に、まだ若かった頃のビル・ゲイツがホビー雑誌に掲載した「ホビイストへの手紙」を思い出させる。
マイクロソフトのWindowsはある時期、世界を席巻したが、Webの時代になるとオープンソースのLinuxに勝てなくなった。
かつてプログラミング言語は数万円から数十万円するのが当たり前だったが、今はオープンソースで無料なのが当たり前になった。
無料だから良いとか、無料であるべきだという話ではない。
コミュニティを味方につけることができるかどうかが技術戦略のロジスティクスにおいて最も重要なことなのである。
コミュニティが強ければ強いほど、出来上がるソフトウェアの品質は飛躍的に高まることはよく知られている。
オープンソースコミュニティは、人類が生み出した最も強力な組織形態の一つである。
今のところ、そこにOpenAIは背を向けたとは言えないまでも、少し遠ざかり、Metaは少なくともこの件に関してオープンソースコミュニティに全面的に貢献することにした。
これが最終的にどういう結果になるのか、まだ誰にも分からないが、これまで一度も正面から衝突して来なかったAI技術に対する政策の違いが、二社の未来をどう左右していくか、業界はどう動くかは一見の価値がある。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちら新潟県長岡市生まれ。1990年代よりプログラマーとしてゲーム業界、モバイル業界などで数社の立ち上げに関わる。現在も現役のプログラマーとして日夜AI開発に情熱を捧げている。