ChatGPTが流行り過ぎている。
来週にはGPT-4が出るという話になっていて、しかもGPT-3は1750億パラメータであるのに対し、GPT-4は100兆パラメータと言われている。
普通に考えて単位が桁違いにおかしいのだが、そもそもそんなに巨大なニューラルネットワークが学習できてしまったことも驚きだが、実用的に使うためには信じられないくらい大規模な機械が必要になる。
まだ出てもいないGPT-4を警戒しても仕方ないので、むしろGPT-4が出る前の今のタイミングだからこそ、敢えて「ChatGPTブームの終わりは近い」と予測してみたい。
なぜか?
第一に、ChatGPTは、簡単に使え過ぎてしまう。
朝思いついて昼には新しいアプリができてしまう。
筆者もChatGPTに絡めたアプリを二つほど作った。一つは、ゲンロンという本を読んで質問に答えるAIであり、もう一つは、ブロックを組み合わせてChatGPTに寸劇を作らせるアプリだ。どちらも開発期間は3時間程度だった。
[youtube https://www.youtube.com/watch?v=BDoBRjqdOwY&w=560&h=315]
[youtube https://www.youtube.com/watch?v=SBmgYW23k4w&w=560&h=315]
これだけ簡単だから、筆者のような個人開発者ではなくて少し大きめの会社でも、たとえばnoteのような上場企業や、SlackやSalesforceのような会社も、個人よりはかなり遅いが、それでもかなり簡単にChatGPTを自社のサービスに組みこめてしまう。
ということはどういうことかというと、ChatGPTを使う「だけ」では全く差別化にならないのである。
ふつう、新技術というのはもっとずっと参入障壁が高い。
特殊なスキルや知識、ノウハウがなければ参入できないのが普通である。
筆者は、古くはリアルタイム3Dグラフィックス、Webサービス、携帯電話、携帯電話向けアプリ、スマートフォン、ディープラーニングというように、「最先端であるが故に参入障壁が高い」技術を追いかけてきた。
ディープラーニングなどは、今となってはかなり簡単だが、流行り始めた当時は「何に使うの?」「どうやって使うの?」という状態だったし、そもそもディープラーニングに使うためのOSや開発環境を整えるのが大変で、筆者は一時期それをビジネスにしていたくらいである。
ところが、ChatGPT、およびGPT-3(GPT-3.5-Turbo)に関しては、参入が簡単すぎる。
なぜ簡単なのかというと、結局、どんなサービスにも大なり小なり文章を入力したり会話が絡む部分があるので、新しいインターフェースを作らなくても、すぐに導入できてしまう。難しいバグを治すよりもChatGPTを導入するほうが遥かに簡単なので、猫も杓子もGPTを自社のサービスに埋め込むのに必死である。
実際、いくつかは非常に大きな成果をあげたりもしている。
しかし、いざそれらが組み込まれたサービスを使って見た人が、劇的に何かが変わったとか生産性があがったという話は聞こえてこない。
たとえばnoteにはGPTによるAIアシスタント機能がついたが、筆者は2回くらいしか起動していない。
なぜかというと、そもそも筆者のように長年、文章を書く仕事をしている人間にとっては、AIに文章作成をアシストしてもらう必要はぜんぜんないからである。
むしろAIのアシストが入ると邪魔でしかない。note社はけっこうな出費を覚悟してこの機能を導入したはずだが、おそらく蓋を開けてみれば、「こんなの毎日使う人いないだろ」ということがわかっていたのかもしれない。つまり一時的な宣伝効果をねらったのであって、これの導入により作文作業が劇的に効率化するとは考えてないのではないだろうか。
Slackのスレッドを自動的に要約してくれる機能は一見すると便利そうなのだが、今までSlackのスレッドを要約するなんて仕事を誰かしていたのだろうか。少なくとも筆者の身の回りでSlackのスレッドを要約する業務をしている人は見たことがない。
ということは、そもそも人間すら必要としなかった作業をAIが(お金をとって)代行してくれたところで、あまり意味はない。
今のChatGPTとそれを組み込んだサービスのムーブメントは、「どんなもんだろう」と興味本位でやってくる人が8割、9割で、まじめにそれを実用的なツールとして使いこなそうとしている人はいないのではないか。
行ってみれば、「ChatGPT」という壮大な釣り針が垂らされている状況なのではないだろうか。
実際、ChatGPTをうまく使える人というのは、クリエイターやライターなどが圧倒的に多い。
こういう人たちにとっては、ChatGPTはある種のペインを解決してくれる。
そして面白いことに、ChatGPTの使いこなし方も、クリエイターとしての能力が高い人のほうがうまく使えている。
本来、AIは知力や才能の差を埋めるものだが、ChatGPTに関して言えば、クリエイターの能力の差をより広げるものになっている。
先日、とある週刊連載漫画家と池袋で飲んでいた時、彼はAIにあんまり明るくないのだが、こんなことを言っていた。
「AIに作画されるってのは、まだまだド下手だと思うけれども、そのうち上手くなっちゃうでしょ。これは時間の問題でね。だけどさ、もしもそうなったら、俺は漫画家じゃなくて漫画原作者になりたいよ。描きたい漫画、いっぱいあるから。自分で絵まで描いてると描ききれないくらいアイデアがあるからさ」
まさに、才能がある人にとって、AIは福音としか呼べないものなのだ。
有名な漫画編集者の佐渡島さんも、ChatGPTにあらすじを考えさせるとだいぶ面白い、そのまま使えるようなものが出てくると言っていたが、筆者が自分で試しても、ぜんぜん面白いあらすじは出てこなかった。面白いあらすじが出てこなくても、うまく使えばChatGPTの出したあらすじをもとにもっと面白い話を作ることができるが、佐渡島さんクラスになると最初からおもしろいあらすじを出せるようになるらしい。
つまりこれは結局のところ、使う人の想像力の差なのである。
もしも使う人の想像力の差が、ChatGPT、およびそれに続く何かに依存するとすれば、これはもう、世の中の大多数の人にとってAIはあってもなくても関係ないものということになってしまう。
たとえば、佐渡島さんクラスの人がChatGPTを使いこなし、尾田栄一郎クラスの人がStableDiffusionを使いこなすようになると、それ以外の普通の人たちは結局最初から対抗できなくなる。その差は何万倍にもなる。
誰だって、どこかの素人がAIに描かせた微妙な漫画より、トップクラスの漫画家がAIで量産する「めちゃくちゃ面白い漫画」が読みたいでしょう?
たとえば、ワンピースが毎月1巻ずつ発売されるような状況で、さらにワンピースと同じくらい面白いものが同じスピードで同時に100シリーズくらい始まったら、素人の描いたAI漫画なんか入り込む隙はなくなってしまう。
こうした使い方が、AIをアシスタントとしてネタ出しさせるとか、Slackの議事録を要約するとかと根本的に違う使い方なのに気づいただろうか?
同じ技術の同じような使い方でありながら、方向性が真逆なのである。
漫画家が自分の漫画を「早く、綺麗に」仕上げるためにAIを使役するという構図は容易に想像できる。
しかし、これまでは新入社員がやっていたような、「議事録を取る」「要約する」「ネタだしをする」という作業は、そもそも相手が知的レベルが高い存在であることを期待して頼む作業ではない(だから新人がやっていたわけで)。
そして、「議事録をとる」には、議事録をとる、という単純作業からは直接見えないもっと重要な役割が二つある。
ひとつは、エビデンスを残すこと。これはあとで契約関係で揉めた時に必ず必要になる。でもエビデンスを残すだけならZOOM会議の録画データがあればよく、不確かな音声認識された記録「だけ」を残すことは考えにくい。数字一つ、単位ひとつ間違えただけで裁判で大変不利になるからだ。だから本当に重要なものは結局は議事録に残すというよりも、契約書やメールといったエビデンスの残る形で残すのが通例である。
もうひとつは、新入社員が議事録を書くという行為を通じて、「仕事のながれを覚える」というものだ。
そもそも議事録のフォーマットが細かく決まっている会社は少ない(大企業ならあるのだろうか?僕はついぞ知らない)。
そして、議事録をその場にいる一番偉い人が作る会社というのはまず見たことがない。
ということは、議事録というのは、新入社員や若手社員が創意工夫を凝らして作るものである。これを要約しようがどうしようが、その要約を見る人はまずいない。
要約だけ見て「何、議事録ではこう書いてあるのに相手は違うことをしてるのか、よし、裁判だ」と判断するような迂闊な人はいない。かならず議事録のオリジナルや契約書を確認するはずである。
議事録の要約という仕事は、いわば新人教育の一環であり、要約されたものを見て、「うむ。君はちゃんと会議の内容を理解してるな」と確認するためのものなのである。
ChatGPTの功績は、「AIは賢そうに見えても堂々と嘘をつくから相応に疑いの目で見るべきだ」ということを広く知らしめてくれたことで、こうなると益々、ChatGPTによる要約を見て「それでよし」と考えるのは危険な考え方ということになるだろう。
これがGPT4になると、急に信じられるやつになるのか、と言うとそれもかなり疑問だ。
GPT3より前のGPT2について思い出してみよう。
GPT2は、パラメータ数15億のモデルだった。
しかし当時はこれでも「精巧なフェイクニュースを作れるためあまりにも危険」と主張されていたのである。
GPT3の一番大きなモデルはその100倍以上大きい1750億だが、GPT2とGPT3の解答の差に100倍の信頼性の差があるかというと全く別問題だ。
もちろん大きい方がよりそれらしい回答を出すのだが、GPT4はGPT3に比べてマシであることはおそらく間違いないが、本当に100倍賢いかどうかは注意深く判断する必要がある。
GPT2による文章作成でもずいぶんたくさんの人が驚いていたことを考えると、GPT3になった2020年(そう、もう三年も前だ)の時は、すぐにAPIが解放されたわけでもないのでそこまで話題にならなかった。
GPT3よりもGPT3.5のほうが出来が良いことはわかっているが、そこまで大きな差があるようにはどうしても思えない。
それよりもむしろGPTシリーズは扱えるシーケンスの長さが固定されているので長い会話が成立しにくくなることの方が不安である。
GPTがあくまでも「Transformer」である限り、パラメータ数が増えようとシーケンスが伸ばせなければあまり意味がない。
計算量がO(N*N)のTransformerにかわりHyenaという、O(N*logN)で済むアーキテクチャも出てきた。
Hyenaは同じサイズのGPTモデルと匹敵する精度でありながら100倍高速だという。しかもシーケンス長が長くなればなるほど速度差は開いていく。
今後は高速性も大事になってくるが、GPT-3.5とGPT-4の違いが、コストに見合うほどの違いになるかどうかは見ものだと思う。
パラメータを増やせばいいというものではないというのは、たとえばStableDiffusionを見るとわかる。
パラメータ数を増やし、大きくしてさらに学習を重ねたSD2.0は却って退化した部分もあり、今はSD1.5を自分のデータでファインチューニングしたり、LoRAなどの技術と組み合わせたりする方が狙い通りの絵が出しやすいことが知られている。
大企業にとって、規模の差がそのまま性能の差になるような"ゲーム"は戦いやすいが、実効性がアイデアの差異化という話になるととたんに大企業は不利になる。
日本のように、漫画家やそのほかのクリエイターが、独立した個人として立っていて、アイデアひとつで巨万の富を生み出すようなビジネスのやり方は世界的にも特殊である。ヒット作が現れるプロセスは大企業であっても完全にはコントロールできず、天才と呼ばれる漫画家でも同じ人間がヒットを連続させることは極めて難しい。
こういう勝負になると規模の経済が通用しなくなるので、特に大企業のような仕組み・・・誰が指揮を取っても安定的に成長するような仕組み・・・では太刀打ちできないということになる。
簡単に言えば、佐渡島さんがAIを使って作る漫画は次のワンピース並みのヒットになる可能性はあるが、普通の人がnoteのAIアシスタント機能によって作られた文章が、次の大ヒット作品になる見込みは全くないということだ。
結局、クリエイターの「個の力」が何百倍にも増幅されるだけなので、クリエイターはAIをおそれるのをやめていち早く「どう使えば自分が楽をできるか」を考えるように舵を切った方がいい。
大丈夫。計算規模が100倍になっても、クリエイターの魂にAIは絶対勝てない。
同じ技術を同じように使っても、生み出されるものの質に根本的な違いがあると言うのは、まさにクリエイターの存在意義そのものである。
手塚治虫だって紙とペンだけから巨万の富を産み、時代を造った。
他の多くの漫画家も同様だ。
紙とペンは誰でも使える。
だからこそ、そこから巨万の富を産むにはとてつもないクリエイティビティが必要なのである。
その領域にAIが踏み込むことは、まだしばらくは難しいだろう。
少なくともTransformerだけでは無理だ。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちら新潟県長岡市生まれ。1990年代よりプログラマーとしてゲーム業界、モバイル業界などで数社の立ち上げに関わる。現在も現役のプログラマーとして日夜AI開発に情熱を捧げている。