7月26日、幻冬社新書から「教養としての生成AI」が発売された。教養シリーズである。
3月ごろはほぼ毎日執筆依頼が来てAIの研究をする時間が削られるなど本末転倒なことが起きていた。ようやく今回の「教養としての生成AI」と、来月の「検索から生成へ」でひと段落する。他にも大量に来ていたが、時間が勿体無いので断った。
幻冬社は新聞広告を打つらしい。果たして、いまどき新聞広告で本は売れるのか?しかし僕は本のプロではないので、プロがそう思うんだからそこはお任せするとしよう。
お任せするといえば、この本も次の本も、ChatGPTがほとんど書いた。
従って、執筆時間は10時間ほどで、そのうち半分はChatGPTを使って僕が書いたプログラムが、インターネットを検索して情報を拾ってきて集約し、本の形にしていくという形式で行われた。
ただし、試行錯誤もあってChatGPTのAPI利用料は10万円ほど掛かった。これを高いと見るか、優秀なアシスタントへの支払いと考えたら安いと見るかは人次第だ。まあ僕は安いと思う。
ChatGPTを使って本を書く、もしくはChatGPTによって書かれた本を読んだ人はどのような感想を抱くのか。正直反応を見るのが怖い。
今のところ、評判は上々のようだが、僕としてはどこか他人の仕事のようにも感じている部分がある。簡単に言うと、この本に愛着を持てない。
というか、ここ数年の僕は、そもそも自分自身への興味を失ってしまっていて、自分の本を読み返すこともなくなった。
昔は、自分の本を読み返すのが好きだった。読み返すから精度が上がり、もっと良い本を書こうと思えたのだが、やはり前回、ゼロから新刊を書いたのがもう10年近く前なので、10年もすれば自分の本に飽きるのは当然であるのかもしれない。
というか、興味の対象が完全にAIになり、AIに関するニュースをほぼ毎日紹介する「デイリーAIニュース」という有料番組をやっているだけでお腹いっぱいなのだ。これ以外に、AI関連のプロジェクトをいくつか個人でやっているが、これはギャラが出るまでのタイムラグがかなりある。
今のところ言えるのは、AIのほうが人間個人よりずっと面白いということだ。
人間の生み出すものは限界がある。なんなら人間が生み出すものは遅い。
AIは速い。
学会への興味も薄れてきた。少なくともAIに関しては、学会発表を待っていては何も間に合わない。
(他の学会は知らないが)AI関連の学会には、SOTAという考え方がある。State Of The Art、Google翻訳では「最先端」と訳される。簡単にいえば、「その時点で世界最高の性能」を持つことを意味する。
AI関係の学会論文は、考案された手法をあるベンチマークにかけたときに、SOTAを達成しているかどうかが重視される。
ただ、その考え方で評価した結果、Transformerの最初の論文はRejectされた。Transformerの最初の論文「Attention is All You Need」は、今や伝説的な論文だが、概念は野心的だが、SOTAであるかどうかの主張が弱い。SOTAも、分野によってその時々で重視される分野とされない分野があり、Transformer論文で用いられていたベンチマークは、英仏翻訳という、その時点で少し寂れたテーマだった。
SOTAに価値を認めるためには、「みんなが目指している目標」に即しているのが理想的だ。誰もが見向きもしないベンチマークで高得点をとったとしても、それはその手法が優れているのか、それともハードウェアの自然な進歩によって達成されたのか、はたまた偶然そうなったかはわからないからだ。
しかも、廃れた分野でわずか1%改善されただけという結果を見せられても判断に困るワケだ。
ただ、これを書いたのがGoogleの研究者だったため、Googleは自社のブログで論文を公開し、少し話題になった。
僕も発表当時この論文を読んだことを覚えているが、「主張されていることがもしも本当ならば、とんでもないことになるはずだが、いまいちベンチマーク結果を見ても画期的かどうかがよくわからない」という感想だった。実装が公開されていないこともマイナスだった。AIは論文に主張されていることが本当であるかどうかを確認できないと、それは寝言と解釈されても仕方がない。そして、言葉だけ勇ましい論文は世界中のあちこちに出ているのである。いちいち全部まともに受け取っていたら時間がいくらあっても足りない。
そこでGoogleは、一年後にBERTという誰が見ても文句が言えない「事前訓練済み」モデルを公開した。
そのことでTransformerは再評価され、一度リジェクトした学会でもオーラルで発表できることになった。NeurIPSのオーラルはめちゃめちゃ数が少なく、全発表の3%くらいしかないため、どれだけ凄いことかわかる。僕は幸運にも、この年のNeurIPSでTransformerとBERTの発表を生で聞くことができた。。
この技術の成れの果てが、ChatGPTである。
GPTのTはTransformerだ。
今回気づいたのは、「本を書く上で最大の障害」になっていたことが、実はタイピングだったということ。
商業ルートに乗る本は必ず最低8万字から10万字書かなくてはならないという暗黙の了解がある。
これがあまりにも困難なため、同人誌は分厚くすることができず、ゆえに「薄い本」と呼ばれる。
ただ、何が大変なのかといえば、最低10万回キーをタイプすることだ。ローマ字ならば18万回くらいは打たなければならないかもしれない。
僕はかな入力なので、最高スピードなら一分間に200字くらいは打てる。ただこれはタイピングソフトの話で、かな漢字変換を考慮に入れると、いつもの原稿を書くペースだと、一時間でだいたい3000〜7000字くらいは打てる。
一時間で5000字だとすると、10万字に達するのは20時間ということになる。
ここまで書いて合点が言ったが、実は僕は2002年に眠らずに20時間で一冊書き上げたことがある。
計算上も一致するのは少し面白い。
この時は自分の経験をもとに書いたので、つまり書くべき情報が全て自分の頭の中にあったのでフルスピードでタイプするだけだった。
しかし、フルスピードでも20時間かかる仕事というのは並大抵のものではない。
ところが、ChatGPTを使うと、タイプする絶対数が減る。
本を書くのに20時間かかるとしても、実は読むのは一時間で済む。
すると、ChatGPTがいろいろ調べたりしながら5時間で書き上げた原稿を、僕は一時間かけてまず読み、次に4時間かけて足りない部分を補ったりすればいいことになる。
その後、さらに上からリライトをかけたりしても、ほとんど完成した文章がそこにあるので、キーボードをタイプする数はわずかな時間で済む。
もちろん初稿が10時間でできたという話なだけで、そのあと、再稿や念縞といった段階を減るので、10時間で出版可能な状態になるわけではないが、それでもだいぶ楽ではないだろうか。
楽だったために、というわけでもないだろうが、僕はあんまりこの本を「自分が書いた」という気がしない。しかし読み返してみると、やはり自分の本である。不思議な体験だ。
4時間からタイプ数を逆算すると、2万字くらいだ。2万字の原稿くらいなら、僕はnoteで日常的に書いている。
この手の商業媒体の場合、あまり長いと嫌がられる。読者はそんなに早く読めないからだ。
だから最近は3000字くらいをひとつの目安として原稿にすることにしている。僕からすると、3000字は少し短すぎるのだが、媒体からするとそれくらいがちょうどいいらしい。
ChatGPTを今回どのように使ったかと言えば、IMEが一番近い。
IME、インプットメソッドエディター、つまり、みなさんが普段使っているフリック入力やローマ字かな漢字変換を実現するソフトだ。
いずれ遠くない未来にIMEとLLMは統合されるだろう。というかとっくにそうなるべきなのである。
最近は音声認識の精度も段違いに良くなってきたから、口述筆記との組み合わせもありかもしれない。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちら新潟県長岡市生まれ。1990年代よりプログラマーとしてゲーム業界、モバイル業界などで数社の立ち上げに関わる。現在も現役のプログラマーとして日夜AI開発に情熱を捧げている。