WirelessWire News Philosophy of Safety and Security

by Category

言葉を操るAIが出てきたことで改めて問われる「考える」ことの意味

2021.03.15

Updated by Ryo Shimizu on March 15, 2021, 07:00 am JST

誤解を恐れずに言えば、筆者はAIが好きだ。

その未来に希望を抱いているし、それが必ず人の役に立つものであると信じている。実際、筆者の経営する会社では、AIの社会実装によって新たな価値を創造し、提供できているという自負もある。

しかし、やはりAIと言う言葉にロマンがありすぎるのか、AIにhype(誇大広告)はつきもののようになっている。
この状況には、専門家として常に警鐘を鳴らすことをやめるべきではないと思う。

AIの社会実装の現場にいる人間として、まず事実のみを述べれば、現状のAIに確実にできることは、(1)データの分析/分類/把握 (2)欠損した過去又は未来のデータの補完/予測 (3)複数の条件を満たす最適方策の探索 である。

データの分析/分類/把握は、たとえば画像から橋梁の欠損や劣化部分を見つけ出したり、わずかな質問から学生の隠れた苦手分野を探り出したりすることで、これはディープラーニングの登場で飛躍的に性能が向上し、一気に実用化された部分だ。

欠損した過去のデータの補完又は未成のデータの予測も、やはりディープラーニングによって性能が飛躍的に向上した。しかしこれはあくまでも線形的な予測にとどまることに注意しなければならない。これはあとでまた説明する。

最後の、複数の条件を満たす最適化方策の探索は、かつては強化学習という分野だったが、これもディープラーニングと結びついた深層強化学習と言う分野になり、飛躍的に性能が上がった。DeepMindのアルファ碁などが有名だが、当社ではこれをさまざまな資源配分計画の立案へと応用し、実用化している。

どの領域でもディープラーニングによって得られる恩恵は少なくない。
しかし、言ってしまえば、今できることはこの三つだけである。

筆者は、イーロン・マスクなどが出資するOpenAIと呼ばれる組織が開発したGPT(生成的事前学習トランスフォーマー)は、人間と同等以上の文章作成能力があると主張する、又はそのように解釈されるように報道されることがある。

しかし、「人間と同等以上の文章作成能力」をAIが得ることは今のところ考えられない。
もしもより正確に言うとすれば、「GPTによって生成された文章が、人間の書いた文章のように見える場合がある」ことならあり得る。

これは、前述した現代のAIが提供する三つの機能のうちの二つ目、つまり「欠損した過去のデータの補完または未来のデータの予測」に相当する。

GPTと共通する特徴を多く持つ、Googleが開発したBERTと言う手法では、たとえば「僕はりんごを食べる」と言う文章の一部を隠したり言葉を入れ替えたりして、「僕はXXXXを食べる」という文章を生成して元の状態がなんだったか復元するように学習する。

これだと、確かにそれっぽい単語を推定することはできるだろう。たとえば「僕はりんごを食べる」を復元することもできるだろうし、「僕はオレンジを食べる」を復元することもできるはずだ。けれども、どちらも事実とは全く無関係に推定されているだけなので、「を食べる」が続いて違和感のないような単語は全て推定されるようになってしまう。

これが「過去の欠損したデータの補完」である理由だ。そして「過去の欠損したデータの補完」と、「未来のデータの予測」はほとんど同じ機能である。

たとえば「昨日は5度だった。今日は6度だった。明日はXX度だろう」という言葉のXXを当てる、というタスクでは、未来のデータの予測を行なっているのと同じことになる。

当然、なんの脈絡もなく明日がいきなり30度にはならないだろうから、5度に戻るか7度に上がるか、どちらでも「それっぽい」と見做されれば良いことになってしまう。

BERTにしろGPTにしろ、やっていることはこうした「過去のデータの補完」と「未来のデータの予測」に過ぎない。この方法論では、不連続な変化は予測できない。たとえばビットコインがいつ暴落するか、又は暴騰するか、リーマンショックがいつ起きるか、コロナ禍がいつ発生するか、又は治るかといったことの予測に対しては全く無力である。

だからたとえばGPTでは、できるだけ大量のデータをできるだけ大きなネットワークに、できるだけ大量の計算資源を投入して学習させる。BERTであってもあまり変わらない。これを「スケールの法則」と呼び、この三つのパラメータが大きければ大きいほど比例して性能が上がると考えられている。

ところが、このやり方ではおそらくいつまで経っても「人間と同等の文章作成能力」は得られないであろうと言うのが、そもそも文章作成を生業とする筆者の感想だ。

なぜならば、人間による文章作成とは、「過去の欠損したデータの補完」でも「未来のデータの予測」でもないからだ。

「それっぽい文章」を作ることだけが目的ならば、ライターなどという仕事は元々成立しないのである。
もちろん、ライターの種類によっては、「それっぽい文章」を書くことだけを求められるケースもなくはない。

しかし、そんな風にして取り繕われた文章は、単体では決して価値を生み出さない。

それが実用書であれ技術書であれ、トンデモ本であれ全くのフィクションであれ、文筆家の頭の中で起きているプロセスを「忠実に」再現しない限り、価値のある文章を生成できるとは言えないのだ。

筆者は仕事として、また、研究の一環としてBERTやGPT、それによって生み出された成果に毎日のように接しているが、触れば触るほど、その思いが強くなっていくのを感じるのである。

これは、筆者のように、文筆業を生業とし、なおかつ研究者、エンジニアとして文章作成を行うAIを普段から扱わなければ決して分かり得ないことではないか。そう思ったのが本稿を敢えてしたためる気になった動機である。

というのも、文章生成AIに関わる人たちの多くは、本職の文筆家ではないのだ。それは、画像生成AIに関わる人の多くが本職の画家ではないのと同じである。

人は自分にないものを求めると言う本能を持っていて、それはAIの研究者とて例外ではない。文章が書けないから、文章の自動生成を研究テーマとするのであり、絵が描けないから画像の自動生成をテーマとするのだ。むしろそれ(絵を描く、文章を書くこと)が苦にならない人にとっては、そうしたテーマはあまりにも退屈すぎるのである。

筆者は、ライターと呼ばれる人種の中でも多筆な方であると自負している。それは筆者にとって、文章を書くことが全くストレスにならないどころか、日々感じたことを文章として残さないことの方がより大きなストレスになるからだ。

たとえば筆者は、どうしても書きたいから書いてしまったけれども状況を考えると決して公開できない原稿のストックというのが常にある。それがたとえばかつては日記とか呼ばれていたものかもしれない。

書くことは、生きることであり、筆者にとっては生きる目的そのものでもある。
したがって、書くことをやめて生きることが筆者には想像できない。

不思議なことに、ライターやジャーナリスト、ブロガーを名乗る人であっても、文章を書くのが苦痛である、という人によく出会う。
苦痛なのだったら、やらなければいいのではないかと思うのだが、苦痛ではあってもやりたいからやってるのだ、と彼らは主張する。
そういう人にとっては、自分に代わって原稿を書いてくれるAIの出現は夢の実現そのものなのかもしれない。

逆に言うと、筆者にとって書くことは非常に自然なことだったので、(今の技術の延長では絶対に不可能だが)たとえAIが僕が書くのと同じレベルの原稿を書けるようになったとしても、書くことをやめられないだろう。

それでも筆者が「文章を生成するAI」に興味を持つ理由の半分は、「どうせダメなのだろうが、どこがどうダメなのかきちんと確かめてみたい」と言う少し意地悪な興味からだ。そしてもう半分は、「商売人として、どうすれば役立てるようにできるか知りたい」と言う前向きなものもある。

筆者がプロの文筆家として、現状のGPTやBERTなどの文章を生成するAIの「どこがどうダメなのか」を端的に言えば、「人間が文章を作成するプロセスを履き違えている/無視している」ことに起因する。

人間は、決して「過去の文章の一部を復元するように」文章を作成しない。当たり前である。
しかし文章を普段から書くことに慣れてない人にとっては、これ自体がよくわからない。

たとえば、論文を書こうとするとき、むしろ論文調の文書を書こうとしなければならないので、実は意外と「過去に読んだ論文の文章に自分の言いたいことを当てはめて書く」ことが多い。

BERTの発想はもしかしたら普段から論文を読んだり書いたりしている人がこんなプロセスから着想したのかもしれないが、それで「BERTで論文が生成できる」と主張したら、やはり怒り始めるだろう。論文の作成プロセスは確かにそう言う性質があるかもしれないが、それは最後の最後の上澄みの部分であって、本質的には研究そのものが前提にあって、それをコミュニケーションのために言葉(論文)に落とし込む時にしか発生しないプロセスだからだ。

つまり、これまでは「文章を書く」ことが「考える」こととある程度同一視されていたが、この二つは全く別の思考プロセスであることがそれっぽい文章を生成するAIによって見直されるかもしれない。

筆者にとって、確かに最後の最後の過程で、「過去に読んだそれっぽい文章に自分の考えを当てはめて」書いている可能性はある。実際、あるときは意識的に「昔の海外SFの邦訳のような文体」とか、「昔の南青山秘密情報部っぽい文体」とか、「遠藤諭の近代プログラマの夕っぽい文体」を使い分けているからだ。そもそもWirelessWire用の文体とか、個人ブログ用の文体とか、Facebook用の文体ですら微妙に使い分けている。

これをあまりにも大量に繰り返した結果、どれがどれやら意識に昇らなくなり、自分の文体になっていくのだが、面白いことに、文体が自分の文体であっても、自分らしい文章にはならないのである。

これは実際に自分が過去に書いた20年分の原稿をGPTに転移学習(ファインチューニング)させて生成した結果思ったことだが、書かれている内容が妙に青臭かったり、言葉の選び方は似ていても、言葉そのものが古臭かったりして、とても「自分の新作」として発表できるようなものが出てこないのだ。

こうして出てきた文章に足りないのは「考え」である。

また別の話で、たとえば筆者が講演したり、僕らしい(と読者が思う)記事を書いたりすると、「清水節」が云々と言われることがある。

ところが自動生成では決してこの「清水節」と呼ばれる特徴は出てこない。

もしも「清水節」が機械的に生成可能なものならば、あらゆる文章をルールベースの置換で「清水節」に変換できるはずだが、実際に挑戦してみた結果、ちっとも筆者らしい文章にはならなかったのである。

その理由は、たとえばなんでもいいのだが、何かテーマを投げられた時に、何を返すか、と言うところに著者の人間性というか本当の人格が表現されるので、たとえば「りんご」という言葉を投げかけられた時に、「赤い果物」と返せばただの辞書になる。書いたことはないが、自分が辞書を書くときは、辞書っぽい文体で辞書っぽいことを書くだろう。しかし、自分のブログで「りんご」というテーマを投げかけられたならば、こう書くだろう。

「日本のリンゴが赤いのは、一つ一つ日光に当たるように、人が手で回しているからだ、と東大の松尾豊先生に聞いたことがある。先生によれば、AIを搭載したロボットがあれば、ヨーロッパのリンゴだって赤くできる。世界中のリンゴを赤くできる可能性があるんです、というのだ。」

つまり、個人の体験と紐づいた文章になる。これはどんなキーワードやテーマを与えられても、個人の経験と結びついたものでなければ意味がないと思われるからだ。

しかし先ほど指摘したように、個人の経験というのは限られているので個人の経験だけで文章を書こうとするとすぐに枯渇してしまう。これが俗にいう「ネタ切れ」という状態だ。

2003年にブログブームが来たときに、色々な人からこう言われた。

「自分もブログを書き始めたけど、すぐにネタが切れてしまう。どうすれば毎日あれだけの文章量を書けるんですか」

筆者は1997年頃からWeb日記を書いているが、その時にも当時の教え子から同じことを聞かれて、こう答えている。

「面白い人生を生きなさい。ネタを探しに行きなさい。そしてもっと考えなさい」

このうち、一番大事なのは最後の部分、「もっと考える」というところだということに気づいたのは、つい最近のことだった。
それまで筆者にとって、「考えること」はあまりにも当たり前のことだったので気づかなかったのだが、GPTのあまりにも残念な出力を見て、「考えること」の大切さに気づいてたのだ。

「考える」というのは、基本的に頭の中で行うことだ。
自分に問いかけ、答えを出すことである。

しかし、それだけでは考えを錬成することはできない。

考えを錬成するには、文章にして、人に読ませ、意見を聞き、何よりも自分自身で自分の書いた文章を繰り返し読み返して、それが本当に自分の本心なのか、過去のある時点での自分の考えが、過去からみた未来の現在からみても正しいか、同じか、同じでないか、ということを繰り返さなくてはならない。

つまり、考えるとは、文章を書き、読み返し、議論し、また文章を書くことのセットなのだ。

文章を書く起点は個人的な経験であったとしても、考えて、書いて、読み返して、議論して、また書くというプロセスは、それを繰り返した人だけが得られるものである。ボディビルダーの隆々とした筋肉が、日々のトレーニングとストイックな食生活の積み重ねを経ないと獲得できないのと同じように、考えの錬成というのは、体験して、考えて、書いて、読み返して、議論して、また書いて、の繰り返しでしか得られない。

GPTやBERTは筆者の文章を20年分読んだとしても、それを見て、何かを感じて、自分の考えを書くということが一切できない。それらに可能なことは、「それっぽい言葉を埋める」だけだ。

そんな「モノ」が我々文筆家の書く文章と同等以上の作品が生み出せるはずはないのである。
簡単に言えば、GPTもBERTも、「考えが足りない」のである。

考えが足りない人/モノの文章は読むに耐えない。だからネタ切れを起こす。GPT/BERTに至っては最初からネタすら持っていない。

反対に、常に考えている人にとって、ネタは切れることがない。淀みなく湧き出る泉のように、次々とアイデアが浮かびネタが出てくるのが売文屋というものだろう。なぜなら考えを深めるプロセスそのものが文章を書くという行為を含むからだ。

ある意味で、筆者がAIに強く惹かれるのは、それがあまりにもネタの宝庫だからかもしれない。
常に考えるネタを提供してくれる打ち出の小槌のような存在であり、それが間違っていてもいなくても考えるネタになる。
そして筆者にとって、考えることとは生きることであり、生きることとは書くことだ。書くために考え、考えるために書く。
その繰り返しのお供として、AIの存在は実に興味深いものがある。

しかし実際にAIを興味深くしているのは、AIそのものではなく、それに関わる人たち、世界中の研究者、ビジネスマン、クリエイターたちのイマジネーションであり、彼らの「考え」である。

そして他人の「考え」を最もわかりやすく表現できるのがプログラムであり、手っ取り早く理解に近くためには、他人が書いたプログラムを自分で改造しながら覚えていくのが一番だ。プログラミングも、まさしく考え、書き、議論するプロセスの渦中にあるため、自分は強く惹きつけられるのだろう。

つまりプログラマーとしての自分、研究者としての自分、文筆家としての自分が、全て一つに繋がっているからこそ、自分はAIに惹かれるのだろう。

WirelessWire Weekly

おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)

登録はこちら

清水 亮(しみず・りょう)

新潟県長岡市生まれ。プログラマーとして世界を放浪した末、 '17年にソニーCSLとWiL LLC.とともにギリア株式会社を設立し、「ヒトとAIの共生環境」の構築に情熱を捧げる。 '17年より東京大学先端科学技術研究センター客員研究員を兼務。著書として「教養としてのプログラミング入門(中央公論社)」「よくわかる人工知能 (KADOKAWA)」「プログラミングバカ一代(晶文社)」など。

RELATED TAG