WirelessWire News Philosophy of Safety and Security

by Category

チャットボット イメージ

チャットボットの憂鬱

2020.11.11

Updated by Ryo Shimizu on November 11, 2020, 19:13 pm JST

実は筆者は四年ほど前から、毎月AIに関する個人的な勉強会を開催している。
もともとは月謝3万円ほどだったが、法人として活動するのをやめて個人の活動に切り替えたので、1万円にしてnoteの「サークル」という機能で管理するように移行した(shi3zのメディアラボ)。

この距離感だと、普段言えないようなことが言えるし、編集部を通さず原稿料を直接読者から頂く形になっているため、凄く緊張感がある。

月に一度の講義では、主に一ヶ月の間に発表されたか話題になった論文を振り返り、僕なりの考察や論評を加えたりしている。
毎月そんなにネタがあるのか?と思われるかも知れないが、AIの世界は常に活発な研究開発が行われており、筆者が驚くほど毎月なにかが起きているのは単純な事実だ。だからネタ切れで困ったことはない。

また、AIの論文を振り返ったりすることを自分に課すのも、いいトレーニングになる。
やはり聞く人が居てこそ調べたり、試したりしてみようという気持ちになる。

また、自分の講義を動画編集するときに振り返ったり、ときどき見返したりすることで「以前はこんなふうに考えていたのか」という新しい発見がある。

さて、その「サークル」という機能のなかで、会員同士でSlackに入る、というカルチャーがあるのだが、せっかくだからそのSlackでの会話を記録して、会話ボット用の学習データにできたら面白いと思ってSlackbotを作ってみようと思った。

通常、チャットツールをゼロから作るというのはかなりしんどいが、Slackbotだと一時間もせずに作れてしまって拍子抜けした。

そして、Slackbotがかなり作りやすい環境になっているにも関わらず、最近あまりチャットボットについて聞かなくなったなあ、と思ったのだ。

チャットボットというのは、今でもAI商材の一種として扱われることがある。
しかし作り方そのものは、Slackbotとあまり変わらない。

APIがあって、キーワードがあって、キーワードに反応するだけだ。
実は人間の会話というのはかなり単純なので、キーワードに反応するどころか、全くキーワードを無視してもそれなりに会話になってしまう。

記録用のbotなので、「こんにちは」と「なにをいってるのかわかりません」しか反応しないのだが、メンバーの一人が話しかけるのにハマってしまい、えんえんと「いやあいい天気ですね」「なにをいってるかわかりません」という会話をしていてびっくりした。

中学生の頃に正規表現を使ったチャットボットづくりにものすごくハマってた身としては、あれから30年経っても未だにチャットボットの作り方に変化がなくて悶絶してしまった。

今はあの当時よりも遥かにいろいろな技術が進歩しているはずなのに、未だにIBMのワトソンを始めとして、シナリオベースの会話しかできないというのは、ちょっと寂しい気もする。

むしろ昔の人の方がもっと熱心にチャットボットを作っていたのではないか。今はチャットボットはカスタマーセンターの労力を減らすという目的でもっぱら使われているようで、これが産業化したというのは素晴らしいことだと思う。しかし、チャットボットにはもっと大きな可能性があるはずで、その可能性が見過ごされているというのは実にもったいないことである。

高校生の頃に書いた原稿のなかで、「人工無脳(チャットボットを昔はこう呼んだ)は一見無駄なことをしているようだが、実際には非常に重要な洞察を与えてくれるはずである。人間はどんなものを知性と考えるか、そしてどういう会話を楽しいと感じるかを正しく分析できれば、次世代のフロントエンドになり得る」というようなことを書いた記憶がある。

コロナで分断が発生し、丸一日、一歩も外に出ず一人で仕事をして一人で考えることが増えてきた。
そういう状況のときにこそ、自分の壁役というのは、必ずしも人間である必要はないかもしれない。

壁役にする人の選び方というのは難しい。進んで壁役になってくれる人というのもあまりいないし、たとえ居たとしても、相手と興味が完全に一致していなければ長時間同じ議論をすることは難しい。

理想的な壁役は、まず発案者がなにを考えているのかうまく引き出し、そこになんらかのヒントを与えてくれるような人なのだが、それがずっと持続することはないし、時折、違う方向からの見方を提供してくれたり、こちらの知らない情報や自分でも忘れていた大事なことを教えてくれたりするものだ。

これは本当は全く、人間である必要はないのだが、人間のほうがいまのところ遥かにうまくこなせるのは間違いない。

雑談を目的とした人工無能との会話は、それだけでもけっこう楽しい。これが不思議なのだが、本当に楽しいと感じるのだ。なぜか。
たとえばもっとも単純な会話エンジンは、過去の会話をすべて記録しておいて、ランダムに一つのセリフだけ抜き出して提示する、というものがある。

「そんなものでおもしろいわけがない」と思われるかも知れないが、実はこれで十分面白いのだ。そこが会話の面白いところである。
完全にランダムに文章が書き出されても、それが「会話している」という見立てで、順序と役割を与えられたとき、人は勝手に新しい文脈を見つけてしまうのだ。これをモンタージュ効果と呼ぶ。

モンタージュ効果はゲームなどではよく利用されているもので、たとえばモンスターの絵の横に数字があれば、それはモンスターの強さを表していると人間のほうで勝手に解釈する。

同じように、ランダムに出された文字列であっても、人間のほうが勝手に「こんなやつなんだ」と誤解する。その奇妙な錯誤が面白いのだが、こういう「本格的な」会話エンジンは、実際にはビジネス化にはあまり向いてない。というのも、反応が予想できないからだ。うっかりするとお客様に失礼なことを言ってしまうかもしれない会話エンジンだったら、とてもじゃないが仕事には使えない。したがって、多くの会話エンジンやチャットボットは、「おとなしめ」に調教されているのである。

これがなんとももったいないという気もするのだ。
人は、なんとなく雑談しているときに新しいアイデアを考えたり、新しくなにか行動を起こすことを決めたりする。つまり、雑談は行動の起点になる。

広告業界の用語で言えば、AIDMAやAISASの最初の「A」よりもその手前に「雑談(Chat)」があるはずなのだ。そもそもAISASの最後のSであるShareは、雑談の起点になる。つまり、C→AISAS→Cに回帰するループになっているのである。

筆者自身もそうだが、毎日「何を食べるか」は中心的な関心事だ。ここで迷いたくないから「これを食べる」と決めておくこともできるが、食事というのは筆者にとって非常に重要度の高いイベントである。もしもそれほど珍しいものを食べないと決めるとしても、それは強い意志をもって決めなければならない。

筆者が学生の頃、あまりにも食べるものを決められなくて、その日に食べるものを決めるプログラムを書いたことがある。バカバカしいが、本当にこんなものに頼りたくなるほど、夕飯を考えるのは大きなストレスだったのだ。

このプログラムには、自分がよく食べる近くのお店やコンビニの弁当などが一通り入力してあって、起動するとランダムに一つだけ選んで表示する。

すると、大半は「いや、これは食べたくない」と思うのだが、「これじゃないな」と思うことによって判断スピードが早くなる。「唐揚げ弁当」と出てきて、「これじゃないな」と思うと、同時に「ラーメンそらまめの太肉麺」が浮かんでくるのだ。

結果的にこのプログラムによって学生時代の筆者の悩みは激減した。

つまり、コンピュータは必ずしも「正しい」答えだけを表示する必要はないのである。使う人間の負担を減らしてあげればいい。そのためには、アトランダムであっても、まずなにか提案してみて、「違うな」と思わせることが必要なのだ。

思うに、ほんとうにだれにとっても役立つAIというのは、本質的にこういうものではないだろうか。

たとえば、同僚に「御飯食べない?」と提案して、彼または彼女が「カレーはどうですか」と言ったとき、自分の中でカレーは今食べたくないなと思ったとする。でも、「一緒にご飯を食べる」ことを先に自分が提案しているため、カレーという提案を拒否するのは心理的抵抗がある。

相手がAIなら、そういう心理的抵抗は一切なくて済むはずだ。

ならば、サイコロでもいいのではないか。

もちろんそうだろう。しかし、今のAIはサイコロによる完全なランダムよりはかなりマシな提案ができるように進化している。前日の献立を覚えておいてくれたり、栄養バランスに配慮してくれたり、インターネットで調べなければわからないような新店舗の情報を知っている可能性がある。

そういうAIが、「最近、近所で評判の牡蠣まぜそばはご存知ですか?」と提案してきたら、乗ってみるのは本人にとってすごくワクワクする経験になるだろう。

チャットボットにはそういう可能性があるのに、ほとんど全く進化してないというのは非常に残念だし歯がゆい気持ちもする。
論文を見ていても、チャットするロボットの論文はもともと少ない上に、あまり関心が向けられていない。

偏見になるかもしれないが、AIの研究者で雑談が好きな人はもしかしたらとても少ないのかも知れない。
もしくは、雑談のような一見すると非生産的なものを研究テーマに選ぶことを格好悪いと思っているのかも知れない。
特に研究テーマというのは、とかく教授が決めることが多いので、そういう「遊びみたいな」研究をテーマにすることそのものが許されないのかも知れない。

以前、筆者がベトナムを視察したときに、現地のエンジニアと話したことがある。当時はiPhoneのAppStoreが始まったばっかりだったので、「AppStoreで遊べるゲームを作ったら、この国ならすぐ儲けられる」というような話しをしたことがある。実際、賃金が安い国でちょっとしたゲームを作れば、すぐに一生遊んで暮らせるようになると筆者は思った。

すると現地のエンジニアからは予想もしない答えが返ってきた。

「ゲームなんてくだらないものを仕事にしたら、親が泣きます。私も恥ずかしい」

長年ゲーム開発を仕事にしてきた筆者にしてみれば、衝撃的な理由だった。
確かに、当時のホーチミンにはゲームができる場所そのものが少なかった。でも彼自身がコンピュータに興味を持ったのは、ゲームがきっかけだという。でもそれは、彼にとっては後ろめたいものだったようだ。

こういう、カルチャーの違いというのはたぶんどこにでもあるのだろう。
幸い、日本は、ゲームや漫画、アニメや特撮といったものがリスペクトされる文化を持っている。この文化は他の何者にも代えがたいものだ。

また話しが少し飛ぶが、アメリカの人気ドラマ「ビッグバン・セオリー」を見ていたときに衝撃的なセリフがあった。
主人公の理論物理学者、シェルドンの恋人の脳神経学者エイミーが、「みたこともないおバカ映画」とスター・ウォーズを酷評していたのである。

筆者らの立場で見れば、「ビッグバン・セオリー」で「オタク」とされている科学者達のしている会話(マーベル・コミックやスター・ウォーズやスタートレックに関する)は非常に自然なものだが、その作品の登場人物でさえ、スター・ウォーズを「おバカ映画」とこき下ろすのである。これはある意味でひょっとするとアメリカという国の真実の一面を表しているのかも知れない。

筆者が話す相手は、たとえアメリカ人であってもスタートレックやスター・ウォーズが大好きな人達ばかりだが、それは彼らがゲーム業界やコンピュータ業界にどっぷり浸かっている、要は「オタク」ばかりだからに他ならない。もしかすると、アメリカ人の有権者の半分近くを占めるトランプ大統領支持派のあいだでは、スター・ウォーズは「おバカ映画」なのかもしれないのだ。

同じように、チャットボットも同じくらい侮られている可能性はある。
実際、80年代から90年代にかけて、人工無能の開発がもりあがっているのは主に日本で、海外の会話ボットはそれほど大きな話題を呼んだものは記憶にあまりない。

しかし雑談は、先程述べたように、非常に重要なインサイトをもたらしてくれる可能性がある。無言で生まれた企画などない。したがって、雑談の中にはAIが本当に必要とする真実があるかもしれないのだ。

もっとチャットボットの可能性を追求し、もっと新しいAIの可能性を切り開くことはできないだろうか。

WirelessWire Weekly

おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)

登録はこちら

清水 亮(しみず・りょう)

新潟県長岡市生まれ。プログラマーとして世界を放浪した末、 '17年にソニーCSLとWiL LLC.とともにギリア株式会社を設立し、「ヒトとAIの共生環境」の構築に情熱を捧げる。 '17年より東京大学先端科学技術研究センター客員研究員を兼務。著書として「教養としてのプログラミング入門(中央公論社)」「よくわかる人工知能 (KADOKAWA)」「プログラミングバカ一代(晶文社)」など。

RELATED TAG