原田俊氏 本村陽一氏

人間の「内なる声」は人工知能に届くのか(3)人と相互作用し変化し続けるホワイトボックス型AIを目指そう

テーマ11:「プロファイリングの現在と未来」

2015.11.25

Updated by 特集:プライバシーとパーソナルデータ編集部 on 11月 25, 2015, 08:00 am JST

子供達の見る映像番組も、テレビ局の中の人ではなくYouTubeのアルゴリズムが決める時代。すでにそんな時代を迎えた以上、抑止力の確保を視野に入れつつ、法律でさえもリアルタイムにアップデートするしかない。ではそれをどのように「デザイン」するのか--引き続き、国立研究開発法人 産業技術総合研究所・人工知能研究センター副研究センター長(兼 確率モデリング研究チーム長)の本村陽一氏と、デジタル・アドバタイジング・コンソーシアム株式会社・プロダクト開発本部 広告技術研究室 主任研究員の原田俊氏に、対談いただいた。
(これまでの流れ)
(1)見落とされているアンビエント型AIの重要性
(2)「データは客観」の落とし穴に墜ちてはいけない

原田俊氏 本村陽一氏


──中編では、機械学習の登場によって人間の側のバージョンアップが必要とされる、というお話がありました。それで改めて、ホワイトハウスが2014年に発表したレポートの中にある、「白人なのに黒人と見なされたことで不利益が生じた」という課題の指摘を思い出しました。確かにプライバシーという「個人」の問題もあるけれど、そもそもアメリカという「社会」の問題でもあります。それがまだ混同されているような気がします。

人間と相互作用できるAIが必要

本村 チャネル全体としてみたときに、どこでリスクが発生するかと言うことをちゃんと分析しないと、根っこのデータソースの所だけ議論しても、正当な評価は当然できません。

そういう意味でも、ブラックボックス的な機械学習を使うことで、そこのリスクが膨らむし、押さえることができなくなる。だからこそ透明性の高い、人間と相互理解できるタイプの次世代AIが必要になります。データソースだけですべてのリスクを負わされるのは、全体としてのコストが高いというか、そうでないアプローチも是非検討していただきたい。

そうすると、ホワイトボックス型でやる必要がでてくる。そしてその場合は、人間がそのリスクの理由や程度が理解できるので、許容できる余地も多少は大きいんじゃないかと思います。ただそれは、社会的な実験によって事例でつかみ取るしか無いと思います。特定の事業とか、賛同してくれるコミュニティとか、そういったところでの検証ですね。

原田 「プライバシーリスクを見積もろう」というのは広告事業者の中でも議論されているんですけど、もしかしたら広告事業者側で「これはこういうデータで、これとこれを組み合わせたら悪い結果が出るんじゃないか」と思い込んでしまって、結局チャレンジできず、検証の機会を逸していることもあるかもしれませんね。

罵倒ではなく「議論をするための合意」を形成すること

本村 アメリカはM&Aを繰り返すことで企業体が大きくなり、サービスが繋がりやすいわけですよね。ところが日本の場合は、協業型というか、ある種、一者だけで独占しないやり方をするので、そうすると相手がどう思うのか、ということに過剰に疑心暗鬼になりがちな構造を元々持っているんだと思います。

それの善し悪しではなくて、日本型なら日本型で、どこかでコミュニティとしてつなぐ必要があると思うんですね。組織体としては別であるが、このミッションに関しては情報を開示してオープンにすると。これはフルオープンじゃなくて、クローズドな体制の中でのオープン。だから協調できる分野でのプロジェクト型で進めればいいのではないかと思います。

そのプロジェクトに関しては、不特定多数の顧客ではなくて、同意を取ったある種の会員の中でスモールなコミュニティを実験的に動かしてみる。

原田 AIといっていいかわからないですけど、ホワイトボックスのモデルはそういう中で育まれなければならないんですね。結論ありきで罵倒する議論ではなく、結論を探っていくための合意形成プロセスを、時間をかけて進めていくスタイルのアプローチ。

本村 西洋的な世界観であったり、宗教観の必然として絶対的な真理を探る、そういう動きになっているわけですよ。それに対して我々はどうするかっていうことを考えて、我々の社会は本来どうだったのか、我々の育まれた文化的背景、思想的背景はどこにあるのかちゃんと見たうえで、今のトレンドやデータやテクノロジーをどう使うか、ということを自ら決めないと。

原田 正直、「マルチステークホルダープロセス」よりも、今のお話の方が断然共感できます(笑)

本当の答えは自分が知っている

本村 教科書を探してはいけないんでしょうね。それこそ、Googleで検索してはいけない。自分たちで生成した新しいデータで検索エンジンを学習させるくらいのことを考えないと。

──「内なる声を聴け」ということでしょうか。結局、本当の答えというか、自分が欲しいと思っているものは、自分の中にあるわけですよね。逆に自分の外にある材料に踊らされてしまい、自分の内なる声を聴かなくなってしまったら、生きている意味がないのかもしれない。

本村 内なる声、良いですね。中編で触れた「知識」に置き換える言葉って、もしかすると「内なる声+データ」ですよね。

原田 自分の「内なる声」ということで一つ思ったんですけど、海外でプロファイルっていっているのと、日本のネット広告業界が言っているプロファイルって、よくよく考えてみると違うんですよね。

──どのような違いがあるのでしょうか?

「プロファイル」という言葉の意味が日本と海外で異なる

原田 海外はデータブローカーが中心になってプロファイルと言っているので、個人の完全なデータベースを作ることを目的としているんですよ。歯抜けの部分をどんどん埋めていって、その人のデータを余すことなくカバーしたデータセットを作ろう、という。

日本のネット広告だと、いろんなデータと言うほどでもないんです。Webのデータを中心に、その人がどういう特性か、マーケティングに使える特性があるかを知りたいだけで、個人の特定も必要ないからデータが歯抜けのままでいい。マーケティングで使えるようにするために、行動の特性や属性がある程度分かればいい、というものです。程度問題とはいえ、程度の差が全然違う。

本村 「データを要約したい」というバイアスが高まってくると、そうなりますよね。一方で、途中で情報が落ちると言うことを意味するから、あれこれ考えるのはめんどくさいから、とにかく全部残しておきましょうという発想にもなる。だから、その背景にある狙いみたいなものを、日本の場合はあまり疑わない。目の前のデータやプロセス以外のこと、潜在的な可能性を想定しないんじゃないですかね。

原田 その一方で、ブランディングと言われる目に見えない価値に気づくことも、計量化しようとしている。そういう複雑な解析に、要約されたデータで妥当なのか。

本村 会計は現在価値しか計算できないけれど、ブランドエクイティは時系列で追いかければ、その広告が将来の売り上げになるという形で観測可能にはなるんですよね。そうやって、すべてのデータや値に対して、時間という概念を持ち込んでいくのは、ひとつの拡張になります。そして次世代AIではすごく重要な表現だと思いますし、すべてのデータに時間をつけていくことで将来価値が計算できればかなり画期的だと思います。

──時間によって人間は変わる、ということをもっと構造的に扱えれば、広告に関しても全然違うアプローチができる気がしますね。

本村 それこそ時間の概念を取り入れれば、人間ならば変わって当然なので、良いことも悪いことも起きる、ということがもっと理解されるようになるかもしれませんね。たとえばリーマンショックがなぜ起きたかというと、ある固定したモデルのもとで、良いことしか起きない、良いことが起こるはずだ、良いことが起こるだろう、とやっていたから破綻したわけですよね。悪いことを無視すれば、モデルが崩れるのは当然ですね。

「正解は誰に聞けばいいの?」

原田 実際、ネット広告業界の内部でも、違和感だったり、刷新されるべき、と思うことはありますね。それはアルゴリズムを新しくするとか、考えを刷新しないとたどり着けないところなのかもしれません。

プロファイルで言うと、たとえばGoogleは自らのプロファイルを正す機会を提供していますね。推計した属性が合っているかどうか、本人に確認させる。でも、僕たちが今悩んでいるのは、そういう手段を提供するのはさておき、機械によって毎日更新される推計結果と、本人が入力したもののどちらを優位に立たせるか、というのがわからないんです。

人間が入力したものは、その時点では正しいんですけど、その人も入力した段階より進化するじゃないですか。それであればアルゴリズムでリアルタイムに推計していった方が正しいんじゃないかという。

本村 いやいや、いまのお話にあった「正しい」という言葉に、まず疑問を持った方がいいかもしれない。つまり、評価基準を自分で作ってみた方がいい、ということですね。

というのは、機械学習をやっていると、評価基準の問題に突き当たるんですよ。大抵の評価基準はいわば天下りで与えられているんですけども、本当は機械学習での目的に相当する評価基準は自分で作るべきものなんですよ。これをやると、鶏と卵がよくわかります。目の前にあるこれを「良い」としたならば、その「良い」を実現する様に評価基準を作るんですよ。

これをやってみると、レギュレーションを自分で作れるようになるし、世の中のレギュレーションは誰かが作ったことに気づくんです。反対に、言われた評価基準の中で自分が良い結果を出さなきゃいけないと、常に外から評価基準を与えられた人間が、騙されがちだということも。

──そしてそこで作ったレギュレーションを、中編のお話にあった「間主観」までステップを重ねていくことが必要なのかもしれません。さらに言えば、プロファイリング時代の法制度というのは、そういう形で実装されていくことが期待されているようにも思えます。

とにかく変える、変え続ける

本村 第二次ニューロブームでニューロの学習研究をやった人は、学習基準も自分で変えてみたんですよ。良い学習結果を得るためには、ありとあらゆることをやったので、モデルも変えたし、評価関数や基底関数すら自分で変えたことがある。それはもはやニューロとはいえない位でも試す。

今のディープ・ラーニングをキャッチアップした人は、それを変えることができないですよね、おっかなくて。変えてはいけないと思って。でも、当時は、自分がやらなきゃ誰もやっていないので、やってみるわけですよ。それで変えてみたわけです。

法律も、広告も、同じですよね。自然に発生したわけはなくて、必ず誰かが作っている。そこに立ち返れば、何でも変えられるはずです。

ハーバート・サイモンの自伝「models of my life(邦題:学者人生のモデル)」が素晴らしいのでご紹介したいんですけど、彼は政治学から始まったけど、人間のモデルを作りたいという思いで、認知科学を作り、人工知能を作った。ついでに、経済学でノーベル賞をもらった。彼は、作るという視座で大学を語り、人工知能を語り、認知科学を自分が作ったという視座で語っている。痺れますよ。

彼が今ここにいたら、絶対に自分の過去のAIを捨てるはずです。その当時に作っていたもの、そんなものは、今の時代にアップデートしたいわけですよ。むしろ後生大事にしていたら、「そんなもの、まだ使っているのか」と怒られそうです。継承すべきは、そういう精神なんじゃないかと、思いますね。

WirelessWire Weekly

おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)

登録はこちら

特集:プライバシーとパーソナルデータ

情報通信技術の発展により、生活のあらゆる場面で我々の行動を記録した「パーソナルデータ」をさまざまな事業者が自動的に取得し、蓄積する時代となっています。利用者のプライバシーの確保と、パーソナルデータの特性を生かした「利用者にメリットがある」「公益に資する」有用なアプリケーション・サービスの提供を両立するためのヒントを探ります。(本特集はWirelessWire News編集部と一般財団法人日本情報経済社会推進協会(JIPDEC)の共同企画です)