画像はイメージです original image: svetazi / stock.adobe.com
画像はイメージです original image: svetazi / stock.adobe.com
プリンストン大学教授のアーヴィンド・ナラヤナン(Arvind Narayanan)を最初に認知したのは、当初はエドワード・W・フェルテンの個人ブログだった、コンピュータセキュリティやプライバシーなどを中心的に扱うFreedom to Tinkerへの寄稿者としてでした。本連載でも2014年の「ビッグデータの不都合な真実」という文章で、フェルテンとナラヤナンによるビッグデータの匿名化技術に関する論文を取り上げていますが、ナラヤナンをセキュリティやプライバシー分野の研究者だと思っていました。
しかし、彼はそれにとどまらず、大学の講義をオンラインで無償提供するCourseraでビットコインと暗号通貨技術の講座を持ち、書籍『仮想通貨の教科書』を共著するにいたり、カバーする技術範囲の広さに驚かされました。
そして、その彼が2019年に「インチキAIの見分け方」と題したスライドを公開し、世間でAIの成果とされるサービスの多くがインチキだと主張して話題となった際は、今度は人工知能かとまたしても驚かされたものです。
ナラヤナンがスライドを公開した2日後には、それを基にした講演や書籍執筆の依頼メールが彼の元に40~50通届いたそうです。しかし、便乗商法はしたくなかったし、本を書くほどにはAIを理解できていないと謙虚に考え、プリンストン大学博士課程のサヤッシュ・カプール(Sayash Kapoor)と3年ほど共同研究を行い、2022年夏に二人は満を持して書籍執筆過程を公開する「AI Snake Oil」、つまりはズバリ「インチキAI」と題されたプロジェクトを立ち上げました。
ナラヤナンは2019年のスライド公開時の大きな反響について、身の回りでAIとされるものが胡散臭いという疑いは実はいろんな人が持っていたが、それを正当化する語彙も権威もなかったところに、コンピュータサイエンスの教授である自分がそれを指摘したことで、その疑念が正当化されたと感じ、自分たちの懐疑心を共有したくなったのだろうと分析しています。
これは重要な話だと思うので、今回はこのプロジェクト(ニュースレター)を取り上げたいと思います。
書籍のプレビューと題した回で、昨年評判となったDALL·E 2やImagenなどの画像生成AIと、白人被告に比べ黒人被告を誤って再犯率が高いと判断する確率が2倍であるというショッキングなレポートが発表された、保釈された被告人の再犯可能性を予測するツール「COMPAS」を対比し、なぜ同じAIと呼ばれるもので分野により得手不得手があるのかを見極め、AIとの正しい向き合い方を指南するのがこの本の役割だと宣言します。
「AI」は現状、関連性はあるがかなり異なる多くのアプリケーションを総称するアンブレラタームですが、不確実性や曖昧さが少ないアプリケーション、もしくは囲碁のようなルールが明確なゲーム分野では大きな進歩を遂げています。一方で、不確実性が多い社会予測のためのAIの多くは役立たずだし、おそらく今後も役に立つことはないだろうと断じ、AIを「神託」扱いする愚を戒めています。
しかし、どうして(現状、狭い領域でしか有効でない)AIに対する「神話」が根強いのか? 研究者、企業、メディアが結託してAIに関する誇大広告を(知らず知らずのうちに)作り出し、一般の理解が歪められているとナラヤナンらは述べます。そうしたAIに対する誤った信頼の一例として、GitHub CopilotなどのAIによるコード自動生成に依存するプログラマは、安全性が低くバグが多いコードを書きがちという研究結果も挙げられそうです。
ナラヤナンらは、放射線科医の仕事は5年以内にディープラーニングに取って代わられるので、今すぐ放射線科医の養成をやめるべきと2016年に放言をしたジェフリー・ヒントンの名前を挙げていますが(言うまでもなく、現在までそういう事態にはなっていません)、ディープラーニング技術者に多い過信に対しても、その誇大広告に基づいて何十億ドルもの資金が割り当てられ、多くの一般人の混乱を招いたことが、書籍執筆の動機となったと厳しい見方を示しています。
具体的には、新しい学習問題を解くのに必要なのは、学習例(画像とそれに対応する説明文など)を集めることであり、過去に他の問題で成功した汎用的なニューラル・アーキテクチャと学習アルゴリズムが使えるというディープラーニングのセントラルドグマ(中心的信念)にディープラーニング技術者が囚われていること、またディープラーニング(ニューラルネットワーク)の研究者には、AI冬の時代に辛抱強く研究を続け、懐疑的な見方を覆してきた過去があるため、犯罪や仕事の成果の予測などで、必ずしも過去が未来を予測するわけではないと言われても、不勉強な部外者の見解として片付けてしまう傾向があり、またそのメンタリティが各分野の専門家の軽視につながっているのをナラヤナンらは指摘します。
また上でAIの成功例として挙げた画像生成AIについても、AIやロボットを過度に擬人化するなどしてAIに対する誤解を招くようなイメージ(画像)を蔓延させ、その画像がニュース記事に使われることで、結果としてAIの誇大広告に加担しているとやはり手厳しいのですが、一方で学生がGPT-3などのAIモデルを使い小論文を書いて良い成績をとることについてはむしろ肯定的で(教員側が真に教育的な課題を出すべく対応すべきという立場)、AIと名の付くものをなんでもかんでも批判しているわけではないので誤解なきよう。
例えば、ナラヤナンらは、昨年末から大きな話題になっているチャットボットChatGPTを、もっともらしいテキストを生成するように訓練されているが、そのため間違った答えをしても正しい知識がない人にはそれがそうと分からないという意味で、史上最高の「デタラメ製造機(bullshit generator)」と断じていますが、以下の3つの分野に関しては、ChatGPTの大規模言語モデル(LLM)が既に有用であると認めています。
ジェネレーティブAIがどれくらい変革をもたらすか判断するのは時期尚早、というのがナラヤナンらの結論になりますが、現状、LLMが利用可能なのが限られた分野なのを強調しつつ、それでも驚くほど有用な可能性があり、創造的な利用法が切り開かれるのにも期待を寄せています。
ナラヤナンらのAIの誇大広告に対する厳しい視線は、AIに関する報道に対しても向けられており、New York TimesやCNNの記事への詳細な添削(!)を含む「AI報道で気をつけるべき18の落とし穴」における指摘は、報道関係者以外にも当てはまる重要な内容を含んでいると思うので、「18の落とし穴」を簡単に要約してみます。
おそらくは今年刊行されるであろう「AI Snake Oil」の書籍版が楽しみですが、ナラヤナンはこのプロジェクトの外でも、機械学習とその公平性をテーマとする書籍『Fairness and machine learning』を共著し、昨年11月にはコロンビア大学のナイト研究所(Knight First Amendment Institute)の客員上級研究員として、ソーシャルメディアの原動力となっている「アルゴリズムによる増幅(algorithmic amplification)」に焦点を当てた新しいプロジェクトを主導することを発表しており、本当にこの人の仕事範囲の広さには脱帽です。
いや、ナラヤナンの中では、プライバシー、暗号通貨、AIの社会的影響、そして今回の「アルゴリズムによる増幅」研究もすべてつながっているのかもしれません。
それで思い出すのは、「AI Snake Oil」の書籍のプレビューの回にある以下の文章です。
市民として、透明性のないアルゴリズムによる決定に直面したら、抗議する権利を行使しましょう。監視AIに抵抗すべく、民主的なプロセスに関与するのです。
「インチキAI」に騙されないためにまず必要なのは、誇大広告を鵜呑みにしない懐疑的な精神と、必要とあればそれに抵抗する気概に思えます。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちら雑文書き/翻訳者。1973年生まれ。著書に『情報共有の未来』(達人出版会)、訳書に『デジタル音楽の行方』(翔泳社)、『Wiki Way』(ソフトバンク クリエイティブ)、『ウェブログ・ハンドブック』(毎日コミュニケーションズ)がある。ネットを中心にコラムから翻訳まで横断的に執筆活動を続ける。