original image: malisa / stock.adobe.com
original image: malisa / stock.adobe.com
先週、朝日新聞デジタルに掲載されたメレディス・ウィテカーのインタビュー記事「ChatGPT、何が問題か 元グーグル社員「非常に無責任で無謀」」が話題となりました。記事内容は、ChatGPTに代表される今話題のAIサービスの多くが、巨大な消費者市場から得られたデータ資源とそれを握るビッグテックへの権限の集中の結果生まれたもので、中立的でも民主的でもなく、倫理的な懸念があることを訴えるものです(今週になって、朝日新聞デジタルにほぼ同内容の「AI開発、中立的でも民主的でもない 元グーグル専門家」、「「チャットGPT、全世界が実験台」「データ集中と監視、強まる恐れ」 元グーグルの専門家が警告」という二つの記事が公開されていますが、これは元記事の反響の大きさを受けてでしょうか)。
インタビュー記事への反応には、元Google社員というメレディス・ウィテカーの経歴を揶揄する少しずれたものも散見されましたが、彼女は2006年にGoogleに入社し、ネットワーク中立性、プライバシー、セキュリティ、人工知能に関する問題についてオープンソースやアカデミックのコミュニティとの協働を行うGoogle Open Researchを立ち上げ、2017年には人工知能の社会的影響を研究するAI Now Instituteをケイト・クロフォードとともに共同設立したAIの専門家です。
彼女は、2018年にGoogleにおけるAI倫理の取り組みへの抗議でGoogle Walkoutデモを主導しました。それに対する報復を社内で受けるなどして翌年退社した後は、エンド・ツー・エンド暗号化により利用者のプライバシーを確保するオープンソースのメッセンジャー・ソフトウエアSignalに参画しました。現在はSignalファンデーションの理事、Signalのプレジデントを務めています。
彼女が先月来日した際に、国際大学グローバル・コミュニケーション・センター(GLOCOM)で講演会をするのはワタシも知っていましたが、仕事のためライブ中継を見逃していました。ワタシは勝手に講演はSignalに関するものと思い込んでおり、朝日新聞デジタルの記事に驚いて確認したところ、講演会のタイトルは「人工知能の政治経済:監視、権力集中など “AI” が抱える問題」で、講演動画は現在もYouTubeで視聴可能です。
講演のAIに関する部分は、会場で質問をしている渡辺淳基記者の前述の記事が良いまとめになっていますが、消費者市場から集めた大量のデータを基にした監視ビジネスモデルを確立した一握りのビッグテックに現在のAIが握られており、そうした企業の利益のためサービスには中立性や透明性がないというメレディス・ウィテカーのシビアな問題意識は、ショシャナ・ズボフ『監視資本主義:人類の未来を賭けた闘い』とマシュー・ハインドマン『デジタルエコノミーの罠 なぜ不平等が生まれ、メディアは衰亡するのか』という二冊の本で書かれている内容の延長線上にあると言えます。
そしてメレディス・ウィテカーは、AIが従来の位置情報の利用といったレベルを超え、内面的で推論的な形でプライバシーを脅かしながら、監視ビジネスモデルを強化することへの懸念を表明していますが、ここまできてGoogleを離れた彼女が、メッセージだけでなくメタデータまで暗号化するプライバシー面で妥協のないSignalに加わった必然性が見えてきます。
そして講演においては、対談相手である八田真行氏(ワタシも人間的な好き嫌いを別にしてその仕事には常に深い敬意を払っている)が、AIや大規模言語モデル(LLM)の問題について、大規模な投資ができるプラットフォーム企業がお金儲けの源泉を握り、その利用者は稼いだお金を吸い上げられるだけでなく、生殺与奪の権利までプラットフォームに握られる「デジタル封建主義」という言葉を語っています。ギリシャ元財務相のヤニス・バルファキス言うところの「テクノ封建主義」と合わせ、もはや我々はビッグテックが主導する新たな封建主義にいるのではないか、というこの問題意識は重要でしょう。
なお、八田真行氏はかなり好き勝手に言いたいことをぶちまけており、ワタシなど人間的な好き嫌いを忘れ、泣きながらお言葉を写経してしまったのですが、オープンソース・ソフトウエアの世界でもしかるべき分配が行われない「デジタル封建主義」に似た構図の問題があること、技術者がソフトウエアにコードだけでなく思想も実装することの責任問題(例:Winny、ビットコイン)、あと佐渡秀治氏が質問していた、AIの出力がパブリックドメインになる(著作権が認められない)ことによる「コピーライト・ロンダリング」の問題など、とても興味深い論点をいくつも含んでいるので、今からでも講演動画を見ることをお勧めします。
収益性や成長が民主的なガバナンスや社会に対するメリットよりも優先される企業の組織の中では、AIの監査機関は容易に取り込まれるし、現に企業内のAI倫理委員会は解体されているのが現実。独立監査機関を設置するのは理論的には良いアイデアだが、過去の実例を見る限り、それがうまく機能する保証はない、というメレディス・ウィテカーの認識はやはりシビアです。
彼女はまた、米国の連邦取引委員会(FTC)による反トラスト法に基づくアプローチについても、EUにおける一般データ保護規則(GDPR)についても悲観的で、特にFTCが力はあるのに人員が足りていないこと、米国に未だ連邦レベルのプライバシー規制ができていないことを嘆いていますが、事実彼女はFTCでリナ・カーン委員長のAI関連顧問を務めており、それが偽らざる実感なのでしょう。
その彼女は、AIの正しい規制のやり方については話し出すと止まらない(からここではしない)と講演の質疑応答で冗談めかして語っていますが、『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』の邦訳があるデータサイエンティストのキャシー・オニールが起業したAIの偏見を検証する第三者監査会社などの評価は聞いてみたいところです。
我々が今できることは、まずなによりAI倫理、データ倫理の理解を深めることでしょうが、たまたま社会技術研究開発センター(RISTEX)による「イノベーションを支えるデータ倫理規範の形成」というサイトを先日知ったので共有しておきます。
このプロジェクトは、データ倫理に関する学問的基礎の形成とデータ倫理のフレームワーク(基本原則やガバナンスのあり方)の提案を目的にするものですが、実は研究期間は2023年3月31日、つまり先月末で終わっていました。終わった後でプロジェクトの存在に気づくところがワタシのアンテナの低さの悲しさですが、それでもここで公開されている「データ倫理ガイドブック」や「AI倫理の現状」は必読ですし、それ以外にもクーケルバーグ『AIの倫理学』などのいろいろな書籍や論文の要約が公開されており、これだけ有用な資料を無料で読めていいのか、と思うくらいです(このサイトはいつまで公開されるのでしょうか?)。
さて、昨年2022年は、Web3、メタバース、そしてAIが技術系トピックの三題噺でしたが、今年に入るとすっかりジェネラティブAIが話題を大方さらってしまい、メタバースとWeb3の影が薄くなった印象があります。メタバースに関しては、Metaの事業の失敗ばかりが取りざたされますが、XR技術全般にまだまだ伸びしろがありますし、それこそ仮想世界へのジェネラティブAI技術の取り込みも見込まれ、まだまだこれからだと思います。ただ、Web3はどうでしょう?
これについて、「Web3を駆逐したことこそChatGPTの功績」といった意見すら見かけるほどですが(その1、その2)、暗号資産やNFTに対する電力消費による環境負荷や投機性の高さというネガティブイメージは確実にありますし、何をするにもガス代がかかるのと、無料で使えて明確に利便性を示す画像生成AIやChatGPTの比較は勝負にならないと言われればそれまでかもしれません。
ただメレディス・ウィテカーが語る、AIが強化するビッグテックの監視ビジネスモデル(監視資本主義)の問題を考えるなら、ブロックチェーンの存在理由(レーゾンデートル)とまで言われる「非中央集権化」は未だ重要なコンセプトですし、Web3ごと切り捨ててよいとはならないようにも思います。
ともかく、今週、OpenAIのサム・アルトマンCEOが来日して、「日本に対する7つの約束」を提示し、岸田文雄首相と会談するにいたり、日本におけるChatGPTをめぐる熱狂はひとつの区切りがついた感があります。
OpenAIについて、ワタシは前回の文章で「データをオープンにしてきたことを「間違っていた」と共同設立者が認めるOpenAIのGPT-4が熱狂を生み出しているという、果たしてオープンとは? と思ってしまう状況」と皮肉っぽく書きましたが、ウォールストリートジャーナルが「ChatGPT生みの親、アルトマン氏が抱える矛盾」で書くように、マイクロソフトと100億ドルの契約を結び、マイクロソフトがその営利部門の株式を49%握った現状は、オープンソースの非営利団体として株主の影響を受けずにAIを開発し、その成果を公共に還元するというOpenAIの設立時の誓約に反しているという批判は避けられないでしょう。
そのあたりをOpenAIの共同創業者であるイーロン・マスクが批判していますが、ただなぜOpenAIがマイクロソフトと手を結ばなければならなかったかというと、Googleに後れをとっていることを理由にイーロン・マスクがOpenAIの指揮権を奪おうとし、それをサム・アルトマンら経営陣に拒絶されると、当初約束した寄付金額の9割を反故にしたから、という実に彼らしいクソ野郎ぶりが原因らしいのには注意が必要です。
ChatGPT(GPT-4)が猛烈に利用者を増やす一方で、AIに対する法規制を求める声も高まりつつありますが、OpenAIもプライバシーの尊重などを掲げる「AIの安全性に対するアプローチ」を公開しており、そのあたりに対する配慮がうかがえます。またサム・アルトマンもNHKの独占インタビューにおいて、私たち人間がルールを設けてAIを制御できることを強調しています。
しかし、「AI(LLM)についてまだみんなが知らない8つの事実」にある、「どんな能力が出現するかは事前に予測できない」「LLMを完全にコントロールする技術は存在しない」「専門家でさえLLMのお気持ちは理解できてない」「LLMの性能が人間を超える事は可能」といった話を読むと、同じくサム・アルトマンの発言でも、「人類はこの数カ月でもうすでにルビコン川を渡ってしまったのかもしれない」という認識のほうに現実性を感じます。一時的なAIの開発中止によるスローダウンは、もはや現実的な選択肢ではなくなっているのでしょう。
もはや止められないのであれば、それを受け入れた上でいかに透明性を確保する監査やしかるべき規制を実現するかが重要ですし、国単位で考えれば、監視資本主義の体現者であるビッグテックのサービスに依存して彼らの養分となるばかりではなく、苦労してでもここで日本独自のLLMのプレイヤーを育てるべきではないかと考えるわけですが、果たして今のこの国にその力は残っているでしょうか。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちら雑文書き/翻訳者。1973年生まれ。著書に『情報共有の未来』(達人出版会)、訳書に『デジタル音楽の行方』(翔泳社)、『Wiki Way』(ソフトバンク クリエイティブ)、『ウェブログ・ハンドブック』(毎日コミュニケーションズ)がある。ネットを中心にコラムから翻訳まで横断的に執筆活動を続ける。