マイクロソフト、AIチャットボットをリリースから1日でオフラインに
2016.03.25
Updated by WirelessWire News編集部 on March 25, 2016, 12:44 pm JST
2016.03.25
Updated by WirelessWire News編集部 on March 25, 2016, 12:44 pm JST
マイクロソフト(Microsoft)は米国時間24日、前日に公開したAIボット「Tay」が悪用され、不適切なツイートを発するようになってしまったことを受け、同AIの稼働を一時的に停止したという。
「Tay」は、Twitterなどのコミュニケーション・プラットフォーム上でやりとりされるコメントなどを学習し、自ら発言を行うというAIチャットボット。マイクロソフトは当初、同AIを18〜24歳の米国女性のパーソナリティを持つものと想定し、即興のコメディアンたちの会話データやコンテンツをプログラムして、カジュアルで遊び心のある会話を楽しめるようにすることを想定していたという。
しかし、Tayの稼働開始から数時間後には一部のツイッターユーザーが同AIにいたずらを始め、その結果Tayが女性蔑視や人種差別の意図を含む発言、あるいはホロコーストを否認したり、ヒトラーを賞賛するような発言を行うようになってしまったことから、マイクロソフトは24日朝に同AIの発したほぼすべてのツィートを削除し、調整のために同AIの稼働を一時的に停止したという。
なお、WSJではTayへのいたずらについて、「4chan」「8chan」といった匿名掲示板のユーザーが協力して行った形跡があるとしている。
機械学習の仕組みをつかったAIの失敗例では、昨年ヤフー(Yahoo)傘下の写真共有サイト「Flickr」で、黒人男性に「猿("ape")」というタグを自動的に付加してしまったケースや、グーグルのGoogle Photoでやはり黒人男性の写真に「ゴリラ(“gorilla”)」のラベルを誤って付してしまったケースなどがあったという。
【参照情報】
・Microsoft Muzzles Its Artificially Intelligent Twitter Persona - WSJ
・Microsoft Takes AI Bot `Tay' Offline After Offensive Remarks - Bloomberg
・Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day - The Verge
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちら