WirelessWire News Technology to implement the future

by Category

AI イメージ

2016年11月現在のAIにできることとできないこと

The Rest of the AIs

2016.11.28

Updated by Ryo Shimizu on November 28, 2016, 06:25 am JST

 今注目されているのは数あるAI技術の中でも第三世代のAIである、ということまでは前回説明しました。
 では、これまでに出来ていたこと、そして第三世代AIで初めて出来るようになったこと、まだできないことはなんでしょう。

 本稿では前回に引き続きそこをまとめてみたいと思います。

第二世代AIまででできたこと

・情報検索
 膨大な情報を瞬時に検索可能になったことは、第二世代AIの最大の成果と言えます。

・協調フィルタリングによる推薦(レコメンデーション)
 Amazonでいう「この商品を買った人はこんな商品も買っています」という自動推薦機能は、消費者にとって大きなプラスになりました。

・ベイジアンネットワークによる迷惑メールフィルタ
 迷惑メールの傾向を分析して自動的に迷惑メールフォルダに突っ込む機能。いまや必要悪とも言える機能ですが、たまに重要なメールも迷惑メールと解釈されてしまうという問題もあります。

・構文解析(自然言語の品詞分解)
 日本人ならたいていは恩恵を受けている連文節変換、要するにIMEによるかな漢字変換は構文解析技術の成果です。

・統計的機械翻訳
 従来のルールベース機械翻訳に加えて、統計的な自動学習による機械翻訳が可能になりました。ただし精度はまだまだです。

・意味要約
 長い文章をかいつまんで要約します。精度はイマイチですがうまくいくこともあります。

・単純な音声認識
 Siriがあなたの声を聞き取る程度の精度で、音声認識をすることができます。

・単純な音声合成
 Siriが喋る程度には流暢な音声合成が出来ます

・単純な手書き文字認識
 たいていの手書き文字を認識することができます。

・会話bot
 まるで知能があるかのように会話するロボットを作ることが出来ます。ただし知能はありません

・アキネーター
 後ろ向き推論でクイズに答えます。殆どの場合正解できますが、正解できるクイズには制限があります。

・経路探索
 乗換案内やカーナビで実現されている機能です。様々な条件を勘案して自動的に経路を探索します。

・自動運転
 自動運転技術の大枠は、実は第二世代AIまでの技術で出来ています。

 ここまでが第二世代AIまでで実現できること、です。
 これをみるとWatsonに含まれているAPIのほとんどが第二世代AIまでの技術だとわかると思います。

第三世代AIで既に可能になっていること

・一般画像認識
 人間並み、時には人間よりも正確に素早く画像を識別できます。これが深層学習(ディープラーニング)の最初の目覚ましい成果として知られてしまったので、逆に画像認識しかできないという誤解が広まりました。

・顔から感情を推定
 顔写真からその人の感情を推定することができます

・顔から年齢・性別を推定
 顔写真からその人の年齢と性別を推定することができます

・ノイズ除去
 デノイジング・オートエンコーダという技術を使うことによってノイズを除去することができます。これは画像のノイズ除去はもちろん音声のノイズ除去も可能です

・超解像
 オートエンコーダを応用することで、小さな画像を拡大したときに、ディティールを人工知能が想像によって補うことができます。この際、人工知能が学習した時の画像に強い影響を受けます。写真をひたすら見て学習したAIは超解像する時に写真っぽくディティールを追加するし、イラストをひたすら見て学習したAIはイラストっぽくディティールを追加します。

・白黒→カラー変換
 白黒画像とカラー画像のペアをひたすら学習させ続けると、白黒画像を見せるだけでカラー画像を出力する人工知能を作ることが出来ます。

・衛星写真→地図変換
 衛星写真と地図のペアを見せて敵対学習させると、衛星写真を見せるだけで地図を出力することができます

・昼間の風景→夜景変換
 昼間の風景と夜景のペアを見せて敵対学習させると、昼間の風景を見せるだけで夜景を出力することができます

・輪郭→写真変換
 写真と輪郭のペアを見せると、輪郭を入力するだけでその輪郭を持った写真を出力する人工知能を作ることが出来ます

・スタイル変換
 写真と適用したいスタイルの画像を入力すると、写真をそれっぽいスタイルに変換した画像を得ることが出来ます

・領域別物体認識
 一般物体認識よりもさらに高度なタスクとして、写真のどの領域に何が映っているのかを特定することができます
 この技術はたとえば自動運転などでカメラから得られた画像の中から歩行者がどこにいるかなどを瞬時に判断できます

・深層強化学習
 機械の動きや振る舞いなどを特定の評価関数を用いて強化学習することができます。ピンポンゲームや囲碁で人間に勝ったり、ロボットが正確にモノを掴んだり、他のクルマにぶつからないように動いたりします

・写真を言葉で説明
 写真を見せるとその内容を言葉で説明することができます

・説明文から写真を生成
 説明文を読ませるとその説明文に対応した写真を生成することが出来ます。

・ニューラル翻訳
 統計的機械翻訳をさらに発展させて、ニューラル・ネットワークを介した機械翻訳を行うことが出来ます。従来の機械翻訳では、一文が一文に対応するように翻訳していたのですが、ニューラル翻訳では全体としてなんとなく意味が通じれば文と文の対応関係にはそれほどこだわらない翻訳ができます。

・Seq2Seq
 ニューラル翻訳に応用されているのはSeq2Seqというニューラル・ネットワークです。Seq2Seqでは、任意の長さのデータ列(Sequence)を、別の長さのデータ列に変換することが可能で、文章から文章はもちろん、画像から文章、文章から画像、音声から文章のseq2seqも研究されています。

・映画の字幕を読んでそれらしい会話
 Seq2Seqに映画の字幕を読ませると、まるで人間のような台詞を思いつくことがあります。

・教師なし学習
 それまでの機械学習にはデータとラベル(教師信号)が必要でしたが、ラベルを作るのは人力で、しかも非常に多くの人手がかかっていました。教師なし学習では、ラベルがない状態でもAIを学習させることが出来ます。

・蒸留
 教師AIの振る舞いを生徒AIにそのまま真似させることで、教師AIに近い性能を持った生徒AIを短期に育てることができます。

 まあこんなところでしょうか。
 本当はもっともっとあるのでますが、一般の人に影響しそうな、イメージしやすい例でいうとこんなところかなと思います。

 ディープラーニングを使ったと謳うなら、せめてSeq2Seqくらいは使って欲しいところですが、実際にはまだSeq2Seqを使った会話ボットというのは見たことがありません。というのも、Seq2Seqを使うためには膨大な会話のデータが必要になるからです。そんなデータはおいそれとは落ちていないので、必然的に会話Botを構築する技術のベースは、第二世代AIになってしまうことになります。

 では、反対の今のところできないと言われていることを挙げてみます。

今のAIではまだできないこと

・自発的に考えること
 いまのところAIは自発的にものを考えたりしません。というか、実際には考えたりしてないのかもしれません。"彼ら"は単に生成したり識別したりするだけで、なにかを考えているわけではありません。したがってAIが自分から「こうしよう」と言い出すことはありません

・自分の意見を持つこと
 今のAIは自発的な考えを持てないので、当然、自分の意見を持つことはできません。永久にできないかもしれません。自分の意見を持たない以上、AIが人類の敵になる日は残念ながら遠い未来の話になりそうです。

・怒ること
 AIに擬似的な感情をもたせることはある程度は可能だと思います。しかし、失恋で怒り来るった画像識別用AIが、世の女性を目の敵にするようになったら、それは単に故障したAIでしかありません。AIが自発的な考えを持ったり、自分の意見を持ったりしない限り、感情が必要になる日は遠いでしょう。感情が実装されると、実は囲碁も弱くなってしまうかもしれませんね。

・感動すること
 AIは、主観的体験としての人生を持っていません。そして、主観的体験がないと感動は生まれません。赤ん坊や小学生が感動することは非常に難しいのですが、同じストーリーを見ても大人になると涙腺が弱くなって感動します。それは主観的な人生体験を重ねてきたからこそ、感動のトリガーが開くからです。AIはテレビやドラマを見ることはありますが、感動することはありません。

・喜ぶこと
 AIは喜びません。
 強いて言えば深層強化学習の場合、報酬をもらって学習しますが、それも喜びとは無縁です。したがって、人間の気持ちを想像したりすることはできません。単に人間の反応を見て、人間が「喜んでいる」「悲しんでいる」「畏れている」などの感情を持っていることを識別できるだけです。

・落ち込むこと
 AIは落ち込みません。AIにとって失敗とは無数にある失敗のひとつにしか過ぎず、それは単に学習のチャンスであって悔やむようなことではありません。過去の失敗を思い出してくよくよしたりすることもありません。それがAIの欠陥であり、AIが落ち込むようにプログラミングしようという試みをしている研究者もいます。

 AIがやがて人類の敵になり、人類はAIに食い物にされて終わるのだという悲観論が、わりと高名な科学者や起業家から発せられていることに、筆者は驚きます。なんていうロマンチストなのだと。

 実際にAIを研究すると、AIがそこまで無分別に自分の欲望を獲得して、自分で考えて、自発的に人類を排除しようと考えるに至るまでにどれくらい途方もない時間が掛かるのだろうと思ってしまいます。

 悲観論を唱えるホーキングもイーロン・マスクも確かに高名なサイエンティストであり、アントレプレナーではあるのですが、このふたりとも、実際にはAIをプログラミングしたことがないという共通点があります。

今のAIが得意なこと

 最後に、今のAIが実際には何の役に立つのか、すぐに役立たせるにはどんな方法があるのか紹介しておきましょう。

・ひたすら何かを見る仕事

 何かを見る仕事は非常に大変です。工場のラインを流れてくる製品の欠陥を見つけたり、道を歩く人を数えたり、世の中には無数の「なにかをひたすら見る仕事」があります。

 ミスが許されない仕事ではあるものの、単純労働なのでやりたい人が少なく、非常にコストがかかります。
 さらに、正確性まで求められるので、これは人間ではなくさっさとAIがやるべき仕事です。

・ひたすら何かを繰り返す仕事

 繰り返しというのも、機械は得意ですが人間が不得意なことのひとつです。機械は「さっきと同じことをもう一回」と指示すれば完璧にできますが、人間に「今の投球フォームを全く同じでもう一回」と言っても100%できません。

 しかしものの生産現場においては、何かを繰り返しやる仕事というのは非常に多く、こうした場面も一刻も早くロボットに置き換えていくべきです。

・24時間いる仕事

 人間は夜寝て朝起きるようにできています。これは原始時代から変わりません。
 にも関わらず、24時間、三交代制で勤務しなければならないような場所は世界中あちこちにあります。

 その人員をせめて半分から1/3に減らすことができれば、人々のQoLはもっと高くなるのではないでしょうか。
 たとえば当直医の制度がそれです。

 もちろん、人が病気になるのは24時間いつでもなる可能性があるのですが、実際には当直医の手に余る案件は数多く、その問診や触診の一部でもAIに代替させることができれば、より多くの命を救うことが出来るはずです。

 また、慢性的に看護師が不足しているため、病院の深夜巡回の半分をロボットにやらせれば、人間の負担はだいぶ減るのではないかと思います。

 ロボットは異常検知が得意なので、異常を検知したときだけ、人間が出ていくようにするなど、効率的な運用も考えられるはずです。

 今のAIは、なんでもできるわけではないですが、これまでできなかったことが確実にできるようになってきているので、上手い活用法を考えたいものです

WirelessWire Weekly

おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)

登録はこちら

清水 亮(しみず・りょう)

新潟県長岡市生まれ。1990年代よりプログラマーとしてゲーム業界、モバイル業界などで数社の立ち上げに関わる。現在も現役のプログラマーとして日夜AI開発に情熱を捧げている。

RELATED TAG