スクリーンショット 2016-03-07 7.43.42

東大暦本研がとにかくすごい

The cutting edge of the universe

2016.03.07

Updated by Ryo Shimizu on 3月 7, 2016, 08:22 am JST

 去る3月5日、何年も前から行きたかった東大暦本研、正式名称は東京大学大学院学際情報学府 暦本研究室というらしいですが、そのオープンハウスに行ってきました。

 暦本研を率いる暦本純一先生とはどのような先生かというと、東大教授でありながらソニーの研究機関であるソニーCSLことソニーコンピュータサイエンス研究所の副所長でもあり、そして日本を代表するユーザーインターフェースの研究者の一人なのです。

 日本人はなぜかユーザーインターフェースの研究者が多く、慶應の増井俊之先生(iOSの初期のプログラマーとして活躍。元ソニーCSLで携帯電話の予測文字変換を発明)、マサチューセッツ工科大学の石井裕先生(アラン・ケイに才能を見出されMITメディアラボ副所長に。タンジブルコンピューティングの名付け親)などです。

 コンピュータグラフィックスの研究者に比べると、ユーザーインターフェースの研究者が圧倒的に多い印象で、これはもしかすると日本人の精神性などと関連しているのかもしれません。

 中でも暦本先生は、iPhoneが登場するよりはるか10年以上前にタッチスクリーンのコンピュータを開発していたり、最近はジャックインヘッドなど、様々な取り組みを行っている研究者です。

 毎年オープンハウスにお誘い頂いていたのですが、平日に開催されることが多いため、どうしても参加することができないタイミングが多く、今回は土曜日だったので会場も大盛況でした。

 暦本研の研究は、一言でいうと、わかりやすく、面白いものが多いです。
 子供にも理解できるような、直感的な発明が多く、来場者も行列を作っていました。

 最先端の研究らしく撮影禁止のものが多くて写真で紹介できるものは限られるのですが、筆者が個人的に「これは!」と思ったものを2つだけ紹介します。

スクリーンショット 2016-03-07 7.43.38

 ひとつめは、CASPER(キャスパー)と呼ばれる発明(https://lab.rekimoto.org/projects/casper/)。

 これは、テレイグジスタンス(遠隔存在)装置の一種で、通常はテレイグジスタンスというとロボットを使ったものが多いですし、実際、筆者もテレイグジスタンスロボットのDoubleを研究所に置いて使っています。

 これはコロンブスの卵というか、意外に便利なので、みんなも使えばいいのに、と思うのです。慶應大学では教授会の出席者の半数がロボットになる日もあるそうです。

 ところがこのCASPERはロボットを使わないんです。映像を使うことで、存在しない人物を写り込ませ、ユーザーは鏡を見ているかのような状態で、遠隔地にいる人物と会話したり共同作業したりすることが可能です。

 写真をよく見てください。

 手前には、黒いジャケットを着た暦本先生が写っています。
 しかしプロジェクターのスクリーンの方を見ると、暦本先生の姿の左隣りに学生がいるのがわかります。

 しかし手前(現実の空間)には、暦本先生しかいません。

 まるで魔法のように、その場にいない人物がその場に存在しているのです。
 まさにこれもまたコロンブスの卵的なテレイグジスタンス(遠隔存在)技術です。

 しかも鏡像はアバターなどのCGに比べて感情移入がしやすいし、自由度も高いので、「これはひょっとするとロボットよりいいのでは?」と予感させるに十分なものでした。いつか実用化されたらいいなと思います。

 もうひとつは、地味だけれども革命的なツールです。

スクリーンショット 2016-03-07 7.43.42

 それがこちら、Jack In Eye(https://lab.rekimoto.org/projects/jackineye/)です。

 暦本研のWebには旧バージョンの写真が掲載されていますが、当日は最新バージョンが掲載されていました。

 まず驚いたのはそのシンプルな機能です。

 実は、VR、いわゆるバーチャルリアリティコンテンツは制作するのにいくつかの問題があります。

 今年はVRが来る!と言われて久しいですが、実際にはVRコンテンツには課題が非常に多いのです。

 筆者の経営する株式会社UEIでも、子会社のUEIソリューションズにVE(バーチャル・エンターテインメント)事業部があるのですが、こちらは主に実写のバーチャルリアリティコンテンツの制作を行っています(http://www.uei.co.jp/solution/vrider/)。

スクリーンショット 2016-03-07 8.06.34

 このVRソリューションは、通常はドローンや三脚、もしくは自動車などといったものに360度カメラを取り付けて撮影します。

 しかし問題があるのは、結局、撮影者が写り込んでしまいがち、ということです。

 まあ人でなくても、ドローンなら見上げればプロペラが写り込んでしまいますし、クルマも運転者が写り込んでしまいます。

 つまり、そういう特殊な状態では撮影可能であるものの、たとえばVRで実写映画を撮影しようと思ったら、撮影者の身体が邪魔になります。

 この、「自分が人間でない感じ」が気にならないコンテンツ、たとえば旅行とか観光ガイドとか博物館に設置するようなコンテンツならば問題がないのですが、自分が人間である感じが重要なもの、たとえば誰かになり切ったりとか、極端に言えば完全な主観視点のVRを作る方法がこれまでは確立されて来ませんでした。

 このJack In Eyeはそうした問題を極めてシンプルな方法で解決しています。

 ヘッドホンのように左右に取り付けられた魚眼レンズの映像から、一枚の継ぎ目のない全周映像をリアルタイムに作り出します。

 さらに、それをLTE接続した映像伝送器と一体化しており、リアルタイムでインターネットで配信。さらにそれをiPhoneでリアルタイムに受信することができます。

 つまりこのJack In Eyeがあると、人はリアルタイムで誰か別人になることができるのです。

 実際、先日開催された東京マラソンをランナーが走りながら全周映像を中継できるというシステムになっており、筆者も拝見しましたが本当にマラソンを走っているような、実際に自分がそこにいるかのような奇妙な錯覚にとらわれました。

 まさに幽体となって自分の肉体を離脱し、他の人の視界にジャック・インしてるような感覚が筆者の心を捉えて離しませんでした。

 実際、このJack In Eyeを使用してスキーの大回転ジャンプや、カヌー、400メートル走、スカイダイビング、パラセーリングなどのコンテンツを見ると、やはり人間の身体が見えるため、これまでの単なるドローンなどを使用したものとは別格の臨場感がありました。

 こういうものをさらっと作れてしまうのはさすがの一言です。
 これは暦本研とソニーCSLの共同研究として進められていますが、非常に野心的なプロダクトだと思いました。というか市販して欲しいくらいです。

 しかもこのシステム全体が非常にコンパクトで、スタンドアローンであるという点も見逃せません。

 未来のVR映画の監督は、きっとこれを装着して自分の体験をデザインするようになるでしょう。CG加工のような小細工が一切なかったとしても、これを付けて物語が進行するとしたら革命的な体験になります。

 どうして今まで誰もやってなかったのか不思議なくらいです。

 他にもいろいろおもしろい研究が発表されており、ワクワク、ドキドキした一日でした。

スクリーンショット 2016-03-07 7.45.26

 余談ですが二次会で暦本先生の研究室におじゃましたとき、私の書いた本が本棚にあって嬉しかったです。

 しかしこういう研究室を民間企業がもっていて、しかも東大と一緒にオープンさを取り入れながらどんどん夢を形にしていくというのは素晴らしいことですね。

WirelessWire Weekly

おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)

登録はこちら

清水 亮(しみず・りょう)

1976年新潟県長岡市うまれ。6歳の頃からプログラミングを始め、16歳で3DCGライブラリを開発、以後、リアルタイム3DCG技術者としてのキャリアを歩むが、21歳より米MicrosoftにてDirectXの仕事に携わった後、99年、ドワンゴで携帯電話事業を立上げる。'03年より独立し、現職。'05年独立行政法人IPAより天才プログラマーとして認定される。

RELATED NEWS