SAO実現までの道のり
もうすぐ2019年が終わりますね~,今年も楽しい年になりましたか?
19日目担当のきんです.
最近,VR技術が注目されていますよね.体験したことはありますか?
2016年,PlayStation VRやOculusなどのVR HMD(Head Mounted Display)が一般の消費者向けに販売され,「VR元年」と呼ばれました.それ以来,VR技術は日々進化しつづけています.
私は昔,SAOというVRを題材としたアニメを見た影響で,VR技術にはまりました.
この記事では,SAOとVR技術の魅力を伝えられたらなと思います!
気楽に読んでいってくださいね~
はじめに
SAO(Sword Art Online: ソードアート・オンライン)って知ってますか?
VR(仮想現実)/AR(拡張現実)/AI(人工知能)といった今ホットな話題を詰め込んだかのようなアニメです.
主人公がSAOというVRゲームの中に閉じ込められて出られなくなり,現実世界に帰るために同じ境遇のプレイヤーと協力してゲームクリアを目指す,という設定で本当に面白いです!このVRゲームの中では,現実と同じようにご飯を食べたり,仕事をしたり,結婚したりと現実の体験と見分けがつかないレベルで仮想的な体験ができます.すごくないですか?
筆者は高校生のときSAOという作品に出会い,将来SAOの世界観を実現するために情報系に進みました.同じようにこの作品に影響されてVRエンジニアを目指している人をよく見かけますし,それくらい多くの人々に夢を与えているアニメです!
この記事では,SAOの世界観(現実と同程度に感じるVR体験)を実現するために必要な技術について,最新の研究や活用事例を紹介していきたいと思います.
ちなみに今ちょうどSAO(season 4)が絶賛アニメ放送中なのでぜひ見てみてくださいね~!
(season 1から見ないと話がわからないと思います笑.Amazon Primeとかで全シリーズ見れますよ!)
自然な会話ができるAI
ユーザと会話するAIを実現するためには様々な技術が必要になります.
・ユーザが話したことを聞き取るための「音声認識」
・入力された文章に対して人間らしい文章を返す「自然言語処理」
・文章を音声にして個性ある声でユーザに話し返す「音声合成」
などですね.特に「自然言語処理」は,異なる表現でも同じ意味を持つ文が多く存在することや,話し手の意図を文脈から想像する必要があることから,非常に難しいと言われています.
2019年夏,SAO刊行10周年を記念してイベントソードアート・オンライン -エクスクロニクル-が秋葉原UDXで開催されました.下の動画は,SAO作中に出てくるアリスと呼ばれる少女と,来場者の人格を疑似的に再現したAIが会話している様子を楽しめる体験型イベントです.技術提供はSONYが担当しているようですね.すごいぞSONY! https://www.youtube.com/watch?v=9JZgU77v-Q8
Deep Learningの登場によって,今後より自然な返答をする対話AIができていくと予想されます.
現状では,キャラクターごとにその人物らしい返答を事前にデータベースに登録していると思いますが,作成するキャラクター数が増えると手作業での入力は限界がきます.パラメータなどのチューニングによって,人の感情や個性をどのように機械学習で表現するかが重要な問題になるのではないかと思っています.
リアルな3DCG
最近のCG(コンピュータグラフィックス)がどれだけ綺麗か知っていますか?
実在する人と見間違えそうなくらいリアルなんですよ!!
これはSayaという架空の女子高生です.全て手作業で作られた3Dモデルなんです,驚きますよね.
CGを人間に似せようとしたとき、ある段階で極端に不快に感じられる現象を「不気味の谷」といいますが,既に不気味の谷を超えてしまっているのではないかと思います. https://www.youtube.com/watch?v=GCICGJhfjM0
また,FaceBookでは実在する人物を3DCGにする技術を現在研究しています.
HMDを装着することで,遠隔地にいても相手のリアルな表情を見ながら,直接会っているような感覚で会話できます.
電話は音声のみ,ビデオ通話は会話相手を平面的にしか表現できませんが,VRでは立体感が加わります.FacebookはVRを次世代コミュニケーションツールとして考えているようです.
表情の取得はHMD内部に付けられた赤外線センサを用いています.顔だけではなく自分の全身を3Dスキャンして,自分の3DモデルをアバターとしてVR体験すれば,もう現実と変わらないですよね.
https://www.youtube.com/watch?v=86-tHA8F-zU
VR空間内での移動
一般的なユーザがVRゲームをプレイするときは,リビングなどの部屋の中で遊ぶと思います.
最も手軽にVRゲーム内で制限なく動き回る方法は,コントローラで移動したい領域を選択して,その地点にワープするというものですが,没入感が損なわれてしまいます.ワープなんて現実感皆無ですよね.
現実空間での歩行をそのままVR空間内に反映する方法もありますが,HMD装着時はユーザは自分が現実空間上のどこにいるかわからないため,何も考えずに歩くと障害物にぶつかって怪我をしてしまいます.
Microsoftでは,VR HMDを被ったまま障害物にぶつからない移動方法を研究しています.
(ちなみに筆者も大学時代この分野の研究をしてました)
https://www.youtube.com/watch?v=TVdtoasnGqU&t=68s
ユーザを誘導する矢印や,現実の障害物の位置を表すオブジェクトをVR空間内に表示することによって,怪我をすることは回避できますが,VR空間内で自由に歩くことができません.無限に広がるVR空間で自由に走り回りたいですよね.
そこで,トレッドミルという床が動く装置を用いることで,現実空間内の限られた領域で,VR空間内で無限に走り回ることができます.FPSなどのゲームでは十分ですが,立っている状態を維持しなければならないため,それ以外のコンテンツに適用しづらいのが現状です.
https://www.youtube.com/watch?v=vEhwLRX4m2s
味覚と嗅覚の提示
VR空間の中で美味しいものをどれだけ食べても太らない.
そんなことを実現できたらストレス発散やダイエットに非常に効果がありそうですよね.味や臭いをコントロールする研究も盛んに行われています.
同じ味のフローズンを飲んでいる場合でも,飲むと同時に提示する香りをいちご,メロンなどと変えていくだけで,味もそれに合わせて変化するという研究結果や,電気刺激を加えることでチーズなどの味の濃さが変化するという研究結果があります.
https://www.youtube.com/watch?v=VpRGonRPZ4g
ラーメンの臭いや女性の香りなど,VR体験に合わせた様々な香りを再現するVAQSOという香りデバイスが登場していて,さらに味覚嗅覚VRの研究が進んでいきそうです. 触覚フィードバック
現在提案されているVR用触覚デバイスは,触覚を振動や空気圧アクチュエータによる硬さの変化などで機械的に表現するのが主流なのですが,機械的な再現には限界があります.
最近では電気刺激で触覚を表現する技術が期待されています.
UnlimitedHandという触覚提示デバイスでは,腕から電気刺激を与えることで仮想的にものに触れている感覚を提示しています.本当に鳥が乗っているように感じるのか試してみたいですが,電気を流すことに若干抵抗もあります... https://www.youtube.com/watch?v=dTpOG4ZYrXU
おわりに
VRは本当に夢のある技術です.
空を自由に飛べるんですよ.魔法だって使えます.現実では不可能なことでも実現できてしまうんです.
この記事を機に,VR技術に興味を持つ人が増えてくれると嬉しいです.
視覚聴覚に関しては,HMD映像の高精細化や視野角の拡大,ヘッドホンの立体音響などの技術が進化することで,現実と変わらないレベルの感覚をユーザに提示できると思います.しかし,味覚嗅覚触覚に関してはデバイスによる再現が難しいため,電気刺激(脳への電気信号)によってユーザに感覚を直接提示するしかないように感じます.
最終的に完全なVR体験を実現するためには,BMI(Brain Machine Interface: ブレインマシンインターフェース)で感情や命令などの脳からの電気信号の読み取り,電気刺激によって脳へ五感情報を書き込むことが必須だと思います.あまり現実的ではないですが...プログラミングするよりまず神経回路の勉強するべきなんですかね笑
早くVR関係の部署に異動できるように頑張っていきたいと思います.
まだ社会人始まったばかりなので,皆さんそれぞれの夢に向かって楽しんでいきましょう!