開発チュートリアル
とりあえず動かす
UnityでビルドしたプロジェクトをOculus Goで動かすところまで。
自分はAndroid Studio丸ごとインストールしてそのSDKを指定した。
一応概要を把握する
雑にUnityちゃんを動かす
このプロジェクトを自分で作成し、上記セットアップでのOculus Go向けの変更点(Build Setting周り)を反映する。
Unityちゃんの操作はタッチパッドを十字コントローラーに見立てる。
コントローラーをプロジェクトに表示
が参考になるが、ライブラリが更新されているため実際は以下の操作になる。
"Oculus Integration"をAsset Storeからインストール。Oculus Integrationは最新で実質UtilitiesになったのでむしろAsset Storeからのインストールを推奨
プロジェクトデフォルトのカメラを削除し、AssetのOculus/VR/Prefabs/のOVRCameraRigををhierarchyに追加
OVRCameraRig内の{Left/Right}HandAnchorにAsset/Oculus/VR/Prefabs/TrackedRemoteを追加
各TrackedRemoteのプロパティでOVRTrackedRemote > Controllerを{L/R} Tracked Remoteに設定する
これでVR空間上に向きを同期したコントローラが表示される。
ボタン、タッチパッドの検出には"OVRInput"を利用する
タッチパッドの利用とOculus用のUI Text
MMDインポート
Oculusとは関係ないけどついでに。
MacではMMD->FBXの変換に失敗するので以下を参照して対応。
カメラの向きに合わせてタッチパッドで移動する
音楽をオブジェクトから聞こえるようにする
を参考に、以下を行う。
音源ファイル(mp3)をAssetsに追加
オブジェクトにAudio Sourceを追加し、AudioClipに音源ファイルを追加
Spatial Blendを1にし、3D音源にする
必要なら3D Sound Settingsのパラメータを適当にいじる
コントローラーからレーザーポインタを描画する(LineRenderer)
他人に配布する際に
インストールで権限が要求されてしまう
応用