OculusQuestでハンドトラッキングをしてみよう!<前編>

 前に投稿した記事ではOculusQuestの開発環境を整える方法をまとめました。
今回は簡単にハンドトラッキングを使えるようにしていきます。

筆者環境

  • MacBookPro(2017年モデル)
  • Unity バージョン2019.2.17f1

前提条件

1.プロジェクトを作りアセットを適用

前に投稿した記事に全て書いてあるのでそれを参考に
1.プロジェクトを作る
2.各種設定
3.アセットの入手
4.アセットをプロジェクトに適用
までの作業を済ませてください。

2.ハンドトラッキングの各種設定

次にハンドトラッキングのための設定をしていきます。
1.画像"例1"を参考に
①のAssets->VR->Prefabsの中にあるOVRHandPrefab
②のOVRCameraRig->TrackingSpaceの中のLeftHandAnchorRightHandAnchorのなかにドラッグ&ドロップで入れます。

例1

2.画像"例2"を参考に
①のOVRHandPrefabをクリックし開き
Inspectorの中の②〜④を全てHand Rightに設定する。
*注意RightRightHandAnchorの中のOVRHandPrefabだけ上記の設定をしてください。

例2

3.最後にOculasQuest本体の設定をしていきます。
ホーム画面から設定->全てを見る->テスト機能ハンドトラッキングの項目をオンにする。
画像”例3”を参考に①〜③の順に選択しで囲まれたものに画面が変わるのでその中のハンドトラッキングの項目を設定します。④が画像と同じようにONの状態になっていれば大丈夫です。

例3

これだけで本体の設定は完了です。

  • 注意最後のOculusQuest本体での設定操作を必ず忘れずに行ってください。
    正しく設定されていない場合動作しません。

3.動作確認

いよいよ動作確認に入ります。
前に投稿した記事を参考にOculusQuestをPCに繋ぎビルドします。
完了後OculusQuest側で勝手にアプリを立ち上がらせてくれるので、動作を確認しましょう。 実際にOculusQuestを被って本体の前に手を出してその通りに手が表示されていれば成功です。
またOculusQuest本体の設定もされているのでホーム画面でもハンドトラッキングが使えるようになっています。
再度注意ですがOculusQuest本体の設定をしていないと正しく動作しないの正しく設定してください。

4.まとめ

今回は短くはありますが前編ということで簡単にハンドトラッキングを使えるようにしました。 ホーム画面でもハンドトラッキングが使えるのはとても面白いと思います。
しかし操作方法などは不明なので別途調査が必要です。 もしできたらそちらの方も記事にしたいと思います。
後編も出来次第、よろしければ読んでもらえると嬉しいです

コメント

このブログの人気の投稿

Phaser3 + Typescriptを使ってRPGゲームの基礎を作ろう!その2

M5Stackで、においセンサー(TGS2450)を使ってみる。(LCDに表示編)

Phaser3 + Typescriptを使ってRPGゲームの基礎を作ろう!その1