
ラボ 2 - 個人プロジェクトのイベントとインタラクション
Tutorial
Beginner
+10XP
120 mins
Unity Technologies
このラボが終了する頃には、あなたの個人プロジェクトはほとんどのコア機能を備えていることでしょう。
このラボでは、以下のレッスンで学んだスキルを活用します:
このチャレンジは、「Create with VR」コースの一部です。
Languages available:
1. イベントとインタラクションの Design Document への記入
プロジェクトの作業を再開する前に、実際に何に取り組むかの計画が必要です。デザインドキュメント (design document) の記入を続けることで、このラボでの明確な行動計画を立てることができます。
1. 前回終了したところからデザインドキュメントをご覧ください:
- Lab 1 で作成したドキュメントを再度開きます。
2. ドキュメントにある Section 4 (Events and Interaction) を記入する:
- Direct インタラクター、Ray インタラクター、またはその両方を使用するのか、どのように切り替えるのかを決定します。
- 触覚や音声のフィードバック、その他シーンで想定される 3D サウンドなどを記述してください。
- ユーザーがオブジェクトを持ってトリガーを押すと、何かが起こるという、リスト固有のオブジェクトのアクティベーション機能。
- アプリのメインメニューについて、そのメニューから何ができるかを含めて説明してください。
- 関連する場合は、シーン内の他の UI 要素についても説明してください。
3. (任意) デザインドキュメントに、より具体的な内容を追加する:
- Section 6(その他の機能)の記入
- Section 7(その他の機能)の記入
- Section 8(その他の機能)の記入
これで、デザインドキュメントの Section 4 が完成し、アプリのコア機能を実装するこのラボの方向性が示されました。
関連リソース:
2. ハプティクスとオーディオの追加
コントローラーに設定されているすべてのインタラクターに、音声と触覚のフィードバックを追加します。
1. コントローラーに触覚フィードバックを追加:
- Audio and Haptics チュートリアルの指示に従ってください。
2. コントローラーに音声フィードバックを追加:
- Audio and Haptics チュートリアルの指示に従ってください。
3. Reverb Zones の使用など、環境に 3D / アンビエント (環境) フィードバックの追加:
- Audio and Haptics チュートリアルの指示に従ってください。
これで、コントローラーを使って希望のイベントを行うと、触覚や音声によるフィードバックが得られるはずです。また、3D の環境音が聞こえてくるはずです。
3. イベントベースのインタラクションの実装
イベントベースのインタラクション(例:トリガーを押したとき、シーンがロードされたとき、オブジェクトを傾けたときなど)を計画している場合は、時間をかけてそれらを機能させましょう。
1. アプリ内の特定のオブジェクトに Activation イベントを追加する:
- Activation Events チュートリアルの指示に従ってください。
2. イベントベースの機能をシーンに追加する:
- OnHoverEntered、OnSelectEntered などの他のインタラクションイベントにアクションを追加します。
- OnButtonPress、OnSceneLoad、OnTilt などの新しいイベントを Course Library > Scripts フォルダーから追加します。
これで、アプリにイベントベースのコア機能が実装されているはずです。
4. コントローラーのインタラクターとレイヤーの設定
Ray Interactor と Direct Interactor を組み合わせて使用する場合は、それぞれの手にそれらを設定し、必要に応じてそれらを切り替える機能も設定する必要があります。
1. それぞれの手にインタラクターを実装する:
- Direct and Ray Interactors チュートリアルの指示に従ってください。
2. 各インタラクターが特定のインタラクション可能なものとしかインタラクトできないようにレイヤーを設定する:
- Direct and Ray Interactors チュートリアルの指示に従ってください。
それぞれの手に適切なインタラクターが実装されている必要があります。これには、それらを切り替える機能も含まれています。レイヤーを使用することで、これらのインタラクターは適切なオブジェクトとのみインタラクトできるようになります(例:ソケットは特定のオブジェクトしか受け取れない、レイは特定のオブジェクトをつかめない、など)。
5. メインメニューの UI 作成
ほぼすべてのアプリが備えるべきユーザーインターフェース(UI)のひとつに、メインメニューの UI があります。
1. シンプルなメインメニューの UI の作成:
- User Interface チュートリアルの指示に従ってください。
2. リセット画面の UI の追加:
- User Interface チュートリアルの指示に従ってください。
3. ワールド内の UI 画面の追加:
- 追加のワールド空間のキャンバスを作成し、ユーザーに関連したコンテキストで表示します。
これで、ユーザーがクリックして抜けることのできるメインメニュー UI、リセット画面、そしてアプリの機能に必要な追加の UI が少なくとも 1 つは揃うはずです。
6. まとめ
注目のフィーチャー:
- 触覚 (Haptic) と音声 (Audio) によるフィードバック
- 3D 環境音
- オブジェクトの起動など、イベントベースのインタラクション
- コントローラーの Direct と Ray インタラクター
- ワールド空間の UI 画面
新しいコンセプトとスキル:
- より複雑なインタラクションを自分の VR アプリに適用する
次のラボ:
- 最適化とライティング