週刊アスキー

  • Facebookアイコン
  • Twitterアイコン
  • RSSフィード

VIVE Cosmosはモバイルにも接続!?新情報も聞けたVIVE Pro Eye&VIVE Focus Plus体験会レポ

2019年07月01日 13時00分更新

ほぼ遅延もなく快適!

 いろんな活用が期待できるVIVE Pro Eyeだが、実際にアイトラッキング機能は、どのぐらいの精度なのか体験してみた。

 VIVE Pro Eyeを初めて使う際は、ユーザーの目に合わせるキャリブレーションが行なわれる。このキャリブレーションは半自動的に行なわれる。

 IPDの設定は、最適な距離が自動的に検知されるが、合わせるのは従来と同じく手動。しかしながら、今までは自分で手動で合わせていて、それが合っているのか合っていないのかわからなかったが、それがなくなっただけでもありがたい。

 その後、移動する丸を目で追ってキャリブレーション終了。この作業は、デベロッパーキットがすでに発売されているアイトラッキング機能搭載VRHMD「FOVE」とほぼ同じ。

 まずは、視線誘導がきちんと行なわれているかのデモ。アバターが目の前に表示され、視線を動かすと、そのアバターの瞳孔も移動する。仮想空間内で鏡を持ち、それを視線の先に移動させて、自分の目の追従性を確認したが、ほぼ遅延はなかった。

 また、目の前の上下左右に電球があるので、それを見ると電球が光るという操作を体験。顔を向けてまっすぐに見ると、ほぼタイムロスなく電球は付いた。顔を動かさず視線だけを動かすと、時々反応しないこともあったが、この辺りの反応の範囲は、反応しすぎても困るアプリもあるだろうから、調整はなかなか難しそうと感じたが、おもしろい。

 次に6月28日より、VIVE Pro Eyeに対応したVRライブ・コミュニケーションサービス「バーチャルキャスト」も体験。バーチャルキャストは、アバターになりきり、ニコニコ生放送などの生放送サービスを介してスタジオを公開、または公開中のスタジオに「乱入」することができる。

 VIVE Pro Eyeに対応したことで、ユーザーの視線の動きがアバターの目の動きと連動。実際にアバターがどこを見ているのかが分かるため、ユーザーとのコミュニケーションに幅ができる。また、ウィンクや半目といった動きもアバターに反映させられる。

VIVE Pro Eyeを使えば、両手コントローラーを使った腕の動きだけでなく、目の動きもアバターに反映できる。手の動きと表情を組み合わせれば、カワイイ仕草のバリエーションも増えるはずだ

 バーチャルキャストはVIVE Focus Plusでも体験。解像度はどちらも両眼「2880×1600ドット」と同等。レンズの違いはあるが、ほぼ変わらない高精細な映像。ただし、VIVE Focus Plusは一体型であるため、スマホと同じプロセッサー「Qualcomm Snapdragon 835」を備えているため、「バーチャルキャスト」をそのまま動作させられない。そこで、前述したAMDのビデオカード「Radeon」を搭載したPCにてバーチャルキャストを起動し、WiFi経由でVIVE Focus Plusにてストリーミング配信した映像が表示されていた。

 PCで使われていたビデオカードは「Radeon Vega 64」、使用されていた無線LANルーターはTP-Link製のトライバンドルーターだったが、時々画面の一部が崩れることはあったが、アバターの動きはVIVE Pro Eyeで体験した時より、手の動きが後から付いてくるような、遅れを感じたが比較しないと分からないレベルと快適にプレイできた。

 さらに、VRコンテンツとしては定番の「theBlu」もVIVE Focus Plusで体験。映像としては既存の初代「VIVE」や競合の「Oculus Rift」よりも格子感が少なく、高解像度で映像が楽しめた。何より、ケーブルがないためケーブルが身体に当たるということもなく、周りを見回すことがとてもラクチンだった。

この記事をシェアしよう

週刊アスキーの最新情報を購読しよう