特集・集中企画
ソニーの超小型&軽量フルトラッカー「mocopi」のココがすごい! 屋外配信でも身バレしない、VTuberツールに新風到来
いよいよ本日発売。“環境に囚われないフルトラ”はメタバースの世界を一変する
2023年1月20日 06:30
ソニーのモバイルモーションキャプチャーデバイス「mocopi」がいよいよ本日1月20日に発売となりました。「mocopi」はライバー界をはじめ、メタバース界で大注目のデバイス。スマートフォンにインストールした専用アプリと組み合わせることで全身のモーションを取り込むことができる(=フルトラッキングできる)のが特徴です。
今回、発売に先駆けて「mocopi」を先行体験してきました。そのインプレッションをまず一言で表わすなら、「これはいろんな意味でバーチャルの世界を変えるデバイスかも!?」と、その秘めたる大きな可能性を感じさせてくれました。
いえ、世界を変えるかもというのは大げさかもしれません。ただ、筆者のようなメタバースの世界で過ごす住人たちをはじめ、バーチャルの体(アバター)でのライブ配信を含めたパフォーマンスを行なっている人々にとって、「mocopi」は革命的なデバイスだと確信しました。
では、なぜ私がそこまで可能性を感じたか。気になる「mocopi」の機能を紹介しつつ、実際に使用した感想を交えながら、以下、その理由を明らかにしていきましょう。
「mocopi」ってどんなデバイス?:フルボディモーションキャプチャーの何が魅力的なのか
まず「mocopi」について紹介しますね。この「mocopi」は小型で超軽量なセンサー6個を身につけ、対応するスマートフォン(対応OSはAndroid 11以降/iOS 15.7.1以降、動作確認済みモデルはこちらを参照)で専用アプリを使用することで、どこでもリアルタイムに全身のモーションを取り込むことができるデバイスです。
たしかにこれまでも全身のモーションをトラッキングできるデバイスはいくつかありました。しかしその問題点として、大げさな設備が必要で個人のレベルではなかなか手が出しにくいものであったり、そこまで大げさでなくてもモーションをキャプチャーしたい部屋に大掛かりな機械を設置したり、また体につけるセンサーも大きめで使い勝手に難あり、ということがありました。
ですが、「mocopi」のセンサーは500円玉ほどの大きさで、センサー1個あたりの重量も8gと軽量。さらにスマートフォンがあればキャプチャーする場所をほとんど選びません。誰でも、どこでも、気軽に全身のモーションデータをキャプチャーできるのです。
例えば、自宅で(近所迷惑にならない程度で)上半身と腰・足をダイナミックに動かして全身のモーションを取ることから、公園といった屋外のある程度広い場所で思いっきり体を動かすダンスのようなモーションを取ることもできます。もしくは体育館のような広いスペースで前後左右に広々と動き回ったデータを取ることも可能です。
ただ注意点としては、「mocopi」とスマートフォン間の通信はBluetoothを使っているため、周りにBluetooth電波が反射する壁などがある場合は問題ないですが、周囲に全く何もない砂漠のような空間だと、スマートフォンと反対方向に飛んで行ったBluetooth電波が二度と戻ってこないので、接続状況が悪くなってキャプチャー精度が悪化することもあるとのことです。屋外といっても、ある程度オブジェクトのあるスペースで使用することにはなりますが、この点は基本的にそこまで気にする必要はないと思われます。
【1月23日追記】 「mocopi」とBluetooth電波に関して、ソニーに再度確認して本文を更新しました。「mocopi」のモーションキャプチャーは、加速度+ジャイロセンサーの6軸IMUのデータを、スマートフォンでAI処理して行ないます。センサー・スマートフォンのデータ通信にBluetoothが使われるとのことです。
そして価格は49,500円という、モーションキャプチャーデバイス市場でいえば比較的安価です。追加の機器購入は必要なく、スマートフォンという誰もが持っているであろうデバイスと組み合わせることで、個人のレベルでも場所を選ばずに全身のモーションをキャプチャーできる。これが私が「mocopi」に魅力を感じるポイントです。
「mocopi」のココがすごい!その1:装着していることを忘れるほどの小型&フルワイヤレスセンサーは魅力的!
ここからは、実際に試してみて感じた「mocopi」のすごいポイントをご紹介していきましょう。今回は、トラッカー初体験という編集部スタッフが実際に装着してモーションキャプチャーまでを体験させていただきました。
筆者も「mocopi」を触ってみましたが、実はこれで2回目。ですが、改めてセンサー1つ1つの小ささと軽さには驚かされました。先述の通り、「mocopi」は500円玉ほどの大きさのセンサーを、専用のベルトにつけて後頭部・両腕・腰・両足の計6カ所につけていきます。
各センサーを専用のベルトに着ける際は、マグネットに加えてプラスチックの爪で固定されます。ガッチリと固定されており、かなり激しい動きをしてもセンサーが取れることはなさそうです。
専用のベルトに関しては、キツめに締めた方が正確なデータが取れるとのこと。調整しながらの装着でしたが、バンドもマジックテープになっているので腕時計をつけるような感覚で、かなり直感的に装着することができました。長さの調整も簡単なので戸惑うことはなさそうです。
ただし、一点注意が必要なのが、腰につけるセンサーは、クリップを使ってズボンやスカートのベルトなどに引っかける形で装着することになります。ワンピースのように引っかける部分がない服の場合は装着できないので注意が必要です。その場合は別途ベルトを締めてセンサーを装着しましょう。
センサーを装着した後は「キャリブレーション」を行ない、センサーの位置と体の位置を一致させます。この手順も非常に明瞭かつ簡単で、スマートフォンの画面で案内された通りにまず直立した姿勢を取ります。そうするとスマートフォンから合図の音がなるので、一歩前に進むだけ。難しい手順はなく、時間も十数秒といったところでしょうか。これで使用できる状況になります。
キャリブレーション完了後、体を自由に動かせば、専用アプリの画面で自身の動きに連動してアバターが実際に躍動する姿を見られます。
センサーを付けた状態で軽く体を動かしてみると、センサーをつけている違和感のようなものは一切感じません。いつも通りの自然な動作ができます。その違和感のなさはセンサーをつけたまま思わず、体験スペースから帰りそうになってしまうぐらいです。よほど特殊なことをしない限りはセンサーをつけていることを意識しないでしょう。
「mocopi」のココがすごい!その2:バーチャルライバーにうってつけのユニーク機能
「mocopi」を体験していてユニークな機能が2つあったので、その2点をご紹介します。
その1つが「腰部分の動きを固定できる」機能です。「mocopi」は測定に加速度センサーを使用している関係上、(初めての体験だと仕方のないところではありますが)恐る恐るゆっくり動いたり、あまりセンサーを動かさないでいると徐々に位置情報がズレてしまいます。
具体的には、椅子に座ったまま上半身だけを動かすというような動きだと、腰や足の部分のセンサーがあまり動かないため、徐々にアバターの体勢がズレていく(動いていないと認識してしまう)ということです。
そんな時には、この腰固定の機能が非常に有効です。この機能を使えば腰の位置を完全に固定できるので、腰部分のセンサーを一切動かさなくても、その部分の体勢が固定されます。
実際の場面でどんな風に使うかというと、上半身の動きをメインにキャプチャーしたい場合ですね。例えば、今のVTuberの主流であるゲーム実況などはアバターの上半身だけを使うことが多いですよね。そういったときに腰を固定すると上半身の動きをよりダイナミックに表現しつつ、基本となる上半身の体勢を長く保持できるというわけです。
もちろん足も動かすことができます。これからの時代は“足の生えたVTuber”がゲーム実況を行なう、そんな場面も多く見られるようになるかもしれませんね。
そして、もう1つ面白かったのが「カメラを固定する」モードです。通常のモードでは自分を中心にカメラが動きます。つまり、現実世界の自分が右に動けば、カメラも右に動き、常に自分を正面に捉えてくれます。「mocopi」は部屋にセンサーなどのデバイスを別途設置する必要がないため、自由に動き回れるのが利点です。
そのときは「mocopi」側のカメラを固定することができます。現実世界で遠くに行けばアバターもカメラから遠ざかっていき、カメラに近づけばグッとアップになります。極端に言えば、体育館のように広い空間があれば、その空間をフルに使ったモーションを取ることができます。こういったデータが取れるのも「mocopi」ならではのユニークな点だと感じました。
ほかにも「mocopi」は、アバターを動かしてみた動画(MP4ファイル)だけでなく、モーションデータ(BVHファイル)だけを取り出すことも可能です。そのデータは「Unity」や「Blender」に取り込むことができます。
例えば、Unityで自作のアプリケーションなどを作っているときに、なんらかのキャラクターを動かしたいと思ったとしますよね。そういった時に手動でアバターを動かすことももちろんできますが、「mocopi」を使って自分で動くことでモーションデータを作成できるんです。
この手軽さとスピード感は大きな強みだと感じました。Unity上でのモーションデータ作成のほかにも、Blenderで映像作品を作るときなどにも「mocopi」のデータを仮のモーションとして取り込んでイメージを確認する、という用途も想定できそうです。もちろんそのまま本番作品に取り込んでも問題はありません。
「mocopi」の手軽さとスピード感が、クリエイターの大きな手助けになってくれる印象ですね。
また、すでに専用のSDKも公開されているので、今後はさまざまなオリジナルのアプリケーション・サービスが登場することが期待できるのもポイントです。
現時点では、公式には「Virtual Motion Capture」「Unity」「MotionBuilder」といったアプリと連携できることが発表されています。例えば、「mocopi」アプリからリアルタイムにモーションデータをUDPで受け取るSDKなども公開されているので、これを利用すればPC側のアプリで「mocopi」の動作を受け取ることができます。
このSDKによって今後生まれてくるサービスは、リアルタイムにアバターを動かすアプリかもしれないし、メタバースの各アプリと「mocopi」とを繋ぐアプリかもしれない。技術力と想像力次第でハックできるのは多くの開発者たちをワクワクさせる点かもしれません。
「mocopi」はバーチャルの世界を変えるのか
最後に本題に戻りましょう。「mocopi」はバーチャルで暮らす住人たちの世界を変えるのでしょうか。私自身の考えとしては、そこまでは極端としても、大きな影響を与えるのは間違いないと思っています。
現時点でもWebカメラを使ったり、ヘッドマウントディスプレイを使った上半身のモーションキャプチャーは可能です。たしかに大掛かり、かつ高額な機材を使えば全身を使ったモーションキャプチャーは可能でしょう。
「mocopi」は、それを誰にでも使いやすくしたところが革命的なのです。お手頃な価格もそうですし、スマートフォンがあれば場所を選ばずにモーションをキャプチャーできるのですから。
全身のモーションをキャプチャーしてアバターに、バーチャルの世界に反映できる。それはメタバースで暮らす住人、バーチャルの体を使って配信をしているライバーやパフォーマーにとっては大きなメリットです。シンプルに言えば表現力が豊かになり、より感情を伝えられるからです。
ライブパフォーマンスなどもより伝わりやすくなるでしょう。そこまでいかなくてもゲーム実況という意味でも、体感ゲームとかもわかりやすく表現できると期待できます。シンプルな配信であっても、全身が生き生きと動くことで視聴者に与える印象は大きく変わります。
そういった機能や体験でバーチャルで暮らす住人たちの遊び方や表現が変化することは間違いないでしょう。これこそ「mocopi」がこの世界を変えると思う理由です。
「mocopi」はあくまでもモーションキャプチャーデバイスですが、バーチャル世界でのコミュニケーションを一変する可能性を秘めています。SDKが公開されているところから推測するに、どんなことに使うか、それはユーザーの手に委ねられていると言ってもいいでしょう。この先どんな変化が生まれるか、私はもうワクワクが止まりません。
「mocopi」は本日1月20日より発売です。なお、ソニーストアで購入される際は出荷時期の確認をお忘れなく。ぜひこのワクワクを読者の皆さんと共有できれば幸いです。
著者プロフィール:でんこ
バーチャルに活動の場を移したゲームライター。得意分野はビデオゲーム全般だが、最近はメタバースへの関心が強い。
ライターとして様々なメディアで執筆する一方、NPO法人バーチャルライツ公認の第0期VR文化アンバサダーでもあり、メタバース上の活動やメディアでの情報発信を通じてVR文化の魅力を普及させるべく活動中。
・著者Webサイト:https://note.com/denpa_is_crazy/