Google I/Oに行ってきました。
現地の様子を一言で言うと、
「俺たちはVoice UI, VR/ARの普及に本気で取り組むぜ!」というメッセージに集約されるように思いました。
というのも、期待をしていたマテリアルデザインのセッションはほとんどなく、その一方でVoice UI, そしてVR/ARの話がデザインのセッションの大半を占めていたからです。
もちろんその他にも特筆すべき事項がたくさんあるのですが、この記事では、今回Googleが発表したデザイン周りの情報、今後新しいデザインを手がけていく上で参考になるセッションを紹介していこうと思います。
なぜ、今、マルチプラットフォームを考える必要があるか
2020年までに
- webのセッションのうち30%は画面外で行われる (*1)
- 200 billion/月の検索が音声によって行われるようになる (*2)
- 今あるサービスのやり取りのうち85%は人間を介さずに行われるようになる (*3)
これだけ大きなインターフェイスの変更が予想されています。
こう行った予測は昔から行われてきましたが、ここ最近はGoogleやAmazonを中心に具体的な市場(*4)を作り出し、話により一層現実味が増してきました。
特に、Googleのようなスマホ市場を握るプラットフォーマーがこうした領域に参入することには大きな意味があり、ユーザーは今のスマホのユーザー体験から、Google HomeなどのデバイスやVRヘッドセットのような新しいガジェットに対してスムーズに移行していくことができます。(ex: Google音声検索、Daydream)
Google Home
今回のGoogle I/Oで一番力が入っていた分野は間違いなくVoice UIでしょう。
Google I/Oの参加者全員にGoogle Homeが配られました。早速使ってみていますが、とても便利です。PCをいじりながら検索したり、アラームセットしたりと言ったちょっとした動作を手を動かせずにやれるというのは、思いの外助かります。
加えて、Actions on Google(Google Homeとスマホをつなげて会話アプリを開発するためのプラットフォーム)がAndroidに加えてiPhoneでも使えるようになったり、Homeが日本語対応になったり、LGなどの家電メーカーと連携して家電の中に組み込まれるようになったりと、大きな発表が盛りだくさんでした。
これを機にVUIの開発をやってみようと思う開発者も多いのではないでしょうか。
何ができるの?
Google Homeが便利なことはわかりましたが、それを通じて私たちは具体的にどのようなサービスを提供できるのでしょうか。
Google Home上でVoice UIアプリを作る場合のメリットは、Google Homeがユーザーの要望を満たす上で特定のサービスが有用であると判断した場合、そのサービスをサジェストしてくれるというものです。
例えばユーザーが「ハンバーガーが食べたい」と言えばその場で近くのマクドナルドの注文が取れたりするといった具合にです。
あるいは、家の中の家電を操作するといったことも可能です。応用例を紹介したセッション
注意すべき点は、サービス側のタイミングでHome経由で通知を送ったりすることはできない、ということです。ユーザーに通知を送る場合は、従来通りスマホ経由で行うことになります。
このSuggest機能はGoogle Homeに置ける事実上のSEOのようなものと考えられます。Suggest機能についてはTransactions with the Google AssistantやGetting Your Assistant App Discoveredのセッションで詳しく説明してくれています。
Google HomeのUX
Googleによるデザイン設計ガイドラインは、Actions on Googleのページにまとめられています。
音声でユーザーインターフェースを設計することの良い点は大きく分けて3つ
- Speed(スマホを取り出して検索するより、情報を引き出すのが早い)
- Implicity(ユーザーは会話という行為に慣れており、どう振る舞えば良いかすでに知っている)
- Handsfree(スマホやPCを取り出すことなくアプリを操作することができる)
反対に良くないところは、
- プライベートな場所にユースケースが限られやすい
- 一度に大量の情報を伝えるのが苦手で、情報の一覧性に欠ける
といったところです。
どのセッションでも、「Voice UIは完璧なインターフェースではないので、他のデバイスやスクリーンを利用しながら体験設計してやる必要がある」ということを皆口にしていました。
ここでVoice Designの仕方に関する詳しい言及は避けますが、Google AssistantのProduct Designerは、デザインする際に注意することとして
開発するときにはこれまでのGUIデザイン以上にTry and Errorを素早いサイクルで繰り返す必要がある(10倍早く回せ!)
デザインは必ず「見る」のではなく「聴い」て確認する
完璧なVUIを目指さない(1回で答えを出そうとしたり、音声ですべてを解決しようとしない。時には画面に誘導したり、2回に分けて答えるのが良いこともある)
の3点を挙げていました。
VUIの体験デザインについては、この辺りのセッションが参考になりました。
- Finding the Right Voice Interactions for Your App
- In Conversation, There Are No Errors
- PullString: Storytelling in the Age of Conversational Interfaces
- Applying Built-in Hacks of Conversation to Your Voice UI
Google HomeのUIデザイン
Voice UIのデザインプロセスでは、UI設計をすること開発することはほぼ同義です。
Voice UIをデザインする際は、API.AIというツールにお世話になることが多いと思います。API.AIは最近Googleが買収したサービスでIntent(ユーザーがしたいことを判別するためのクエリ)とEntities(ユーザーの要求を理解するためのテキスト情報)を入力してやることでGUI上で会話をデザインしくことができます。あとは、テストで会話を繰り返しながら、躓いた所ではヒントを与えてやることで会話の精度がどんどん上がっていきます。
試してみたい方はこちらに30分でVoiceアプリを作るチュートリアルがありますので是非触ってみることをお勧めします。
VUIのお仕事
市場があるということは、職があるということです。LinkedInで現地の求人を探してみると、197件もの求人が引っかかりました。
Voice UIを得意とするデザイン事務所も出始めているようで、既にVoice UIを使ったサービス提供を開始している企業では、こうした会社をアウトソースしてサービス開発をしているとのことでした。
AR/VR
GoogleのAR/VRといえばDaydream(スマホをセットして見ることのできる廉価版ヘッドマウントディスプレイ)とTango(空間把握能力が通常の何倍もすごいスマホ)が有名ですが、今回のGoogleI/Oではそれぞれ、以下のアップデートがありました。
拡張現実デバイスを一般に普及させようとしていることが伝わってきます
Daydream
Samsung S8含め6ヶ月以内に6つのDaydream対応デバイスを発表する
単体VRヘッドセットのDaydream Euphratesを発表。HTC、Lenovoと提携して開発。
Cast機能(ヘッドセットをつけていない人ともコンテンツをシェアできる)の追加
ChromeにVR用コンポーネントを追加し、WebでのVR視聴環境を格段に良くしたTango
これまでの2端末からさらに対応端末を増加
VPSプロジェクトをGoogleMAPチームと連携して開始
VR/ARのUXデザイン
VRの開発者向けのセッションでは、Daydreamアプリをローンチして見えてきたユーザーの特徴が発表されました。
- HOME画面のトランザクション
Discovery Contents(Daydreamを起動して一番最初のスクリーン)のセッションのうち
- 25%のセッションは特定の目的を持たないユーザー
- 40%のセッションはDiscovery Contentsのリンクを1回はクリック
- 35%のセッションはVR store経由
だそうです。ここからわかることは、Daydreamのユーザーは(今のところは)新しいコンテンツに対して好奇心旺盛だということです。
2. 通常のアプリと比べて、ユーザーの課金率は約3倍
VRコンテンツの課金の方法についてはいろいろな方法があります。
もっともポピュラーな方法は体験版動画を見せるという方法だとのことでした。他にも、Cast機能が追加され、1人がVRで体験している世界を周りの人はスマホで見ることができるようになったので、スマホで見る分には無料、VRコンテンツを体験するのは有料というようなフックを効かせることもできます。
3. Daydreamのセッションは週に数回、平均40分ほどのプレイ時間
Daydreamのユーザーは、VRをプレイする頻度こそ少ないものの、1回のセッションの中で長くプレイする傾向があります。これは、1日になんども2,3分のセッションを繰り返すスマホの体験とは真逆のものです。このことから、Daydreamの開発担当者は「ユーザーにリッチな体験を長時間与えることが収益を得るための近道」と言っていました。
4. Daydreamで消費される時間の50%はビデオ視聴 (Youtube, Netflix, Huluなど)
ビデオ視聴というのは360度ビデオのことだと思いますが、動画コンテンツを見るという場合に使われることが多いそうです。
VR/ARのUIデザイン
VRのデザイン設計に関するセッションでは、近々Googleが発表しようとしているVR専用のデザインガイドラインの一部を紹介してくれました。こちらも紹介します
- 新単位:DMM (= distance independent millimeter)
平面デザインと違い、立体造形物をデザインするときには、大きさだけでなく、距離について深く考えなければいけません。遠くのものをデザインするのと近くのものをデザインするのとでは、スケール感が異なってきます。そこで導入するのが、DMMという単位なのだそうです。DMMは物体と距離の掛け合わせた数値で、距離に関わらずVR空間の物体サイズを定義します。アニメーションも同様です。1px = 1dmm
2. 人間の視野は約60度なので重要な情報は極力その中に収めること
3. デザインをSketchからUnityに出力するときの比率はx1
これらのデザイン原則は、Sketchファイルの形でまとめられています。
GoogleのVR/AR領域はキャズムを超えられるか
Voice UIに比べて、VR/ARコンテンツは普及が遅いだろうと言われています。Daydreamを楽しむためにも、Tangoを楽しむためにも、対応端末を持っている必要があり、一般のユーザーにとってはハードルが高いからです。その対応策として、Googleは今回、Chromeブラウザにアップデートを加え、より快適にVRコンテンツを閲覧・開発することが可能になりました。webVRのアップデートの詳細はこちら
webVRは裾野が広く、シェアしたり閲覧することも容易なので、「次のPokemon Goはアプリではなくwebからなのではないか」と言われています。
webVRのコンテンツを集めたwebVR Experimentsというサイトも開設されたので、こちらも見てみると楽しいです
マルチプラットフォームを前提に体験設計する
Voice UI, VR/ARと、2領域の新しいデザイン原則についてお話ししてきました。
それぞれ、新しいデバイスが登場し、エンジニア・デザイナー用のリソースも整備がされつつあります。
とはいえ、新しいプラットフォームが出ても、完璧な情報端末というものは存在せず、しばらくは同時に複数のデバイスがユーザーをサポートする状況が続くでしょう。デバイスをまたいだユーザー体験設計がより当たり前になってきます。
デバイスをまたいでデザインするためのテンプレート
最後に聞いたDefining Multimodal Interactions: One Size Does Not Fit Allが、一番明確にこれらの問いへの答えを体現しているように思いました。
デバイスごとに、ユーザーの状態を細かく定義して可視化するというアプローチです。ユーザーは動いているのか、静止しているのか、公的な空間にいるのか、私的な空間にいるのかなどを図にまとめていきます。
他のデバイスとも比較してみます。
このように図式化することで、ユーザーがどのような形で情報を与えてあげれば良いのかを、より明確に意識することができます。
Googleのデザイナーも悩んでいる
では、Googleの社内のデザイナーは皆、Voice UIやAR/VRに取り組もうとしているかと聞けば、必ずしもそうではないようでした。
Office Hourでデザインレビューをしてくれたデザイナーに「VUIやAR/VRとかはやろうとは思わないのですか?」と聞くと、「興味はあるけど、今のVoice UIチームのデザイナも、VR/ARチームのデザイナーも、率いているのは昔からその分野を研究しているプロフェッショナル(コピーライターやゲーム出身のデザイナー)。従来のアプリのUI/UXのデザインとは全く別の知識・経験を問われるものなのだから、僕らは彼らの考えを尊重する」と言っていました。
スキルセットは幅広いに越したことはないですが、デバイスが溶け合うなかでデザイナーとして求められるものは、ユーザーの状況を深く洞察する能力と、異分野のデザイナーと互いに連携しながら良いチームを築けるようなソフトスキルであるように感じました。