2024年12月12日、Googleは新たにXRデバイス用のプラットフォーム『Android XR』を発表しました。 かねてよりアピールされていた、SamsungとQualcommとの提携によるものです。
今使いたい機能が一通り揃った『Android XR』
Googleは以前に『Google Cardboard』や『Google Glass』といったハードウェアを手がけていたこともあるのに加えて、長年ARCoreをはじめとしたAR技術開発に力を入れていました。近年では、Google MapにARを使った案内表示機能が登場したり、Geospatial APIを使った屋外でのAR利用にも積極的です。
『Android XR』ではこれらの機能に加えてAIを使用することで、見る・働く・探すといったシーンを変えるデバイスになっています。
そして「Project Moohan」のコードネームで開発が進んでいるサムスン製のデバイスが、来年発売予定!VRとARを切り替えることができる端末になるとのことです。そちらは、Meta Quest Proの様に額で押さえるような作りになっています。デモ映像にはコントローラーは見当たらず、ハンドトラッキングで操作している様子が見えます。
将来的にはメガネ型のデバイスにも対応する予定と記載されていますが、Google I/Oや「Project Astra」の動画内で登場しているものかもしれません。
Androidベースなので既存のアプリが利用できるほか、Youtubeや Google TVは大画面で視聴できるなど、Google製のアプリは最適化されたものが登場します。他にも、Googleフォトでは写真を立体的に見る体験も追加されるとのことです。
また、ウインドウに表示された情報を囲んで検索する、Circle to Search機能も搭載!XRデバイスではどうしても文字のタイプが難しい側面があるため、検索機能が強化されるのは嬉しいポイントです。
UIはMeta QuestやApple Vision Proとよく似ており、操作で戸惑う部分は少ないでしょう。
ARCoreはもちろんUnityやWebXRにも対応し、すぐに開発が可能!
開発には環境としてAndroid Jetpack XR、Unity、OpenXR、WebXRに対応。すでに開発者向けページも公開されており、プレビュー版ではあるものの開発ができる状態にあります。
例えばUnityでは、Unity 6(Unity 6000.0.23f1以降)でPackage Managerから「com.unity.xr.androidxr-openxr」のインストールが可能です。開発者ページはこちら!
ARの機能としては空間アンカーや平面認識、ハンドトラッキングといった基本的なものから、カメラへのアクセスや顔認識、アイトラッキングなどもできるようです。
UIドキュメントも公開!
『Android XR』ではUIのドキュメントも公開されています。
基本レイアウトとしては、通常のアプリを使用したときや、XRのアプリを使用した際のレイアウトが3種類。さらに空間を活用するものが3種類となります。
Spatial panelsでは画面を横一列に出すだけでなく、自由な配置が可能。3Dモデルや空間に配置するモデルに関しては、glbとglTFをサポートしています。
まとめ
Googleの開発するXRデバイスについては、近年さまざまな場所でチラ見せされていましたが、今回の発表で一気に情報が出てきました。先発であるApple Vision ProやMeta Questといったデバイスの良いところも取り入れられている印象です。
さらに、AndroidやUnityユーザーにとっても開発しやすい環境が整っているため、後に登場するデバイスの価格やスペックにもよりますが、期待ができるプラットフォームとなりそうですね。
◆参考ページ:
https://blog.google/products/android/android-xr
https://android-developers.googleblog.com/2024/12/introducing-android-xr-sdk-developer-preview.html
https://developer.android.com/develop/xr/get-started