AR精度向上が期待されるiPad ProへのLiDAR搭載。
プラス、ARKit3.5で可能となったオブジェクトオクルージョン。
どれくらいの水準なのか、超簡易ではありますが検証をしました。
結論としては、今までのARに比べると「認識精度」「認識スピード」ともに、活用が期待できる水準だと感じました!!
※5分で作れる検証用アプリの構築手順も下記に記載しております。
超簡易検証結果
オブジェクトオクルージョンの精度はなかなかのもの
下記の写真をご覧ください。
手前から奥に①、②、③の順番で配置しています。
②がAR空間上のオブジェクトですね。
よく見ると切れ目に粗さがありますが、パッと見ただけでは違和感が少ないのではないでしょうか。
奥行きをしっかりと認識して、オブジェクトが表示されています。
※今までのARだと、②の物体全体が表示されておりました。
AR空間認識の精度、速度
動画が一番分かりやすいかと思いますので、動画でアップいたしました。
これからの、LiDAR搭載ARの認識水準が分かるかと思います。
空間の認識速度
アプリ上、ワイヤーフレームのようなもの(赤い線などのやつ)を表示させておりますが、
その線が表示されたら空間として認識できた、と考えてよいと思います。
「面」と「高さ」がしっかりと認識できていることが確認できると思います。
初期の読み込み(LiDARの起動?)は数秒かかりますが、今までのように本体を上下左右に振らなくても空間認識できるようになっています。
スキャニングし始めると、移動したとしても認識は速いと感じます。
動きながらのオブジェクトオクルージョンの動作
動きながら(iPadを持ちながら移動)のオブジェクトオクルージョンの精度確認です。
精度の甘さや認識できないようなケースはありますが、今までのARKitでは体験できなかった世界だと思います。
高さの認識精度(段差の認識精度)
ほぼ完璧なデキだと感じます。
ピタッとソファーの上にオブジェクトが置かれていることも確認できると思います。
壁の認識
壁も認識できていますので、置いたオブジェクトは欠けて表示されます。
※オブジェクトの配置に苦労しているのはスルーしてください 笑
確認環境
MacBook Pro 15インチ(2018) macOS 10.15.4
Xcode 11.4
iPad Pro 11インチ(2020) LiDAR搭載
稼働確認アプリ構築手順
オブジェクトオクルージョンを試すための「超簡易」アプリの構築手順です。
雛型プロジェクトから数行追加するだけで試すことができます。
Xcodeに慣れている方であれば、5分もあればできるかと思います。
1. Xcodeで新規プロジェクトを作成
iOS > Augmented Realit App を選択
Language: Swift
Content Technology: RealityKit
を選択。
2. オクルージョン等を有効化
「ViewController.swift」の「viewDidLoad()」内に以下の設定を追加すればOK
// ----- ARKit3.5 ScenUnderstanding設定 arView.environment.sceneUnderstanding.options = [] // オクルージョンを有効化 arView.environment.sceneUnderstanding.options.insert(.occlusion) // 物理計算を有効化 arView.environment.sceneUnderstanding.options.insert(.physics) // AR空間の認識を可視化(空間上にワイヤーフレームのようなものが表示されます) arView.debugOptions.insert(.showSceneUnderstanding)
3. iPad Proにビルドする
通常のアプリと同様、ビルドしてiPad Proにアプリを転送してください。
4. iPad Proにてアプリを実行
起動した瞬間に、画面中央に立方体オブジェクトが表示されます。(サンプルアプリの初期状態)
※上記動画では、多少アプリをカスタマイズしております。
絶賛配信中!
メルマガ詳細はこちら >>>
広告を含むご案内のメールをお送りする場合があります。
以下も、ぜひご活用ください^^