Appleは火曜日、コンピュータービジョンと慣性測定センサーを使用したデバイスの位置特定(マッピング)方法を詳述する特許を取得した。これは、今年買収された拡張現実スタートアップのフライバイ・メディアから再譲渡された最初の発明の1つである。
この特許は、米国特許商標庁によって「」として公開されました。視覚ベースの慣性航法」を使用すると、カメラ画像とセンサー データを使用して、消費者向けデバイスを 3 次元空間に配置することができます。
具体的には、このシステムは、車載カメラからの画像と、ジャイロスコープや加速度計ハードウェアなどのセンサーからの対応するデータを組み合わせて、特定の時点でのデバイスの位置に関する情報を取得します。後続の画像と測定値が比較対照され、デバイスの位置と方向がリアルタイムで決定されます。
この特許に記載されているように、視覚ベースの慣性航法システムは、数センチメートル単位の精度を達成するために GPS 信号や携帯電話の基地局を必要としません。ただし、過去の変数を追跡するには、後の処理のために画像やセンサーの測定値を保存することが必要になることが多く、この方法ではモバイル ハードウェアには不向きな計算オーバーヘッドが必要になります。
このような障害を克服するために、Apple の発明では、計算負荷を最小限に抑えるように設計されたスライディング ウィンドウ逆フィルタ (SWF) モジュールを実装しました。この技術はまず、デバイスのカメラで撮影された画像の重なり合うウィンドウからの情報を処理し、次に対応するセンサー データを使用して画像内の特徴を追跡して、推定されるデバイスの状態を決定します。
次に、SWF はデバイスの近くにあるオブジェクトの位置と方向を推定します。次に、一連の画像またはウィンドウ内の画像ごとに、デバイスの状態と近接オブジェクトの推定値が計算されます。最後に、SWF は画像の各ウィンドウを要約し、推定値を単一時点のデバイスに関する情報に変換します。 1 つのウィンドウに関する要約情報は、重複する 2 番目のウィンドウの処理ステップに適用できます。
現実の状況では、拡張現実ナビゲーション ソリューションを強化するために SWF モジュールが使用される場合があります。たとえば、SWF の位置と方向の推定は、デジタル マップ上の点にラベルを付けるために使用されたり、小売店で商品を見つける際の視覚補助として機能したりすることがあります。このモジュールはオブジェクトの最後の既知の位置を維持できるため、ユーザーが置き忘れたキーやその他の重要なアイテムのセットに戻る可能性があります。
考えられる実装の 1 つは、深度センサーを組み込んで特定の環境の 3D マップを作成するもので、もう 1 つはデバイスの無線を統合して、ユーザーが建物内を歩くときに信号強度をマークするものです。
Apple が SWF テクノロジーを次期製品に統合する計画があるかどうかは不明ですが、同社は拡張現実と仮想現実のソリューションに熱心に取り組んでいると言われています。
Appleの視覚ベースの慣性ナビゲーション特許は2013年に初めて出願されており、元Flyby Media従業員のAlex Flint氏、Oleg Naroditsky氏、Christopher P. Broaddus氏、Andriy Grygorenko氏、Oriel Bergig氏、そしてミネソタ大学教授のStergios Roumeliotis氏が発明者として認められている。
今年初めの報道ではAppleが主張したFlybyメディアを購入しました、Google の Project Tango に関連する拡張現実ソリューションに焦点を当てたスタートアップです。本日の特許に名前が挙がっている発明者のうち、ナロディツキー氏とグリゴレンコ氏は現在アップルで働いている。