木曜日に公開された2つの特許出願によると、Appleは壁を剥がす「X線ビジョン」モードなど、周囲の強化された仮想オーバーレイをユーザーに提供できるiOS用の拡張現実システムを研究しているという。

Appleは米国特許商標庁に「」というタイトルの2件の出願を提出した。フェデレーテッドモバイルデバイスの測位" そして "実際のモバイル端末の位置と環境モデルの位置合わせ」どちらも、iPhone のカメラ、オンボードセンサー、通信スイートを利用して、豊富な位置データを重ね合わせたリアルタイムの世界観を提供する、高度な拡張現実ソリューションについて説明しています。

システムはまず、GPS、Wi-Fi 信号強度、センサー データ、またはその他の情報を使用してユーザーの位置を特定します。そこから、アプリは、近くの建物や名所のワイヤーフレームと画像データを備えた周囲エリアの 3 次元モデルをダウンロードします。しかし、そのデジタル表現を現実世界に対応させることは、センサーだけでは困難です。

モデルを正確に配置するために、Apple は iPhone のカメラから供給されるライブ ビデオの上に仮想フレームを重ねることを提案しています。ユーザーは、ピンチしてズームしたり、タップしてドラッグしたり、その他のジェスチャを使用して画面上で 3D アセットを操作することで、3D アセットをライブ フィードと位置合わせすることができ、機械による計算だけでは不可能なレベルの精度を実現できます。

あるいは、ユーザーは「左に移動」や「右に移動」などの音声コマンドを発行して、画像を一致させることもできます。ワイヤフレームは、1 つまたは複数の点が正しく位置合わせされているときに「ロックイン」することができ、これにより拡張ビューが調整されます。

さらに別の実施形態では、ユーザは、ライブビュー領域に手を置き、仮想画像の一部を「掴み」、特別なジェスチャセットでそれらの位置を変更することによって、ワイヤモデルと直接対話することができる。この 3 番目の方法では、ユーザーの手がカメラの正面の環境といつ、どのように相互作用しているかを判断するオブジェクト認識テクノロジーが必要です。

現在の iOS 7 はニューヨーク市の上空をマップします。

ユーザー入力に加えて、デバイスはピッチ、ヨー、ロール、その他の動きを補正して、ライブの世界観に関連付けられた空間内の位置を推定できます。ロックが作成され、画像が調整されると、拡張現実プログラムは画面上のオーバーレイを介して有用な位置データをユーザーにストリーミングできます。

たとえば、iPhone の所有者が新しい場所に旅行する場合、周囲の環境に慣れていない可能性があります。強化されたリアリティ アプリを起動すると、ユーザーは近くの建物や道路の名前を読み取ったり、ビジネス情報を入手したり、場合によっては壁を「剥がして」選択した構造物の内部を閲覧したりできるようになる。

「X 線ビジョン」機能については、建物内部の画像資産はオフサイトのサーバーに保存されるという注記を除いて、どちらの文書でも完全には詳しく説明されていませんでした。ただし、写真を現実の写真と適切に調整するには、豊富なデータの膨大なデータベースが必要であると想定できます。

最後に、Apple は、自動ワイヤーフレーム位置決めのためのクラウドソーシングのキャリブレーション データと、現実世界のオブジェクトの固有の特徴やパターンを使用して仮想フレームを整列させるマーカーベースの位置合わせ方法について言及しています。

出典: USPTO

Appleが、今月後半にデビューが予定されている次期OS「iOS 8」に拡張現実技術を組み込む計画を立てているという証拠はない。しかし、同社はマッピングを目的とした仮想現実の発明を多数保有しているが、おそらくこの技術の一形態が近い将来、消費者向けデバイスに導入される可能性があることを示唆している。

Apple の拡張現実特許は 2013 年 3 月に初めて申請され、クリストファー G. ニコラス、ルーカス M. マルティ、ルドルフ ファン デル メルヴェ、ジョン カセバウムが発明者として認められています。