Appleは火曜日、ライブビデオストリーム内のオブジェクトを識別し、現実世界の画像の上にオーバーレイされるコンピューター生成の情報レイヤーを通じて、そのオブジェクトに対応する情報を提示できる拡張現実(AR)システムの特許を取得した。

米国特許商標庁発行、Apple の米国特許第8,400,548号「多機能デバイス向けの同期されたインタラクティブな拡張現実ディスプレイ」では、高度な AR 機能を促進するために、マルチタッチ スクリーン、カメラ、インターネット接続などのさまざまな iOS デバイス機能を使用する高度な AR システムについて説明しています。

他の AR システムと同様に、'548 特許では現実世界の画像が使用され、それらの画像がコンピュータで生成された情報層の下に表示されます。本発明の例では、ユーザは回路基板の上に携帯機器をかざしている。ライブ ビデオには、プロセッサ、メモリ カード、コンデンサなどのさまざまなコンポーネントが表示されます。このビューには、バーコードとマーカーも含まれています。

一実施形態では、ライブビデオは、デバイスのオンボードCPUによって処理および生成される破線または色付きの線、注釈、およびその他の視覚的手がかりの外観をとることができる結合情報層でオーバーレイされる。注釈はテキスト形式、画像、または Web リンクにすることができ、対応するオブジェクトに関連する情報をリアルタイムで提供します。オブジェクトを識別するために、Apple の発明では、エッジ検出、スケール不変特徴変換 (SIFT)、テンプレート マッチング、明示的および暗黙的な 3D オブジェクト モデル、3D キュー、インターネット データの活用など、既存の認識技術を利用します。認識はデバイス上または Web 経由で実行できます。

Apple のシステムに特有なのは、ユーザーが生成された情報を操作できることです。たとえば、検出システムがオブジェクトを正しく識別できなかった場合、ユーザーは画面上のコントロールを使用して必要な注釈を入力できます。いくつかの実施形態では、ユーザは、無線ネットワークを介して別のデバイスにライブビューデータを送信することができる。円やテキストなどの注釈を画像に追加でき、2 人の共同作業者が音声通信を通じて相互に対話できます。

おそらく '548 特許で最も興味深いのは、ライブ ビューとコンピュータ生成ビューを 2 つの別個のウィンドウに分離して使用する分割画面ビューです。コンピュータで生成されたウィンドウは、手動入力を利用して上記の通常の認識タスクを完了することも、まったく新しいデータ セットを構築することもできます。

与えられた例では、ユーザーはライブ ビュー ウィンドウでサンフランシスコのダウンタウンを見ている一方で、コンピュータで生成された画像アセットはシーンのリアルタイム 3D 合成を描画しています。この場合、生成されたアセットを使用して、手動で入力されたマーカーを含む移動ルートを計算し、2 番目のユーザーに送信できます。受信者は、自分のカメラ ビュー上で生成されたオーバーレイを使用し、含まれているマーカーと呼ばれる関心のある地点をタップして、コミュニケーション アプリを起動できます。

このアイデアをさらに一歩進めると、分割画面 AR データを 2 つのデバイス間で同期できます。つまり、1 台目のデバイスのリアルタイム ビューとコンピュータ生成ビューが 2 台目のデバイスに表示され、その逆も可能になります。これは、2 人のユーザーが未知の場所でお互いを見つけようとしている場合、またはユーザーが基本的な道順を教えたい場合に便利です。

分割画面同期の図。

ほとんどの実施形態では、動きやGPSなどのさまざまな埋め込みセンサーを活用して、精度と使いやすさを向上させることができる。

AR 活用の他の例としては、医師が X 線やその他の重要な情報を含むライブビューを患者と共有できる医療診断と治療が挙げられます。

Apple の '548 特許は 2010 年に初めて出願され、ブレット・ビルブリー、ニコラス・V・キング、アレクサンダー・パンスが発明者として認められています。