Appleの新しい特許には、ユーザーが仮想空間内の現実の物体に触れているか触れていないかを登録するシステムが記載されており、指先からの深度測定とカメラ角度から計算してそれを行う。
将来の拡張現実および仮想現実システムとそのアップデートARKitApple の技術では、仮想オブジェクトを実際のオブジェクトと並べて表示でき、それらの両方を操作することもできます。これまでの難しさは、ユーザーが実際にそのようなオブジェクトに触れているとき、または触れている状態に非常に近づいているときを評価することです。
Appleから新たに特許申請された「深度ベースのタッチ検出」米国特許第 10,572,072 号では、タッチが発生したかどうかを計算するために仮想カメラの位置のみを使用することに固有の問題について詳しく説明します。
「タッチ検出にカメラを使用することには、表面に埋め込まれたセンサーに依存する方法に比べて多くの利点があります」と特許には記載されています。これは、「視覚センサー [または] 深度カメラ」がレンズとタッチ表面の間の距離の測定を提供する、Face ID のようなシステムについて説明しています。
「[ただし、1 つの] アプローチでは、固定深度のカメラ設定が必要であり、動的なシーンには適用できません。」と続けています。もう 1 つのアプローチは、ユーザーの指を識別し、事実上指が表面に触れているに違いないほど多数の指が記録されるまで、周囲のピクセルをマークすることによって機能します。 「しかし...このアプローチは...かなり間違いが起こりやすいです。」
これらの既存のシステムは、Apple が「事前定義されたしきい値」と呼ぶもの、つまりタッチが想定されるかどうかを計算したポイントに依存しています。 「また、ホバー距離が長いという問題もあります(つまり、指が表面から 10 ミリメートル以下でホバリングするとタッチが示される可能性があり、それにより多数の誤検知タッチ検出が発生します)」と研究書は続けています。
これらのシステムを置き換えようとしているわけではありませんが、Apple の特許出願には深度検出の使用についても記載されています。 「物体の『距離』の測定は、カメラではなく表面に対して行われるため、カメラのポーズに関して不変性の一定の測定が提供される」と特許には記載されている。
マルチカメラ システムの図面と (右) 検出されている指先の写真を示す特許の詳細
Appleのシステムはまず「指、スタイラス、またはその他の光学的に不透明な物体」などの物体を識別する。次に、「平面または非平面」表面を識別します。
この検出はユーザーが移動しても継続し、これによりシステムは時間の経過に伴う一連の読み取り値、つまり Apple が「出力の時間的シーケンス」と呼ぶものを取得します。
このシステムの目的は、表面素材上に接触に反応するものが何もない場合でも接触を検出することです。 「コンピュータの機能は、そのようなコンピューティングデバイスやシステムが、従来のキーボードやポインタデバイス(マウスやスタイラスなど)の代わりに入力を取得するための任意の表面(例えば、テーブルトップやその他の表面)を使用できるようにすることで改善できます。」と特許は述べています。
「従来の入力デバイスの必要性を排除することで、コンピュータ システムの機能をさらに向上させることができ、ユーザーは任意の環境でコンピュータ システムを自由に使用できるようになります。」と同論文は続けています。
この特許は、Lejing Wang 氏と Daniel Kurz 氏の 2 人の発明者によるものです。両者は約 60 件の特許を取得しており、その中には「」などの関連特許も多数含まれています。カメラの姿勢を決定する方法およびシステム、" そして "拡張仮想ディスプレイ。」
この特許は、Apple の多くの AR および VR 特許に続き、最近では次の特許も含まれます。指先と顔のマッピング ツールを活用するタッチやインタラクションにも役立ちます。