Apple の最新の視線検出研究は、将来のユーザーが一目見ただけでアプリや Web サイトのテキスト入力フィールドを選択できるようになる可能性があることを意味する可能性があります。
Web サイトが正しく記述されている限り、次のようなブラウザーが機能します。サファリさまざまなタイプのテキスト入力フィールドを認識します。これにより、Safari は、一方には姓を、もう一方には電子メール アドレスを提供することを認識します。
ただし、いずれの場合も、現在の位置を認識するには、そのフィールドをクリックするか、タブで移動する必要があります。将来的にはそうならないでしょう。たとえば、見ているだけで、ファーストネームこのフィールドは、少なくともそこにカーソルをポップし、おそらくテキストの入力を開始するのに十分です。
「視線を使用したテキスト入力フィールドの選択」は、新たに明らかになった現実世界と現実世界の両方のデバイスに関連する特許出願アップルAR。
このアプリケーションは、現実世界のデバイスと AR デバイスを実質的に同じ意味で扱います。
「この技術は、デスクトップコンピュータ、ラップトップ、タブレット、スマートフォンなどのデバイス上の従来のユーザーインターフェイスに適用できる」としている。 「この技術は、仮想現実、拡張現実、複合現実のデバイスやアプリケーションにも有利です...」
ただし、いくつかの重要な違いがあります。 AR 内では、「」のようなヘッドセットになります。アップルグラス、」と視線検出を行います。
それは、ヘッドセットの目のすぐ隣にセンサーを配置してそれを行います。現実世界のデバイスの場合、iPhone または iPad は、より離れた場所で視線追跡を実行する必要があります。
デバイス内の視線検出システムの一部を示す特許の詳細
「[この場合] 光線は、それぞれ [ユーザー] の左目と右目の視軸に沿って投射 (たとえば投影) されます」と Apple は述べています。「オプションで、ユーザーの視線方向や/を決定するために使用されます。または、レイ キャスティングと呼ばれる視線の深さです。」
Apple がデバイスを見ている人を常にスキャンすることを提案しているかどうかは不明です。ただし、スキャンが起動されるたびに、目の特定の領域が検索され、「ユーザーの視線の方向および/または視線の深さ」も決定されます。
「ユーザーの瞳孔の中心および/またはユーザーの眼球の回転中心」を探すことにより、システムは「ユーザーの目の視軸」を特定できます。したがって、ユーザーがいつそれを見ているかを認識し、画面に何が表示されているかも認識します。
Apple は、システムはユーザーにアクティベーションの前に不特定の時間探すことを要求する必要があると述べています。それは、Apple Store を歩いているときに、すべての iPad が注文の詳細を記入するために飛び跳ねているわけではないということです。
この特許出願は、Earl M. Olson を含む 3 人の発明者によるものです。彼のこれまでの作品には、場所を決定するAR 環境における、現実の物理的なオブジェクトに対する仮想オブジェクトの相対的な関係。