Appleは火曜日、コンテキスト情報を含む音声コマンドをオフサイトのコンピュータにオフロードして処理する技術の特許を取得した。これは、同社のSiri仮想アシスタントの動作を可能にする重要な機能の1つである。
米国特許では具体的に名前が挙げられていないが、第8,296,383号「音声コマンドおよびコンテキストデータ処理機能を備えた電子デバイス」の場合、本発明は Siri の動作方法と密接に関連しており、少なくとも部分的に音声認識アシスタントに電力を供給する可能性があります。
Appleよりずっと前の2008年に初めて申請されたSiriを購入しました2010 年の特許では、iPhone などの携帯電子デバイスが音声コマンドと対応するコンテキスト情報を記録する方法とシステムについて説明されています。次に、iPhone は処理のためにデータをオフサイト サーバーに送信します。サーバーは音声コマンドに応答するか、デバイスがコマンドを実行できるようにする情報をハンドセットに送り返します。
当時、Apple の iDevice 製品の一部は、オンボードの音声コマンドを使用して、音楽を再生したり、時間を告げたり、iPhone の場合は連絡先に電話をかけたりしていました。このシステムは便利ではありましたが、高度なユーザー コマンドに応答するために必要な処理能力とストレージ要件により、特定の操作に限定されていました。
高速データ ネットワークの出現により、Apple の特許により、より高度なコマンドをデバイスからオフロードし、ほぼリアルタイムでリモートで実行できるようになります。
本発明の鍵となるのは、デバイスの動作状態に関するメタデータと呼ばれるコンテキスト情報である。例えば、ユーザは、「もっと似た曲を探して」と言うことで、現在ハンドセットで再生している曲と同じような曲をさらに探す操作を実行することができる。別の例としては、「近くのアメリカ料理レストランを見つける」または同様のコマンドに使用できる位置データがあります。
'383特許の技術がSiriの基礎として使用されているかどうかは不明だが、仮想アシスタントはほぼ同じように機能することが知られている。 Appleは最近、特許出願会話入力を認識する機能など、Siri を強化する機能について。