Appleが開発に取り組んでいるシリおよびその他の音声認識テクノロジーは、非定型的な発話パターンを持つユーザーにとってより使いやすいものです。
たとえば、同社は、誰かが吃音で話しているかどうかを自動的に検出する方法を研究しているとのことです。報告書でウォール・ストリート・ジャーナル。
この目的を達成するために、同社はポッドキャストからどもりながら話している人々のクリップを約 28,000 件収集しました。そのデータは今週、Apple の研究論文に掲載されました (PDFリンク)、ウォール・ストリート・ジャーナル追加した。
Appleの広報担当者はデータから得られた結果をどのように利用するかについてコメントを拒否したが、同社はそのデータの少なくとも一部を音声認識システムの改善に活用する計画を立てている。
それまでの間、Apple は、2015 年に導入した Hold to Talk 機能により、ユーザーが Siri に聞き続ける時間を制御できると付け加えました。これにより、アシスタントがユーザーの邪魔をしたり、コマンドが完全に読み上げられる前にタイムアウトになったりするのを防ぐことができます。
記事では触れられていませんが、Siri は、Siri に入力の特集macOSそしてiOS。
非典型的な音声パターンのトレーニングは、Siri 改善のための研究領域の 1 つにすぎません。 Apple はまた、デバイスをユーザーのデバイスにロックすることでセキュリティを確保できるシステムも開発中です。独特の音声パターン。
ウォール・ストリート・ジャーナルまた、Amazon や Google などの他のテクノロジー企業が、音声コマンドに問題がある可能性のあるより多くのユーザーを理解できるようにデジタル アシスタントをトレーニングしている方法についても取り上げています。
アマゾンは12月、非定型的な発話パターンを持つユーザーが自分の独特の声を認識するアルゴリズムをトレーニングできるようにする新しい基金を立ち上げた。 Google は、Google アシスタントで使用するために非定型音声データも収集しています。