Appleは月曜日、同社のSiriスピーチおよびオーディオソフトウェアエンジニアリングチームによる投稿で機械学習ジャーナルを更新し、iPhoneやiPadよりも厳しい状況下でHomePodが人の声を聞くことができるよう同社が機械学習をどのように活用しているかを説明した。

シリはホームポッド大音量の音楽、周囲の騒音、遠くで話している人に対処するためにアップグレードする必要がありました。仕訳帳メモ。したがって、HomePod は単に遠方界マイク, しかし、エコーや背景ノイズを除去する「ディープラーニングを使用したマスクベースのマルチチャネルフィルタリング」と、複数の音源を分割し、「Hey Siri」を含むものだけをトリガーフレーズとして使用する「教師なし」学習。

このエントリーでは、主に機械学習分野の専門家を対象として、かなりの技術的な詳細に踏み込んでいます。ただし、HomePod の A8 プロセッサでは、低電力状態であってもマルチチャネル信号処理が「継続的に」行われ、環境の変化と話者の移動の両方に適応できると述べています。

Apple は、「他の最先端のシステム」はマルチマイク処理を使用しているものの、通常はエコーとノイズの低減のみに重点を置いていると示唆しています。

HomePod はスマートスピーカー市場では比較的後発で、今年 2 月に発売されたばかりです。Amazon の Echo は 2014 年にデビューし、Google Home は 2016 年に出荷されました。しかし、Apple は多くのベンダーとは異なる方針をとっており、次のようなテクノロジーで音質に注力しています。ビームフォーミング。 HomePod は、自動的に調整してくれる部屋の中での位置に合わせて。

ただし、SiriはAmazonやGoogleの音声アシスタントに次いで限定的であり、たとえばストリーミングサービスではApple Musicのみをネイティブにサポートするなど、批判されている。 HomePod ハードウェアも 349 ドルと高価です。Apple は次のように噂しています。より安価なモデルを開発中より競争力を高めるために。

日記の更新は次のとおりですアップルの登場カナダのモントリオールで開催された第32回神経情報処理システム会議にて。同社は、おそらく潜在的な新入社員にアピールするためと、以前にAppleの論文出版制限に不満を抱いていた既存の研究者たちをなだめるために、学術コミュニティに対してさらに自らを開放しようと努めてきた。

Machine Learning Journal も、そうした妥協の 1 つです。それは 2017 年 7 月に、次のことを論じた論文から始まりました。照合された画像によるニューラルネットトレーニング、それ以来、顔検出や「差分」プライバシーなど、さまざまなトピックを取り上げてきました。

1 年前、同社の AI 研究担当ディレクター、ルスラン・サラクディノフ氏は、同社の自動運転車プロジェクトその最終的な目的は未だ謎に包まれています。会社かもしれないし、そうでないかもしれない自社設計の車に取り組んでいます。純粋なプラットフォーム開発を支持して、少なくとも一時的にはそのアイデアを放棄しました。