Googleは、ML Kitと呼ばれる新しい機械学習SDKを発表しました。これは、開発者がAndroidおよびiOSアプリに機械学習ベースの機能を追加する方法を提供します。Appleが同様のCore MLプラットフォームを導入してからほぼ1年後、Googleの新しいフレームワークが登場しました。

火曜日の Google I/O で紹介された ML Kit は、開発者がアプリに組み込める多数の API で構成されており、使用するために機械学習に関する事前知識はほとんど必要ありません。 API はすべて Google によって提供され、広範なトレーニングを受けているため、開発者は独自のモデルを構築し、それを正しくトレーニングするためにリソースを費やす必要がなくなります。

Google が ML Kit で提供する既存のモデルでは、テキスト認識、顔検出、画像のラベル付け、ランドマークの認識、バーコード スキャンが可能ですが、これらはすべてデバイスのカメラからの画像データに依存しています。将来的には、メッセージにスマート リプライを追加する API や、画像にイメージング効果を追加するのに役立つ顔検出 API の高密度顔輪郭機能がリストに追加される予定です。

ML Kit API は、特定のトレードオフを伴う 2 つのバージョンで提供されます。クラウドベースのバージョンはインターネット接続を必要としますが、高い精度を提供します。一方、オンデバイス バージョンは精度が低く、デバイスの処理能力に依存しますが、オフラインで使用できます。

たとえば、オフライン バージョンでは写真内の犬を識別できますが、その動物に関するより具体的な詳細を確認することはできそうにありません。オンライン バージョンに切り替えると、API は写真に写っている犬の品種を提案することもできます。

どちらの API バージョンも開発者向けに提供されますが、完全に無料となるのはオンデバイス バージョンのみです。クラウドベースの API の使用を選択した開発者は、最終的に Google のモバイルおよび Web アプリケーション プラットフォームである Firebase を使用する必要があり、これには料金がかかります。

Google は当初、次の形式で API へのアクセスを提供しています。限定的な早期プレビュー、ただしすでに提供されていますドキュメントML Kit の使用を開始します。

ML Kit のクロスプラットフォームの性質により、Apple 独自の ML Kit と競合します。コアMLは、WWDC 2017 で導入された機械学習フレームワークです。本質的には同様で、開発者はこの API を使用して機械学習を使用してアプリを改善できます。これには、Metal や Metal などの Apple の低レベル テクノロジを利用する、さまざまなモデル タイプが含まれます。加速します。

初期APICore ML の下で提供されるには、顔の追跡と検出、ランドマーク、テキスト検出、バーコード検出、オブジェクト追跡、画像登録などのコンピューター ビジョン要素が含まれます。また、言語識別、トークン化、見出し語化、固有表現認識機能を提供する自然言語処理 API も利用できます。