Apple は、他の企業ほど人工知能機能の導入に派手ではないかもしれませんし、その取り組みをめぐるドラマもそれほど多くありません。それでも、同社にはすでに多くの知恵が散りばめられていますiOSそしてmacOS。ここです。

Apple はわざわざ「人工知能」や AI の名前を意味のある形で具体的に挙げることはしていませんが、同社はこのテクノロジーを避けているわけではありません。機械学習は、Apple の AI イニシアティブの総括となっています。

Apple は、いくつかの顕著な方法で iOS と macOS で人工知能と機械学習を使用しています。

機械学習とは何ですか?

Apple が iOS やその他のプラットフォームで機械学習を使用し始めてから数年が経ちました。最初の実際の使用例は、iPhone 上の Apple のソフトウェア キーボードでした。

Apple は予測機械学習を利用してユーザーがどの文字を打っているのかを理解し、精度を高めました。このアルゴリズムは、ユーザーが次にどのような単語を入力するかを予測することも目的としていました。

機械学習 (ML) は、明示的な指示なしで学習して適応できるシステムです。データ内のパターンを識別し、特定の結果を提供するためによく使用されます。

このテクノロジーは、人工知能の人気のあるサブ分野となっています。 Apple も数年前からこれらの機能を組み込んでいます。

機械学習のある場所

2023 年、Apple は iOS のほぼ隅々まで機械学習を使用しています。それは、ユーザーが写真を検索したり、写真を操作したりする方法に存在します。シリ、イベントの提案などをご覧ください。

オンデバイス機械学習システムは、データのセキュリティとプライバシーに関してエンド ユーザーに利益をもたらします。これにより、Apple はクラウドに依存するのではなく、デバイス上に重要な情報を保存できるようになります。

iPhone の機械学習とその他すべての主要な自動化プロセスを強化するために、Apple はニューラル エンジンを作成しました。 iPhone の A11 Bionic プロセッサを搭載して起動され、一部のカメラ機能を支援するだけでなく、顔認証

シリ

Siri は厳密には人工知能ではありませんが、機能するために AI システムに依存しています。 Siri は、デバイス上のディープ ニューラル ネットワーク (DNN) と機械学習を利用して、クエリを解析して応答を提供します。

Siri が挨拶します

Siri は、簡単な質問から組み込みアプリの制御に至るまで、さまざまな音声およびテキストベースのクエリを処理できます。ユーザーは Siri に音楽の再生、タイマーの設定、天気の確認などを依頼できます。

TrueDepth カメラと Face ID

Apple は、iPhone X の発売に伴い、TrueDepth カメラと Face ID を導入しました。このハードウェア システムは、30,000 個の赤外線ドットを投影して、ユーザーの顔の深度マップを作成できます。ドット投影は 2D 赤外線スキャンとも組み合わせられます。

その情報はデバイス上に保存され、iPhone は機械学習と DNN を使用して、ユーザーがデバイスのロックを解除するときにユーザーの顔のスキャンをすべて解析します。

写真

ストック写真アプリはiOSでも利用できるため、これはiOSを超えています。macOSそしてiPadOS同じように。このアプリは、写真やビデオのキュレーションなどの主要な組み込み機能を支援するために、いくつかの機械学習アルゴリズムを使用しています。

機械学習を使用した Apple の写真アプリ

機械学習のおかげで、画像内の顔認識が可能になります。 People アルバムでは、特定された人物を検索し、画像を厳選できます。

機械学習を利用したデバイス上のナレッジ グラフは、その人が頻繁に訪れる場所、関連する人々、イベントなどを学習できます。この収集されたデータを使用して、「メモリー」と呼ばれる厳選された写真とビデオのコレクションを自動的に作成できます。

カメラアプリ

Apple は、iPhone ユーザーのカメラ体験の向上に定期的に取り組んでいます。その目標の一部は、ソフトウェアと機械学習によって達成されます。

Apple の Deep Fusion は、写真の細部と低ノイズを最適化します。

Neural Engine は、Deep Fusion などの機能によりカメラの機能を強化します。で発売されましたiPhone11新しい iPhone に搭載されています。

Deep Fusion はニューラル画像処理の一種です。写真を撮影すると、カメラは合計 9 枚のショットを撮影します。シャッターボタンを押す直前に 4 枚のショットが 2 セット撮影され、ボタンを押したときにさらに長時間露光で 1 枚のショットが撮影されます。

ニューラル エンジンによる機械学習プロセスが開始され、可能な限り最高のショットが見つけられます。結果は、シャープネスと色の正確さに重点を置きます。

ポートレートモードでも機械学習が活用されています。ハイエンドの iPhone モデルはユーザーを背景から分離するためにハードウェア要素に依存していますが、iPhone SE2020年ののみに依存した適切なポートレートぼかし効果を得るために機械学習を使用します。

カレンダー

機械学習アルゴリズムは、顧客の一般的なタスクの自動化にも役立ちます。 ML を使用すると、ユーザーが興味を持つ可能性のある潜在的なイベントに関するスマートな提案を得ることができます。

たとえば、誰かがiメッセージこれに日付、または単に何かをするという提案が含まれている場合、iOS はカレンダー アプリに追加するイベントを提供できます。数回タップするだけでイベントをアプリに追加できるので、覚えやすくなります。

機械学習ベースの機能がさらに追加される予定ですiOS17:

純正キーボードとiOS 17

Apple の最初の機械学習のユースケースの 1 つはキーボードとオートコレクトで、iOS 17 で改善されています。Apple は 2023 年に、標準キーボードが「トランスフォーマー言語モデル」を利用し、単語予測が大幅に向上すると発表しました。

トランスフォーマー言語モデルは、ユーザーが入力する際の予測精度を向上させる機械学習システムです。ソフトウェア キーボードは、汚い言葉など、頻繁に入力される単語も学習します。

新しいジャーナル アプリと iOS 17

Apple は、iOS 17 を発表したときに、まったく新しい Journal アプリを導入しました。WWDC2023. この新しいアプリを使用すると、ユーザーは独自のアプリで好きなだけ過去の出来事を振り返ったり日記を書いたりできるようになります。

Appleの株式ジャーナルアプリ

Apple は機械学習を使用して、ユーザーがエントリを追加するときにインスピレーションを与えられるようにしています。これらの提案は、写真アプリ、最近のアクティビティ、最近のワークアウト、人、場所など、さまざまなリソースから取得できます。

この機能は、iOS 17.1 のリリースとともに提供される予定です。

Apple は機械学習を使用してディクテーションと言語翻訳も改善する予定です。

機械学習も存在しますウォッチOS睡眠、手洗い、心臓の健康などを追跡するのに役立つ機能を備えています。

上で述べたように、Apple は長年にわたり機械学習を使用してきました。これは、同社が技術的に何年も人工知能を使用していることを意味します。

Apple が Google や Microsoft に遅れをとっていると考える人は、chatGPT やその他の同様のシステムのみを検討しています。 2023 年の AI に関する世間の認識の最前線は、Microsoft の AI を搭載した Bing と Google の Bard によって占められています。

Apple は今後も機械学習に依存し続けるでしょう。将来的には、システムを実装し、ユーザー機能を強化する新しい方法を見つける予定です。

それは噂にもなっているApple は独自の chatGPT のようなエクスペリエンスを開発中で、将来のある時点で Siri が大幅に強化される可能性があります。 2023 年 2 月に、アップル開催サミットは完全に人工知能に焦点を当てており、テクノロジーから離れていないことは明らかだ。

Apple Car のレンダリング

Apple は、オートコレクト用のトランスフォーマー言語モデルなど、iOS 17 で導入するシステムを利用して、キーボードを超えて機能を拡張できます。 Siri は、Apple が継続的に機械学習に取り組み、ユーザーにとって価値のある手段の 1 つにすぎません。

Appleの人工知能分野での取り組みは、Apple Carにつながる可能性が高い。会社であろうとなかろうと、実際にリリースする自動車用に設計された自律システムには頭脳が必要です。