機械学習は、人々が最終的に「人工知能」と呼ぶ、より強力なテクノロジーにつながりました。これは主に SF に基づいた誤った呼び名ですが、Apple は最終的にこの用語を採用し始め、Apple Intelligence によってこの用語を廃止しました。

アップルCEOティム・クックApple Intelligence という名前は、その前に登場した「AI」にちなんで名付けられたものではないことがわかります。その代わりに、そのテクノロジーを最もよく表す名前が付けられたと彼は主張するだろう。

いずれにしても、Apple Intelligence は、世界を席巻した生成テクノロジーに対する Apple の取り組みです。 OpenAI、Google、その他の企業は、初期の市場シェアを奪うことを期待して、不完全な実装を市場に氾濫させてきました。

Appleは遅れており、決して追いつくことはないだろうという専門家の宣言にもかかわらず、同社は10年以上にわたりマシンインテリジェンスに携わってきた。さて、ついに Apple は、より微妙なバージョンのテクノロジーを導入することで、こうした不満を訴える人々をなだめる選択をしました。

ライティング ツールや新しい Siri アニメーションなどの限定された機能セットは、iOS18.1開発者のベータ版。 10月末に発売される予定だ。

iOS 18.2 は 2024 年 12 月 11 日にリリースされました。これには、Image Playground、ChatGPT 統合、iPhone 16 用 Visual Intelligence、および Genmoji が含まれています。

iOS 18.3のベータ期間は2024年12月中旬に始まりました。

Apple Intelligence の次なる展開

Apple Intelligence は、ライティング ツールやイメージ プレイグラウンドなど、使用されているモードに応じてカスタム プロンプトを備えたオンデバイス モデルです。シリApple Intelligence、ChatGPT との統合、サードパーティ アプリ インテントのおかげでさらに賢くなるでしょうが、まだ LLM バックエンドがありません。

iPad Pro の Siri アニメーション

Siri には、ユーザーのプロンプトをよりよく理解できるようにする新機能があり、間もなくディスプレイに表示されている内容をよりよく理解できるようになる可能性がありますが、これらは機械学習製品の AI 部分であり、完全なオーバーホールではありません。 Siri のバックエンドのこのような全面的な見直しは行われるかもしれませんが、iOS 19 まではそうではありません。

噂によると、Apple は Siri を LLM バックエンドで再構築し、アシスタントを ChatGPT に似た完全なチャットボットに根本的に変更する予定です。ただし、Apple は 2025 年 6 月まで iOS 19 を公開せず、新しい LLM バックエンドは 2026 年初めまで公開されないと予想されています。

iOS 18のAppleインテリジェンス機能の作業により、AppleはiOS 19の作業に戻ると伝えられているため、2025年9月のリリースで予定されていた機能は延期される可能性があります。ただし、iOS 19が6月まで発表されないことを考えると、その日までにAppleが実際に何を出荷すると予想していたのかを知る方法はありません。

Apple Intelligenceに関する懸念

いわゆる人工知能は市場に次々と登場し、それ以来全力で繰り返されてきました。 AI 業界の爆発的な成長は、インターネットとそのユーザーから収集された大量のデータへのアクセスに依存していました。

Apple Intelligence はプライバシーを考慮して構築されています

Google などの一部の企業は、ユーザーから収集した文字通りの山のデータのおかげで、モデルをトレーニングするための強力な基盤を持っていました。しかし、人間が生成した大量のデータからの学習に対してモデルがどのように反応するかを正確に予測する方法はありませんでした。

その結果、これまでのところ、事実に基づかない情報源からの不十分なデータにより幻覚を引き起こすチャットボットや検索エンジンが生み出されています。検索やチャットへの返信は、ピザの接着剤のような面白い提案をもたらすこともありますが、潜在的に危険な結果をもたらすこともあります。

アップルインテリジェンスiPhone、iPad、およびその他の小規模なスケールで実行するために構築された基本モデルのグループです。マックまたは、サーバー上では 2 倍以上のサイズになります。これは Apple がハードウェアとソフトウェアを垂直統合している証拠です。

Apple Intelligence を備えた Siri はプライベートで安全です

モデルはユーザーのデバイスにローカルであるため、ユーザーはデータの侵害を心配することなく、連絡先、写真、位置情報などの機密データにアクセスできます。 Appel AI によって収集されたものはすべてデバイスの外に出ることはなく、モデルのトレーニングには使用されません。

デバイス上でリクエストを実行できない場合は、Apple が所有するサーバーにリクエストを送信できます。アップルシリコンSecure Enclave を使用します。デバイスから送信されるすべてのデータは暗号化され、ローカルに保存されている場合と同じ保護で扱われます。このサーバー側テクノロジーは Apple Cloud Compute と呼ばれます。

あってもプライバシーとセキュリティApple Intelligence はその基礎において、依然としてトレーニングを受ける必要がありました。何か。 Apple は一部のトレーニングでライセンス付きコンテンツを購入しましたが、その他のデータは、Spotlight 検索データを表示するために 2015 年から存在する Web スクレイパーである Applebot から供給されました。

Apple は Web データでトレーニングした後、多くの機能を提供しました

Apple のモデルトレーニングの実践には倫理的な難題があるが、同社は、すべての公開データが Web 上で自由に利用できること、著作権で保護されたコンテンツや個人的なコンテンツが含まれていないこと、低品質のコンテンツがフィルタリングされていることを保証する措置を講じていることを保証した。他の企業はそのような予防策を考慮していなかったので、これは小さな安心感です。

Apple Intelligence と環境についても懸念があります。オンデバイス モデルは Apple のグリーン エネルギーへの取り組みに影響を与えず、サーバー側の計算はグリーン エネルギー源を利用する Apple Silicon 上で実行されます。

Apple インテリジェンス機能

Apple Intelligence は、エラーや幻覚のリスクを最小限に抑えながらさまざまなタスクを実行するための特別なトレーニングを受けたいくつかのモデルで構成されています。発売時にはいくつかの機能が予定されており、iOS 18 では時間の経過とともにさらに多くの機能が追加される予定です。iPadOS 18、 そしてmacOS セコイア

ライティング ツールはエラーを修正したり、トーンを変更したりするのに役立ちます

ライティング ツールは、デバイスのオペレーティング システム全体でテキスト入力がサポートされている場所であればどこでも機能します。テキストを分析してエラーを校正したり、テキストの口調をよりプロフェッショナルなものに変更したり、テキストを要約したりします。

優先通知は受信した通知を分析して、最も重要なものだけが最上位に表示されるようにし、それらの通知も要約します。メッセージ、配信、その他の重要な情報が一目でわかるようになります。

データの要約は、サポートされているオペレーティング システムのあらゆる場所で行われます。 Web ページ、電子メール、テキスト スレッドなどを要約します。

Image Playground は新しい画像と絵文字を作成します

Image Playground は、絵文字や漫画風のアートなどの画像を生成する Apple のまったく新しいアプリです。スタンドアロン アプリもありますが、この機能は別の場所に表示されます。iメッセージ。 iOS 18.2に搭載される予定です。

Siri は、さまざまなオンデバイス モデルによって提示されるデータにアクセスできるようになり、Apple Intelligence から大幅に強化されます。スマート アシスタントは、ユーザー、ユーザーの計画、話し相手、アプリ内のデータについての知識が豊富です。

ユーザーは、たとえ間違いを犯して文の途中で訂正したとしても、Siri とより自然な会話を行うことができるようになります。そして、ユーザーが同じ相対的な時間枠内で質問をする限り、Siri は以​​前のクエリのコンテキストを記憶します。

Apple Intelligence のおかげで、Siri はより多くのコンテキストを取得できるようになります

Siri との音声対話は主に、どこからでも Apple Intelligence 機能をアクティブにする方法として機能します。ただし、ディスプレイに表示される内容のコンテキストを提供するアプリ インテントのおかげで、Siri には追加の機能が備わります。

Apple Intelligence Siri をサポートするアプリ:

  • カレンダー
  • カメラ
  • 連絡先
  • ファイル
  • フリーフォーム
  • 基調
  • 郵便
  • 拡大鏡
  • ニュース
  • 注意事項
  • 写真
  • リマインダー
  • サファリ
  • 株式
  • 設定
  • ボイスメモ

Siri へのアップグレードには時間がかかる場合があります。噂によると、Appleは2025年春のiOS 18.4まで新しいSiriをリリースしないという。

新しいアニメーションと文章の途中で自分を修正する機能は iOS 18.1 で利用できますが、Siri の新機能はそれだけではありません。アプリのインテント システムと開発者サポートが新しいインテリジェント Siri と完全に統合されるまでには、iOS 18.4 までかかる可能性があります。

Apple は、OpenAI との提携により、独自のシステムとは別に、より多くの AI 機能を搭載しています。デフォルトではオフになっていますが、有効にすると、ユーザーはいくつかのリクエストを ChatGPT に送信できます。すべてのリクエストはユーザーによって審査および承認される必要があり、対話からのすべてのデータは破棄されます。

ChatGPT の統合は、2024 年末までに、つまり iOS 18.2 あたりにリリースされる予定のようです。

グロータイムです

アップルのiPhone16このイベントは 2024 年 9 月 9 日に発生し、Apple インテリジェンスに関する明確なテーマがありました。 「Glowtime」という名前は、イベントの中核をなす新しい Siri の発光に由来しています。

iPhone 16 のラインナップ全体で Apple Intelligence 機能を利用できます。 A18 と A18 Pro はより強力なニューラル エンジンを搭載しており、この新しいデバイスは Apple が AI 向けにゼロから設計した最初の iPhone と呼ぶものです。

カメラコントロールボタンに付属するビジュアルインテリジェンス機能も明らかになった。 iPhone 16 ラインアップ専用の AI 機能です。

iPhone 16 スーパーサイクル

アナリストは、Apple Intelligence のおかげで、Apple が iPhone 16 で記録的なリリースサイクルを達成できると予想しています。 iPhone 15 Pro または iPhone 15 Pro Max を所有していない人、つまりほとんどの人は、Apple の AI にアクセスするにはアップグレードする必要があります。

iPhone 16 の全ラインナップが Apple Intelligence をサポート

つまり、2024年は5GブームやiPhone 6 Plusで始まった大規模なiPhoneブームと同様に、iPhoneの販売にとって重要な年になると予想されていた。消費者は ChatGPT のような AI について知っており、それにアクセスしたいと考えており、プライベートなオンデバイス モデルという Apple の約束は魅力的だったのかもしれません。

しかし、iPhone 16 ラインナップに対する需要は強いものの、スーパーサイクルは起こらなかったという証拠が示されています。これは、AI 機能の展開が遅かったこと、または発売時に明らかに刺激的なパーティー トリックがなかったことに起因している可能性があります。

視覚知能

iPhone 16 のカメラ コントロール ボタンを押し続けると、ビジュアル インテリジェンス エクスペリエンスが起動します。これは、iPhone が世界を「見て」、さまざまな要素と対話できるようにする Google レンズのような機能として機能します。

Visual Intelligence によりビューファインダーに Visual Lookup が表示されます

コンサートのポスターにカメラを向けると、ユーザーのカレンダーにコンサートが追加されます。または、ビジュアル検索機能を直接起動して、写真を撮るだけで犬の品種や花の名前を確認することもできます。

下部の 2 つのボタンは、ビューファインダー内の内容をすべて取得し、検索のために Google に渡すか、解析のために ChatGPT に渡します。 iPhone の Apple Intelligence と AI の標準と同様に、AI とのやり取りはすべてユーザーが制御します。

Apple インテリジェンスの要件

Apple は、Apple Intelligence はデバイス上でローカルに実行できるようになるまで存在できず、A17 Pro まではそれが不可能だったと主張しています。したがって、このテクノロジーを利用できるデバイスは非常に限られています。

Apple IntelligenceにはiPhone 15 Proが必要です

基本要件は、ニューラル エンジンのサイズと RAM の量に関係しているようです。 iPhone 15 Pro と iPhone 15 Pro Max には 8GB の RAM が搭載されており、大規模なニューラル エンジンを備えた A17 Pro を実行します。

iPhone 16 ラインナップの発売により、Apple Intelligence をサポートするデバイスがさらに 4 台追加され、需要が高まる可能性があります。

マックとiPadM シリーズ プロセッサを搭載している限り、Apple Intelligence を実行できます。デスクトップクラスのプロセッサには、常に大規模なニューラル エンジンと、チップセット用に最小 8 GB の十分な RAM が搭載されています。

Apple Intelligence のリリース日

Apple Intelligence は、2024 年 10 月 28 日に iOS 18.1、iPadOS 18.1、macOS Sequoia 15.1 で一般公開されました。初期の機能には、書き込みツール、写真のクリーンアップ、システム全体の概要が含まれていました。

iOS 18.2 は、Image Playground、ChatGPT 統合、Visual Intelligence とともに 2024 年 12 月に登場しました。 iOS 18.3のベータ版は数日後に始まりました。


これ以降の内容はすべて事前に基づいています。WWDC2024年の噂とリーク。参考までに保存してあります。


発表前のAIの噂

Apple は、VR や MR を社内用語「空間コンピューティング」と呼ぶなど、既存の現象を説明するために独自のマーケティング用語を採用することで知られています。 Apple は人工知能 (AI) という用語に傾倒するつもりのように見えましたが、それを「Apple Intelligence」と呼ぶことで、ひねりを加えることになると予想されています。

Apple が何と呼んでも、結果は同じです。機械学習アルゴリズムよりもはるかに高度な生成テクノロジを使用して実行されるシステム全体のツールが、置き換えまたは拡張される予定です。

AppleはWWDC中にサーバーサイドLLMの計画を明らかにするかもしれないが、ゴールデンタイムにはまだ準備ができていないという噂がある。代わりに、ChatGPT などのサードパーティのサーバー側 LLM を呼び出すことができる Apple 製のローカル モデルに焦点が当てられます。

地元の Apple インテリジェンス

OpenAI の ChatGPT と Google の Gemini Large Language Model (LLM) には共通点が 1 つあります。それは、サーバー内に存在するインターネット上のあらゆる利用可能なデータでトレーニングされた巨大なモデルであるということです。

Apple Intelligence ではプライバシーが重要な役割を果たします

これらのモデルは、iPhoneまたはマック。代わりに、ユーザーは API を介してクラウド経由でモデルとそのさまざまなバージョンを呼び出します。そのためには、データがユーザーのデバイスから出て、ユーザーが制御していないサーバーに向かう必要があります。

このような膨大なデータセットにはサーバーサイドモデルが必須ですが、プライバシーとセキュリティが犠牲になります。 LLM に写真の作成や歴史的出来事に関するエッセイの執筆を依頼するのは無害かもしれませんが、予算の実行を依頼するのは一線を越えてしまう可能性があります。

Apple は、iPhone、iPad、Mac、およびその他の製品全体で、より限定されたローカル モデルを提供することで、この種の懸念に対処したいと考えています。アップルビジョンプロ。事前トレーニングされたモデルは特定の目的に役立ち、非常に限定的ではあるが特殊なデータセットが含まれます。

オンデバイスモデルはユーザーデータに基づいて学習します。明示的な許可がない限り、データがデバイスの外に流出することはありません。

Siri のアップグレード

地元の Apple Intelligence の一部が Siri の大幅なアップグレードを提供する予定です。 Apple のアシスタントは、より会話的になり、状況をよりよく理解できるようになることが期待されています。

Siri は Apple Intelligence によって超強力になります

特定のモデルは、おそらく内部でテストされた「Apple Ask」の事前トレーニング済みモデルに基づいており、Siri の背後にあるドライバーとなります。その限られたデータセットは、Google Gemini や ChatGPT などの LLM を悩ませる幻覚に対する保護であると言われています。

ユーザーは、単純なものから複雑なものまで、Apple 製アプリ全体で多くのタスクを実行するように Siri に依頼できます。 API によって開発者がこの新しい Siri をターゲットにできるかどうかはまだ不明ですが、おそらくそうなるでしょう。

Apple Intelligence Siri をサポートするアプリ:

  • カレンダー
  • カメラ
  • 連絡先
  • ファイル
  • フリーフォーム
  • 基調
  • 郵便
  • 拡大鏡
  • ニュース
  • 注意事項
  • 写真
  • リマインダー
  • サファリ
  • 株式
  • 設定
  • ボイスメモ

これらのアプリの多くの Siri 機能には、一般的なナビゲーションと検索が含まれます。特定の本を開いたり、新しいスライドを作成したりするのと同じです。

新しい Siri コマンドにある機能の多くは、音声でデバイスを制御できる以前に利用可能だったアクセシビリティ オプションから派生したもののようです。この機能の融合により、アクセシビリティ オプションに依存するユーザーだけでなく、すべてのユーザーがより詳細に制御できるようになります。

WWDC での Apple インテリジェンス

すべては WWDC 2024 中に明らかになります。Apple は基調講演で Apple Intelligence を公開すると予想されており、iOS 18、iPadOS 18、macOS 15、tvOS 18、ウォッチOS 11、visionOS 2も発表されます。