デバイスのアップルインテリジェンストレーニングは、物議を醸すテクノロジーに基づいているようです

月曜日に、Appleはユーザーがオンデバイスを選択できるようにする計画を共有しましたApple Intelligence失敗したCSAM検出システムと非常に似た差別的なプライバシー技術を使用したトレーニング。

差別的なプライバシーは、Appleが公然と受け入れた概念です2016年iOS 10で。それはaですプライバシー予約方法データコレクターがデータの由来を把握するのを防ぐために、データのサンプルデータにノイズを導入するデータ収集。

によると投稿AppleのMachine Learningブログでは、AppleはApple Intelligenceをトレーニングするためのユーザーデータを収集する方法として差別的なプライバシーを実装するために取り組んでいます。データは、オプトインベースで匿名で提供され、個々のユーザーにまでさかのぼることができない方法で提供されます。

物語はそうでした最初にカバーされましたによるブルームバーグ、実際のユーザー情報でトレーニングされた合成データの使用に関するAppleのレポートを説明しました。ただし、ユーザーデータを取得するほど簡単ではありませんiPhoneサーバーファームで分析します。

代わりに、Appleは差動プライバシーと呼ばれる手法を利用します。ノイズを紹介しますデータ収集には、個々のデータポイントをソースにまでさかのぼることができないように。 Appleは、デバイス上にユーザーデータを残すことでさらに一歩進んでいます。精度のためにポーリングのみを行い、ユーザーのデバイスの投票結果を取り除きます。

これらの方法により、プライバシーとセキュリティの背後にあるAppleの原則が保存されます。共有デバイス分析を選択するユーザーはこのシステムに参加しますが、データはどれもiPhoneを離れることはありません。

識別子なしでデータを分析します

差別的なプライバシーは、Appleが少なくとも2006年以来、Appleが傾いて開発した概念ですが、2016年までその公的アイデンティティの一部を作成しませんでした。それは始まりました人々が絵文字を使用した方法を学び、ローカル辞書の新しい単語を見つけ、アプリ内のディープリンクを強化し、ノート検索ツールとして学習する方法として。

プライバシーの差でデータを分析します。画像ソース:Apple

Appleはそれを言っていますiOS 18.5、差別的なプライバシーを使用して、ユーザーデータを分析し、Genmojiで始まる特定のApple Intelligenceシステムをトレーニングします。一般的なプロンプトのパターンを識別できるようになるため、AppleはAIをよりよく訓練し、それらのプロンプトに対してより良い結果を得ることができます。

基本的に、Appleは「カウボーイハットの恐竜」のように人気があると思われる人為的なプロンプトを提供し、ユーザーデータ分析のパターンマッチを探しています。人工的に注入されたノイズと数百のフラグメントマッチを必要とするしきい値のため、一意または個人を特定するプロンプトを表面化する方法はありません。

さらに、これらのプロンプトの断片を検索すると、肯定的または否定的な投票が発生するため、分析から派生したユーザーデータはありません。繰り返しますが、データを分離することはできず、一人または識別子にまでさかのぼることができます。

同じ手法が、画像の遊び場、画像の杖、メモリの作成、および書き込みツールの分析に使用されます。これらのシステムは短いプロンプトに依存しているため、分析は単純なプロンプトパターンマッチングに限定できます。

Appleは、テキスト生成のためにそれらを実装することにより、これらの方法をさらに進めたいと考えています。電子メールやその他のシステムのテキスト生成は、はるかに長いプロンプト、そしておそらくより多くのプライベートユーザーデータになるため、Appleは追加の措置を講じました。

Appleが使用しています最近の研究実際のユーザーデータの集計傾向を表すために使用できる合成データの開発に。もちろん、これはユーザーのデバイスから1つのテキストを削除することなく行われます。

実際の電子メールを表す可能性のある合成電子メールを生成した後、合成埋め込みに計算された最近のユーザーメールの限られたサンプルと比較されます。多くのデバイスのサンプルに最も近い合成埋め込みは、Appleによって生成された合成データが実際の人間のコミュニケーションを最も代表していることを証明しています。

デバイス全体でパターンが見つかると、その合成データとパターンマッチングは、さまざまなトピックで動作するように洗練されます。このプロセスにより、AppleはApple Intelligenceを訓練して、より良い要約と提案を作成できます。

繰り返しますが、Apple Intelligence Trainingの差動プライバシー方法はオプトインであり、デバイスで行われます。ユーザーデータはデバイスを離れることはなく、収集されたポーリング結果にノイズが導入されているため、ユーザーデータが存在しない場合でも、個々の結果を単一の識別子に結び付けることはできません。

これらのApple Intelligence Training Methodは非常によく知られています

ここのAppleの方法が鐘を鳴らす場合、それはそれらが会社の方法に似ているからです実装する予定、しかし、CSAM検出のために放棄されました。システムは、ユーザー写真をハッシュに変換し、既知のCSAMのハッシュのデータベースと比較されました。

AppleのCSAM検出機能は、プライバシーに違反したり暗号化を破ったりせずに写真をハッシュすることに依存しています

ただし、これらは目標が異なる2つの非常に異なるシステムです。新しいオンデバイスApple Intelligence Training Systemは、Appleがユーザーについて何かを学ぶのを防ぐために構築されていますが、CSAMの検出はAppleがユーザーの写真について何かを発見することにつながる可能性があります。

その分析はで発生しますiCloud写真ストレージ。 Appleは、ユーザーの写真を見たり、iCloudから写真を削除せずに実行されるプライベートセット交差点と呼ばれる方法を使用して、写真ハッシュマッチングを実行できたでしょう。

CSAMハッシュの一致の潜在的な肯定的な結果の十分なインスタンスが単一のデバイスで発生した場合、影響を受けた画像を送信して人間によって分析されるシステムがトリガーされます。発見された画像がCSAMである場合、当局に通知されました。

CSAM検出システム保存されたユーザープライバシー、データ暗号化など、しかし、権威主義政府によって乱用される可能性のある多くの潜在的な新しい攻撃ベクターも導入しました。たとえば、そのようなシステムを使用してCSAMを見つけることができる場合、人々は心配している政府がAppleにそれを使用して特定の種類の音声や画像を見つけることを強いることができると心配しています。

りんご最終的に放棄されましたCSAM検出システム。支持者は持っています話されたAppleの決定に反して、会社がそのようなコンテンツの拡散を防ぐために何もしていないことを示唆しています。

CSAM検出機能には、新しいApple Intelligenceトレーニングシステムといくつかの類似点があるが、さまざまなテクノロジーに基づいて構築されていることに注意してください。ユーザーデータを難読化するためにデータセットに導入されたノイズは、たとえばCSAM検出機能の一部ではありませんでした。

両方のシステムには、ユーザーデータを同等のデータのブロックに変換することが含まれるため、2つの間で類似点を簡単に確認できます。ただし、テクノロジーには非常に異なる財団と目標があります。

Apple Intelligence Trainingをオプトアウトします

実装の一部は似ているように見えますが、Appleはそれほど物議を醸す使用ではなく上陸したようです。それでも、Apple Intelligenceを訓練するために、プライバシー保護のデータを提供したくないものがあります。

データ分析設定を使用してオプトインまたはアウトします

まだ何も実装されていないので、心配しないでください。まだオプトアウトを確実にする時間があります。 Appleは、iOS 18.5で機能を導入し、テストがで始まると言います将来のベータ

選択しているかどうかを確認するには、設定を開いて、下にスクロールして選択しますプライバシーとセキュリティ、選択します分析と改善。まだ「共有iPhone&Watch Analytics」設定を切り替えて、AIトレーニングをまだオプトアウトしていない場合は、オプトアウトします。