Appleのプライバシー責任者エリック・ノイエンシュワンダー氏は、iCloud写真がオフの場合にはシステムがハッシュを実行しないことを明確にするなど、他の目的での使用を妨げる同社のCSAMスキャンシステムに組み込まれたいくつかの予測について詳しく述べた。
他の新しい子供用安全ツールとともに発表された同社の CSAM 検出システムは、物議を醸しました。これに応じて、Apple はユーザーのプライバシーを危険にさらさずに CSAM をスキャンする方法について多くの詳細を提供しました。
でインタビューとテッククランチ, Appleのプライバシー責任者エリック・ノイエンシュワンダー氏は、このシステムは最初から政府の行き過ぎや悪用を防ぐために設計されたと述べた。
まず、このシステムは米国でのみ適用され、米国ではすでに憲法修正第 4 条による保護が適用されています。から守る違法な捜索と押収。
「まず第一に、これは米国の iCloud アカウントに対してのみ開始されるため、そのような言い方をすると、一般的な国や米国ではない他の国が持ち出される仮説のようです」とノイエンシュワンダー氏は述べた。米国の法律が政府にこの種の機能を提供していないことに人々が同意している場合です。」
しかし、それを超えて、システムにはガードレールが組み込まれています。たとえば、システムが CSAM にタグを付けるために使用するハッシュ リストは、オペレーティング システムに組み込まれています。 iOSのアップデートがなければApple側からアップデートすることはできません。 Apple はまた、データベースの更新を世界規模でリリースする必要があります。特定の更新を個々のユーザーに適用することはできません。
また、システムは既知の CSAM のコレクションのみにタグを付けます。一枚の画像だけでは何も起こりません。さらに、国立行方不明児童搾取センターが提供するデータベースにない画像にはタグも付けられません。
Apple には手動のレビュープロセスもあります。 iCloud アカウントに違法な CSAM 素材のコレクションとしてフラグが付けられた場合、Apple チームは外部エンティティに警告が送信される前に、そのフラグが実際に正しい一致であることを確認します。
「したがって、この仮説には多くの困難を飛び越える必要があり、その中には、既知の CSAM のような違法ではない資料を参照するように Apple に内部プロセスを変更させることも含まれますが、人々がそれを行うことができる根拠があるとは考えていません」米国ではその要求があった」とノイエンシュヴァンダー氏は語った。
さらに、Neuenschwander 氏は、ここにはまだユーザーによる選択の余地があると付け加えました。このシステムは、ユーザーが iCloud 写真を有効にしている場合にのみ機能します。 Appleのプライバシー責任者は、ユーザーがこのシステムを気に入らない場合、「iCloud写真を使用しないという選択もできる」と述べた。 iCloud 写真が有効になっていない場合、「システムのどの部分も機能しません」。
「ユーザーがiCloud写真を使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAM検出は、オペレーティングシステムイメージの一部である既知のCSAMハッシュのデータベースと比較されるニューラルハッシュです」とApple幹部は述べた。 。 「iCloud 写真を使用していない場合、その部分も、安全バウチャーの作成や iCloud 写真へのバウチャーのアップロードを含む追加部分も機能しません。」
Apple の CSAM 機能はオンラインで物議を醸しましたが、同社はそれに反論するこのシステムは、CSAM の検出以外のあらゆる目的に使用できます。 Apple は、CSAM 以外の目的でシステムを変更または使用しようとする政府の試みを拒否すると明確に述べています。