Appleは、新しい製品に対するプライバシー批判への返答を発表した。iCloud写真には児童虐待の画像をスキャンする様子が掲載されており、プライバシー侵害を求める政府の圧力を「拒否する」としている。

アップルの一連のツール子どもを保護することを目的としたこの作品は、セキュリティとプライバシーの専門家からさまざまな反応を引き起こしており、一部の人々は主張するという誤った選択Appleがプライバシーに対する姿勢を放棄しているということだ。今回、Appleは「よくある質問」という文書の形で反論を公開した。

「Apple の目標は、安全を確保しながら、人々に力を与え、生活を豊かにするテクノロジーを開発することです」と述べています。完全な文書。 「私たちはコミュニケーションツールを使って子供たちを勧誘し搾取する捕食者から子供たちを守り、児童性的虐待資料(CSAM)の拡散を制限したいと考えています。」

「私たちがこれらの機能を発表して以来、プライバシー保護団体や児童安全団体を含む多くの関係者がこの新しいソリューションへの支持を表明しており、一部からは質問も寄せられています。」と続けている。

「メッセージの通信の安全性と iCloud 写真の CSAM 検出の違いは何ですか?」それは尋ねます。 「これら 2 つの機能は同じではなく、同じテクノロジーを使用していません。」

Appleは、メッセージの新機能は「子供を守るための追加ツールを親に提供することを目的としている」と強調している。メッセージ経由で送受信される画像はデバイス上で分析されるため、「そのため、[この機能は] メッセージのプライバシー保証を変更するものではありません。」

iCloud 写真の CSAM 検出では、「既知の CSAM 画像と一致する写真以外の写真」に関する情報は Apple に送信されません。

文書の多くは内容を詳しく説明していますAppleInsider 金曜日に勃発した。ただし、以前には存在しなかったいくつかの点が明確に説明されています。

まず、プライバシーとセキュリティの専門家が懸念しているのは、このデバイス上の画像のスキャンが、Apple に検索対象の拡大を要求する権威主義政府の利益に簡単に拡張される可能性があるということです。

「Apple はそのような要求を拒否します」と FAQ 文書には記載されています。 「私たちはこれまで、ユーザーのプライバシーを損なう政府命令の変更を構築し展開するという要求に直面しましたが、その要求を断固として拒否してきました。今後も拒否し続けます。」

「はっきりさせておきますが、この技術はiCloudに保存されたCSAMの検出に限定されており、それを拡張するという政府の要請には応じません。」と続けている。

このテーマに関する Apple の新しい出版物は、公開書簡が送られましたと同社に新機能の再考を求めた。

第二に、一方でAppleInsiderAppleからのコメントに基づいて以前にこれを述べたが、同社はiCloud写真がオフになっている場合にはこの機能が動作しないことを明確な条件で明らかにした。