児童安全保護団体は、発表されたCSAM検出機能が放棄された理由についてAppleに追及したが、同社は計画を撤回した理由についてこれまでで最も詳細な回答を行った。

児童性的虐待素材は継続的な深刻な懸念である Apple対処しようとしたオンデバイスとiCloud検出ツール。これらの物議を醸したツールは、結局放棄された2022年12月に開催され、その後さらに多くの論争が巻き起こった。

Heat Initiative として知られる児童安全団体は Apple に対し、CSAM 検出を放棄するという選択に反対するキャンペーンを組織し、そのようなツールの提供を強制することを期待していると語った。 Appleは詳細に返答し、有線に応答が送信され、その内容が詳しく説明されました報告書

この回答は、Apple が以下の機能セットに軸足を移す理由として、消費者の安全とプライバシーに焦点を当てています。通信の安全性。通常は暗号化されている情報にアクセスする方法を見つけようとすることは、Apple の広範なプライバシーとセキュリティのスタンスに反します。世界強国を動揺させる

Appleのユーザープライバシーおよび子供の安全担当ディレクター、エリック・ノイエンシュワンダー氏は、「児童性的虐待の内容は忌まわしいものであり、私たちは子どもたちを性的虐待の影響を受けやすくする強制と影響力の連鎖を断ち切ることに全力で取り組んでいる」と述べた。

「すべてのユーザーの個人的に保存された iCloud データをスキャンすると、データ窃盗犯が見つけて悪用するための新たな脅威ベクトルが作成されるでしょう」とノイエンシュワンダー氏は続けました。 「また、意図せぬ結果が生じる滑りやすい状況に陥る可能性もある。たとえば、ある種類のコンテンツをスキャンすると、一括監視の扉が開かれ、コンテンツの種類を超えて他の暗号化メッセージング システムを検索したいという欲求が生まれる可能性がある。」

「私たちは、数年前に提案された、i​​Cloud Photos の CSAM 検出に対するハイブリッド クライアント/サーバー アプローチの提案を続行しないことにしました」と同氏は締めくくった。 「最終的にユーザーのセキュリティとプライバシーを危険にさらすことなく実装することは事実上不可能であると結論付けました。」

ノイエンシュヴァンダーはヒート・イニシアチブのリーダー、サラ・ガードナーの要請に応えていた。 Gardner 氏は、Apple がなぜオンデバイス CSAM 識別プログラムを廃止したのかを尋ねていました。

「私たちは、あなたが発表したソリューションによって、Apple がユーザープライバシーの世界的リーダーとしての地位を確立しただけでなく、何百万もの児童性的虐待の画像やビデオを iCloud から根絶すると約束したと強く信じています」とガードナー氏は書いた。 「私は、重要なテクノロジーの導入が遅れ続けていることについて、あなたとあなたの会社である Apple と協力するつもりである、子供の安全に関心を持つ専門家や擁護者が参加する開発中の取り組みに参加しています。」

「児童性的虐待は誰も話したがらない難しい問題である。それが沈黙され、取り残される理由だ。私たちはそのようなことが起こらないようにするためにここにいる」とガードナー氏は付け加えた。

ユーザーの信頼を侵害し、Apple が報告処理の仲介者となるようなアプローチを取るのではなく、同社は被害者をリソースや法執行機関に誘導することを支援したいと考えています。 Discord などのアプリで使用できる開発者 API は、ユーザーを教育し、違反者を報告するよう指示するのに役立ちます。

Apple は、デバイスまたは iCloud に保存されているユーザーの写真をいかなる方法でも「スキャン」しません。コミュニケーションの安全性機能は子供のアカウントに対して有効にすることができますが、チャット内でヌードが検出されても保護者には通知されません。

この機能は大人にも拡大されていますiOS17これにより、ユーザーは次のことが可能になります。不要なヌード写真をフィルターで除外するからiメッセージ。 Apple は、将来的にはこれらの機能をさらに多くの分野に拡張したいと考えています。