1 年以上前、Apple は児童性的虐待資料 (CSAM) をスキャンする計画を発表しました。iOS15.2リリース。不完全性やそれに関する沈黙にもかかわらず、このテクノロジーは避けられません。
アップルが発表このスキャン技術は 2021 年 8 月 5 日に iCloud 写真に登場します。iメッセージ、 そしてシリ。これらのツールは、プラットフォーム上の子供の安全を向上させるために設計されました。
当時、これらのツールはアップデート内でリリースされていました。ウォッチOS、iOS、macOS、 そしてiPadOS2021年末までに。Appleはそれ以降延期し、iCloud写真からCSAM検出に関する言及を削除し、アップデートを投稿した子供の安全ページ。
そして、苦情が始まりました。そして、Microsoft が約 10 年間、Google が 8 年間アップロードされたファイルをスキャンしていたことを知らなかったようで、彼らは話し始めました。
Apple も数年前からこの取り組みを行っており、iOS 15.2 の発表前からサーバー側の部分実装を行っていました。そのプライバシーポリシー少なくとも2019年5月9日以降、同社はアップロードされたコンテンツを事前にスクリーニングまたはスキャンして、児童の性的虐待コンテンツを含む違法な可能性のあるコンテンツを検出していると述べている。ただし、これは iCloud メールに限定されているようです。
おそらく顧客や研究者からの大規模な反発に応えて、Appleは2021年9月に、iCloud写真向けの子供向け安全機能をリリースする前に、意見を収集して改善するためにさらに時間がかかると発表した。いくつかの取り組みは続けられ、その後、メッセージと Siri も導入されました。
iOS は、メッセージで、iCloud ファミリー アカウントに含まれる 13 歳から 17 歳の子供に対し、受信したテキストで潜在的に性的に露骨なコンテンツが検出されたことを警告します。たとえば、システムがヌード画像を検出すると、自動的に画像をぼかし、安全メッセージと画像のぼかしを解除するオプションを示すポップアップが表示されます。
13 歳未満の子供が画像の表示を選択すると、iOS は保護者に通知を送信します。 13 歳から 17 歳までの十代の若者は、デバイスが親に通知することなく画像のぼかしを解除できます。
メッセージ アプリにおける子どものコミュニケーションの安全性
Siri と検索バーサファリそしてスポットライト、次のステップです。これは、年齢を問わず Apple ユーザーが CSAM に関連する検索クエリを実行するときに介入します。ポップアップは、検索が違法であることを警告し、「詳細を確認して助けを得る」ためのリソースを提供します。 Siri は、児童虐待の疑いのある内容を報告するよう人々に指示することもできます。
最後に、iCloud 写真も CSAM の疑いを検出して報告します。 Apple の計画は、デバイス上のインテリジェンスに不正行為の素材の画像ハッシュのデータベースを組み込むことでした。この国立行方不明・搾取児童センター (NCMEC) データベースは、Apple プラットフォームが法執行機関の捜査中にすでに発見された児童虐待の内容のみを報告することを保証することを目的としています。
Apple は、誤検知の一致が発生するのはまれであり、どのアカウントでもその確率は 1 兆分の 1 であると述べています。法執行機関に通報するかどうかを最終決定する人間の審査チームも存在するため、警察への報告ですぐに問題が終わるわけではありません。
滑りやすいけどデコボコした坂道
iCloud 写真の検出ツールは最も物議を醸しました。一例として、公開書簡エドワード・スノーデンやその他の著名人が執筆したこの論文は、特定のグループがこのテクノロジーを監視に利用する可能性があるとの懸念を引き起こしている。民主主義政府と権威主義政府は、政治的反体制派の画像など、CSAM以外のもののハッシュデータベースを追加するようAppleに圧力をかける可能性がある。
Siri のチャイルドセーフティ機能
実際、電子フロンティア財団は、これが実際に行われているのをすでに目撃していると指摘し、「もともと児童性的虐待の画像をスキャンしてハッシュするために構築された技術の 1 つが、企業が貢献できる「テロリスト」コンテンツのデータベースを作成するために再利用されている」と述べた。およびそのようなコンテンツを禁止する目的でのアクセス。」
ただし、滑りやすい斜面には凹凸があります。 2021年8月、Appleのプライバシー責任者エリック・ノイエンシュワンダー氏が懸念に答えたインタビューでと述べ、Appleは自社の技術がCSAM以外のコンテンツに使用されないよう保護措置を講じたと述べた。
たとえば、このシステムは、違法な捜索と押収を禁止する憲法修正第 4 条が適用されている米国の Apple 顧客にのみ適用されます。次に、このテクノロジーはオペレーティング システムに直接組み込まれているため、どこにいてもすべてのユーザーに適用する必要があります。 Apple がアップデートを特定の国や個々のユーザーに制限することはできません。
歯車が回転し始める前に、コンテンツの特定のしきい値も満たさなければなりません。既知の CSAM の 1 つのイメージでは何もトリガーされません。代わりに、Apple の要件は約 30 のイメージです。
アップルが公開文書子供の安全機能に関する 2021 年 8 月のよくある質問をまとめました。政府が Apple に非 CSAM 画像をハッシュリストに追加するよう強制しようとした場合、同社はそのような要求を拒否すると述べている。システムは監査可能であるように設計されており、非 CSAM イメージをシステムに「挿入」することはできません。
アップルはそうすると言っているも出版します暗号化されたデータベースのルート ハッシュを含むナレッジ ベース。 「ユーザーは自分のデバイス上に存在する暗号化されたデータベースのルート ハッシュを検査し、ナレッジ ベースの記事にある予想されるルート ハッシュと比較できるようになります」と同社は書いています。
セキュリティ研究者は、独自のレビューでデータベースの正確性を評価することもできます。 Apple デバイスからのデータベースのハッシュがナレッジ ベースに含まれているハッシュと一致しない場合、人々は何かが間違っていることに気づきます。
「したがって、この仮説には多くの困難を飛び越える必要があり、その中には、既知の CSAM のような違法ではない資料を参照するように Apple に内部プロセスを変更させることも含まれますが、人々がそれを行うことができる根拠があるとは考えていません」米国ではその要求があった」とノイエンシュヴァンダー氏は語った。
Apple が必要に応じてこの機能を延期し、システムの精度を向上させる方法を見つけるのは正しいことです。この種のコンテンツをスキャンする一部の企業は間違いを犯します。
そして、それらの問題の 1 つは、最近、かなり記念碑的な Google の失敗によって浮き彫りになりました。
犯罪以前の問題
欠陥のあるソフトウェアの主な例は、8 月 21 日に Google で発生しました。ニューヨーク・タイムズ出版された物語このような監視システムの危険性を強調しています。
サンフランシスコの父親は、医学的問題を抱えていた幼児の性器の写真を医師の要請で撮影した。彼は医療提供者の遠隔医療システムを通じて画像を送信しましたが、彼の Android スマートフォンは画像を Google フォトにも自動的にアップロードしました。これは同社がデフォルトで有効にしている設定です。
その時点では画像がCSAMとして知られていなかったにもかかわらず、CSAMとしてフラグが立てられ、Googleは画像を法執行機関に報告し、自社製品に関連する父親のアカウントをすべてロックした。幸いなことに、Googleは彼のアカウントへのアクセスを返さなかったものの、警察は画像の性質を理解していたため告訴はしなかった。
App Store の Google フォト
Google の検出システムは、Apple のテクノロジーとまったく同じように機能するわけではありません。会社のサポートページ「既知の CSAM を検出するための YouTube の CSAI Match」などのハッシュ マッチングについて言及しています。
しかし、医療事件で示されたように、Google のアルゴリズムは、NCMEC データベースからのハッシュに加えて、あらゆる子供の性器を検出できます。このページでは、明らかに犯罪と無罪を区別できない「これまでに見たことのないCSAMを発見する」ための機械学習について言及している。
それは大きな問題これが、プライバシー擁護派が Apple のテクノロジーに大きな関心を寄せている理由の 1 つです。
前進する
それでも、Apple が iCloud Photos に CSAM 検出を実装するのは時間の問題です。なぜなら、Apple のシステムが中間点にあるからです。政府は Apple に対し、テロリストのコンテンツを CSAM データベースに含めるよう指示することはできません。
遅れはひとえに国民の反発によるものである。 Apple の間違いは、検出システム内のエラーではなく、この機能を発表したときの最初のメッセージにありました。
レポートで2022年2月から、セキュリティ会社PenLinkは、Appleは法執行機関にとってすでに「驚異的」であると述べた。同社は、米国政府による犯罪容疑者の追跡を支援し、そのサービスを地元の法執行機関に販売することで年間 2,000 万ドルを稼いでいます。たとえば、流出したプレゼンテーション スライドには iCloud の保証が詳しく記載されていました。
アップルが作る秘密はありません召喚状が提示されたときに法執行機関がどのように役立つかについて説明します。 Apple が共有できる情報の例には、iCloud バックアップからのデータ、サーバーに保存されているメール、および場合によってはテキスト メッセージが含まれます。
英国が 2021 年 5 月に導入したオンライン安全法案のように、世界中の政府はオンライン監視を強化する方法を常に開発しています。この法案の修正案は、Apple などのテクノロジー企業に、エンドツーエンドの暗号化メッセージング サービスであっても CSAM の検出を強制することになります。 Apple は、このスキャンをデバイス上のアルゴリズムに移行して、iMessage を暗号化してアップロードする前にスクリーニングする必要があります。
これまでのところ、Apple は、自社のデバイスにバックドアを組み込もうとする米国の取り組みになんとか対抗してきましたが、批評家は iCloud Photo のスキャンをバックドアと呼んでいます。会社の有名な戦いとFBIこれにより、デバイスへの侵入を容易にする特別なバージョンの iOS から Apple 顧客が安全に保たれてきました。
iOS 16のアップデートでiCloud写真のスキャンが可能になるかどうかは不明だが、近いうちに実現するだろう。その後、Apple の顧客は iCloud を使い続けるか、それともエンドツーエンドの代替ソリューションに移行するかを決定する必要があります。あるいは、検出プロセスは同期サービスでのみ行われると Apple が保証しているため、iCloud 写真をオフにすることもできます。