セキュリティ研究者らは、AppleのCSAM防止計画やEUの同様の提案は「国家の監視権限」を拡大する「危険なテクノロジー」であると述べている。
Appleは、児童保護機能をいつ導入する予定であるかをまだ発表していない。それらを延期するセキュリティ専門家からの懸念のため。今回、研究者チームが、アップルと欧州連合双方の同様の計画は国家安全保障上の問題であるとする報告書を発表した。
によると、ニューヨークタイムズ、報告が来る十数人のサイバーセキュリティ研究者からの意見です。同団体はAppleの最初の発表より前に調査を開始しており、この「危険な技術」についてEUに警告するため、Appleの遅れにも関わらず発表しているとしている。
Appleの計画は一連のツール児童性的虐待資料 (CSAM) の蔓延から子供たちを守ることと関係しています。 1 つの部分はメッセージ内に表示される有害な疑いのある画像をブロックし、別の部分はメッセージに保存されている画像を自動的にスキャンします。iCloud。
後者は、Google のやり方と似ています。すでにスキャン中ですしかし、プライバシー保護団体は、Apple の計画により政府が政治的目的で同社に画像のスキャンを要求する可能性があると考えていた。
Appleは「私たちは自分たちのやっていることに対して非常に前向きで強い気持ちを持っているので、これがもう少しはっきりと皆さんに伝わればよかったと思うが、それが広く誤解されているのは目に見えている」と述べた。クレイグ・フェデリギ言った。 「今になって思えば、これら 2 つの機能を同時に導入したことが、この種の混乱を招く原因になったのは認めます。」
「多くのメッセージがひどくごちゃ混ぜになっていることは明らかです。」彼は続けた。 「初期に出た音声は、『なんてことだ、Apple が私の携帯電話をスキャンして画像を探している』だったように思う。これは起こっていることではありません。」
かなりの混乱がありましたが、どれのAppleInsider対処されたプライバシー保護団体からの多くの反対と同様に、そして政府。
新しい報告書の著者らは、児童性的虐待の画像をスキャンする方法において、EUもAppleと同様のシステムを計画していると考えている。 EUの計画は組織犯罪やテロ活動も監視するという点でさらに進んでいる。
「法を遵守する国民をスパイし、影響を与えようとする試みに抵抗することが国家安全保障上の優先事項であるべきだ」と研究者らは、同誌が入手した報告書の中で述べている。ニューヨークタイムズ。
同団体のタフツ大学サイバーセキュリティ・政策教授スーザン・ランドー氏は、「これにより、違法行為が行われるための正当な理由がなくても、個人の私用デバイスのスキャンが許可されることになる」と述べた。 「これは非常に危険です。ビジネス、国家安全保障、公共の安全、プライバシーにとって危険です。」
Appleはこの報告書についてコメントしていない。