提案されている集団訴訟では、Apple が児童性的虐待に関するコンテンツの保存停止を避けるために、プライバシーの主張の背後に隠れていると主張されています。iCloud、そしてiMessageを介したグルーミングの疑い。
Apple が大幅に過小報告されている児童性的虐待資料(CSAM)の事件に関して、新たに提案されている集団訴訟では、同社がその責任を「プライバシーを洗いざらい」していると述べられている。
あ新規申請匿名の9歳の原告に代わってカリフォルニア北部地区連邦地方裁判所に訴訟を起こされた。告訴状にはJane Doeとしてのみ記載されているが、訴状には彼女がCSAMの作成とアップロードを強要されたと記載されている。iPad。
提出書類には、「9歳のジェーン・ドウがクリスマスにiPadを受け取ったとき、加害者がそれを利用して児童性的虐待資料(CSAM)を作成し、iCloudにアップロードするよう強要されるとは想像もしていなかった」と記されている。
この訴訟は陪審による裁判を求めている。集団訴訟の対象者全員に対して、500万ドルを超える損害賠償が求められる。
また、部分的には、Apple に以下のことを強制することも求めています。
- iCloud 上での CSAM の保存と配布から子供を保護するための措置を採用する
- 簡単にアクセスできるレポートを作成するための措置を講じる
- 四半期ごとの第三者によるモニタリングに準拠する
「この訴訟は、アップルが自らの気まぐれで『プライバシー』を悪用していると主張している」と提出文書には書かれており、「時には街の看板や気の利いたコマーシャルで『プライバシー』を誇示し、また時には、ドウ氏とドウ氏が協力している間、見て見ぬふりをする正当化としてプライバシーを利用している」と述べている。 Apple の iCloud での CSAM の普及により、他の子どもたちのプライバシーが完全に踏みにじられています。」
訴訟で言及されている子供は、最初はSnapChatを通じて連絡を取った。その後、会話は次の場所に移りました。iメッセージ彼女がビデオを録画するように頼まれる前に。
SnapChatは訴訟の共同被告として名指しされていない。
Apple は、より厳格な CSAM 検出ツールを導入しようとしました。しかし2022年に、同じツールが一部またはすべてのユーザーの監視につながるという次の申し立てを放棄しました。