幼少期の性的虐待の被害者が、以前に発表されていた、保存されている画像をスキャンする計画を2022年に中止したことを巡り、Appleを訴えている。iCloud児童の性的虐待に関する資料。
Appleは当初計画を導入した2021年後半にハッシュタグ システムを使用してデバイス上のアップロードされた画像をスキャンすることで、児童性的虐待素材 (CSAM) からユーザーを保護します。また、アルゴリズムによって検出されたヌードを含む写真を送受信する前にユーザーに警告する予定だ。
Communication Safety と呼ばれるヌード検出機能は、現在でも有効です。しかし、Apple は CSAM 検出の計画を中止しました。バックラッシュ後プライバシーの専門家、児童安全団体、政府からの意見です。
幼い頃に親戚から性的虐待の被害者だった27歳の女性が、CSAM検出機能の停止を求めて裁判所が認めた偽名を使ってAppleを訴えている。彼女は以前、バーモント州で押収されたMacBookを介してiCloud機能が有効だったときに、彼女の虐待の画像がiCloudに保存されていたという法執行機関の通知を受け取ったと述べた。
彼女は訴訟の中で、Apple が iCloud から CSAM スキャン機能を削除したとき、彼女のような被害者を保護するという約束を破ったと述べている。そうすることで、Apple はその素材を広範囲に共有することを許可したと彼女は言います。
したがって、Appleは彼女と同じように「ある層の顧客に損害を与えた欠陥製品」を販売しているのです。
より多くの被害者が訴訟に参加
女性の弁護士の1人によると、女性のAppleに対する訴訟は、Appleの慣行の変更と、他の資格のある最大2,680人の被害者グループへの潜在的な賠償を求めているという。訴状では、GoogleとMetaのFacebookが使用するCSAMスキャン機能は、Appleの反ヌード機能よりもはるかに多くの違法コンテンツを検出すると指摘している。
現在の法律では、児童性的虐待の被害者は最低15万ドルの補償を受けることができる。もし女性の訴訟の潜在的な原告全員が賠償を勝ち取った場合、Appleに責任があると認められた場合、損害賠償額は12億ドルを超える可能性がある。
関連する訴訟では、9歳のCSAM被害者の代理人弁護士がノースカロライナ州の裁判所でAppleを告訴した。8月に。この場合、少女は見知らぬ人がiCloudリンクを通じて彼女にCSAM動画を送り、同様の動画を「撮影してアップロードするよう勧めた」と話しているという。ニューヨーク・タイムズ、 どれの両方の事件について報告した。
Appleは、連邦法第230条により、ユーザーがiCloudにアップロードした素材に対する法的責任からAppleが保護されているとして、ノースカロライナ州の訴訟の却下を求める申し立てを提出した。また、iCloudはスタンドアロン製品ではないため、製造物責任の申し立てから保護されているとも述べた。
裁判所の判決により第 230 条の保護が緩和される
しかし、最近の裁判所の判決は、責任を回避するというAppleの主張に反する可能性がある。米国第9巡回区控訴裁判所は、決定したそのような防御は、起こり得る責任からの包括的な保護としてではなく、アクティブなコンテンツのモデレーションにのみ適用できるということ。
Appleの広報担当フレッド・サインツ氏は新たな訴訟を受けて、Appleは「児童性的虐待の内容は忌まわしいものであり、当社は捕食者が子どもたちを危険にさらす方法と戦うことに全力で取り組んでいる」と信じていると述べた。
サインツ氏は、「当社はすべてのユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と戦うための革新を緊急かつ積極的に行っている」と付け加えた。
同氏は、ヌード検出機能の拡張を指摘した。メッセージアプリ、ユーザーが有害なコンテンツを Apple に報告する機能も含まれます。
訴訟の背後にいる女性と彼女の弁護士マーガレット・メイビーは、Apple が十分な努力をしたということに同意していない。訴訟の準備として、メイビーさんは法執行機関の報告書やその他の文書を調べて、クライアントの画像やアップル製品に関連する訴訟を見つけた。
マビーさんは最終的に、共有されている画像の例を 80 件以上集めたリストを作成しました。画像を共有した人の 1 人はベイエリアの男性で、2,000 枚以上の違法な画像とビデオを iCloud に保存していたとして逮捕されました。回と指摘した。