児童保護団体は、英国のAppleプラットフォーム上で発見された虐待画像の件数が、Appleが世界中で報告した件数よりも多いと発表した。

2022年に, Appleは、児童性的虐待マテリアル(CSAM)が最終的には全ユーザーの監視に使用されるとの疑惑を受け、計画を断念した。同社は、Communication Safety と呼ばれる一連の機能に切り替えました。ヌード写真をぼかす子どもたちに送りました。

によるとガーディアン新聞によると、英国の全米児童虐待防止協会(NSPCC)は、Appleが大幅に過小評価しているなどのサービスにおける CSAM のインシデントiCloudフェイスタイムそしてiメッセージ。米国のすべてのテクノロジー企業は、検出されたCSAM症​​例を国立行方不明児童搾取センター(NCMEC)に報告することが義務付けられており、2023年にAppleは267件の報告を行った。

これらのレポートは、世界中で CSAM 検出を目的としているとされています。しかし、英国の NSPCC は、2022 年 4 月から 2023 年 3 月の間に、イングランドとウェールズだけでも、Apple が 337 件の犯罪に関与していたことを独自に発見した。

NSPCCの児童安全オンライン政策責任者リチャード・コラード氏は、「アップルのサービス上で起きている英国の児童虐待画像犯罪の件数と、アップルが当局に提出する虐待コンテンツに関する世界的な報告のほぼ無視できる数との間には、憂慮すべき矛盾がある」と述べた。 。 「すべてのハイテク企業が安全性への投資を行い、英国でのオンライン安全法の展開に備えるべきなのに、Appleは明らかに多くの同業者に比べて児童性的虐待への取り組みに遅れをとっている。」

Apple と比較すると、Google は 2023 年に 1,470,958 件を超える症例を報告しました。同じ期間に、Meta は Facebook で 17,838,422 件、Instagram で 11,430,007 件の症例を報告しました。

iMessage は暗号化されたサービスであるため、Apple はユーザーの iMessage の内容を確認できません。しかし、NCMECは、MetaのWhatsAppも暗号化されているにもかかわらず、Metaは2023年に約1,389,618件のCSAM疑い症例を報告したと指摘している。

この申し立てに対して、Apple は次のように述べたと伝えられている。ガーディアン全体的なユーザーのプライバシーに関する以前の声明のみに限定されます。

伝えられるところによると、一部の児童虐待専門家は AI によって生成された CSAM 画像を懸念しています。今後のアップルインテリジェンスフォトリアリスティックな画像は作成されません。