ドイツのジャーナリスト組合は、AppleのCSAMツールが連絡先情報の収集やその他の侵入に使用されると考え、欧州委員会に介入するよう要求した。
アップルのCSAM ツールは、児童の違法な画像の拡散と戦うことを目的としており、批評家らがプライバシーの侵害であると主張し、8月を通じて論争を巻き起こした。奇妙なことに、この想定される脅威について声を上げた最新のグループは、ドイツ、オーストリア、スイスのジャーナリストたちだ。
国内の作家を代表するジャーナリスト組合DJVは、アップルが「将来的には国内で携帯電話を監視するつもりだ」と信じている。でプレスリリース、組合はこれらのツールを「報道の自由の侵害」と呼び、EU委員会とオーストリアとドイツの連邦内務大臣に行動を起こすよう求めている。
公共編集者協会 AGRA の広報担当ヒューバート・クレヒ氏によると、Apple は「企業が契約書や機密文書など、自社のデバイス上の他のユーザーデータにアクセスするために使用するツール」を導入したが、これは GDPR 規則に違反すると考えられている。
DJV会長のフランク・ユベラル氏は、これが多くの人にとっての第一歩となる可能性があると付け加えた。 「政権反対派の画像やビデオ、あるいはユーザーデータは、ある時点でアルゴリズムを使用してチェックされることになるのでしょうか?」ユベラルは尋ねる。
ORF編集者協議会の広報担当ディーター・ボルネマン氏は、ユーザーがLGBTコミュニティに参加している証拠となり得る画像を政府がチェックする可能性があると、より暗い見通しを示している。全体主義国家がシステムの想定される機能を利用する可能性も懸念されている。
同グループはまた、ほとんどの欧州メディアは米国に特派員を抱えているため、この制度は米国にのみ適用されるという主張を却下している。さらに、「米国で始まったことは必ず欧州でも続くだろう」とDJVは述べている。
見当違いの懸念
ペガサスのスパイスキャンダルのように、スマートフォンが政府や治安機関に盗み見されるのではないかという懸念は十分に根拠がある場合もあるが、DJVはAppleのCSAMツールに対する自社の主張が行き過ぎているように見える。
これは、そもそも Apple の CSAM システムの性質による部分があります。 1 つの部分では、画像自体を検査するのではなく、iCloud 写真に保存されている画像のハッシュをスキャンし、既存の CSAM 画像のデータベースと照合します。
2 番目の部分は、iMessage にアクセスできる子アカウント用のオンデバイス機械学習システムであり、CSAM データベースとは比較できません。この要素では、システムは Apple には報告せず、親のファミリー共有マネージャー アカウントにのみ報告します。
国民や批評家からの最初の反発、そして政府による監視目的でのシステムの機能の利用の可能性に対する歪んだ見方を受けて、Apple はツールについての記録を正そうとしたが、明らかに限定的な成功に終わった。
Apple プライバシー責任者のエリック・ノイエンシュワンダー氏は、CSAM 検出システムが数多くの要素単一政府による乱用を防ぐためだ。 Appleも公開してるよサポート文書システムの詳細、その機能、干渉からどのように安全に保たれるかを説明します。
Apple ソフトウェアエンジニアリング担当上級副社長クラッグ・フェデリギ言った金曜日に同社が 3 つの児童保護機能を同時にリリースしたのは間違いであり、そのことがシステムに対する「混乱した」「広く誤解された」評価につながったと主張した。
「今になって思えば、これら 2 つの機能を同時に導入したことが、この種の混乱を招く原因だったことは認めます」とフェデリギ氏は語った。 「多くのメッセージがひどくごちゃ混ぜになっていたのは明らかだ。初期に出た音声は、『なんてことだ、Apple が私の携帯電話をスキャンして画像を探している』だったように思う。」これは起こっていることではありません。」