セキュリティ専門家は、Apple が児童虐待の画像を識別する写真識別ツールを発表しようとしていると主張しています。iOS写真ライブラリ。

アップルは以前に削除されたの個々のアプリアプリストア児童ポルノの懸念をめぐっては、こうした検出システムを広く導入しようとしていると言われている。 iPhone は写真のハッシュを使用して、デバイス上の児童性的虐待マテリアル (CSAM) を識別できます。

Appleはこれを確認しておらず、これまでのところ唯一の情報源は、ジョンズ・ホプキンス大学情報セキュリティ研究所の暗号学者で准教授のマシュー・グリーン氏である。

私は複数の関係者から、Apple が明日 CSAM スキャン用のクライアント側ツールをリリースするという独立した確認を得ました。これは本当に悪い考えです。

— マシュー・グリーン (@matthew_d_green)2021年8月4日

Green 氏によると、この計画は当初クライアント側で行われる予定です。つまり、すべての検出がユーザーのクライアント側で行われることになります。iPhone。しかし同氏は、これが携帯電話で送受信されるデータトラフィックの監視につながるプロセスの始まりである可能性があると主張している。

「最終的には、暗号化されたメッセージング システムに監視を追加するための重要な要素になる可能性があります」とグリーン氏は続けます。 「このようなスキャン システムを E2E (エンドツーエンド暗号化) メッセージング システムに追加できるかどうかは、世界中の法執行機関からの大きな『要望』でした。」

「この種のツールは、人々の携帯電話にある児童ポルノを見つけるのに役立つ可能性がある」と彼は言う。 「しかし、独裁政府の手中にそれが何ができるか想像してみてください?」

グリーン氏は暗号学の学生たちとともに、以前に報告された法執行機関がどのように iPhone に侵入できるかについて。彼とジョンズ・ホプキンス大学は以前にもアップルと協力したメッセージのセキュリティバグを修正します。