Appleの従業員は、同社が発表する予定の新しい子供用安全機能について懸念を表明している。iOS15この秋、そのようなツールを公開するという決定がユーザーのプライバシーの砦としてのAppleの評判を傷つける可能性があると言う人もいる。
Appleの新たな発表に対する反発子供の安全対策現在では、同じ階級の批評家も含まれています。声を上げる社内の Slack チャネルでのこの件に関するレポートロイター。
先週発表された、Apple のスイート児童保護ツールiCloud 写真にアップロードされた児童性的虐待素材を検出して報告するように設計されたデバイス上のプロセスが含まれています。別のツールはメッセージを通じて送信される機密画像から子供たちを保護する一方、Siri と検索は潜在的に危険な状況に対処するためのリソースで更新されます。
報告書によると、AppleのCSAM対策が発表されて以来、従業員らはこのテーマに関してSlackチャンネルに800件以上のメッセージを投稿し、数日間活発な状態が続いているという。今後の展開を懸念する人々は、政府による搾取の可能性に関する共通の懸念、Appleが新たなサポート文書やメディアへの声明で非常に可能性が低いとみなした理論的可能性について言及している。今週。
少なくともSlackスレッドに関連するApple社内の反発は、同社の主要なセキュリティチームとプライバシーチームの一員ではない従業員から来ているようだと報告書は述べている。によると、セキュリティ分野で働く人々は投稿の「主要な苦情者」ではないようだったという。ロイター情報筋や一部の人は、新しいシステムはCSAMに対する合理的な対応だと言ってAppleの立場を擁護した。
次期写真の「スキャン」機能(このツールは画像のハッシュを既知のCSAMのハッシュデータベースと照合する)専用のスレッドで、一部の作業者が批判に反対し、他の作業者はSlackはそのような議論の場ではないと主張していると報告書は述べた。 。一部の従業員は、オンデバイスツールによって完全なエンドツーエンドの iCloud 暗号化が実現されることを期待しています。
Appleは、子どもの安全に関する規定が多くの危険信号を発していると主張する批評家やプライバシー擁護派からの不協和音の非難に直面している。反発の一部は、Apple の CSAM テクノロジーに対する基本的な誤解に起因する誤った情報であると片付けられる一方で、当初同社が対処していなかったミッションのクリープやユーザーのプライバシーの侵害に対する正当な懸念を提起するものもあります。
クパチーノのテクノロジー大手は、よく挙げられる懸念事項に対処することで火を鎮めようとしている。今週公開された FAQ。同社幹部らもメディアを回って、Appleが特に忌まわしい問題に対するプライバシーを重視した解決策と考えていることを説明している。しかし、最善の努力にもかかわらず、論争は依然として残っています。
Apple の CSAM 検出ツールは、この秋 iOS 15 でリリースされます。