広範な批判を受けて、Appleは計画通りに児童保護機能を導入せず、その代わりに協議に「追加の時間を要する」と発表した。
に送信された電子メールには、AppleInsiderなどの出版物で、Appleは、最初の発表に対する反応を受けて、その機能を延期する決定を下したと述べている。
Appleは声明で「先月、コミュニケーションツールを使って子どもたちを勧誘し搾取する捕食者から子どもたちを守り、児童性的虐待の拡散を制限することを目的とした機能計画を発表した」と述べた。
さらに、「顧客、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な子供の安全機能をリリースする前に、今後数か月間さらに時間をかけて意見を収集し、改善を図ることにした」と続けている。
同社が「意見を集める」ためにどのように協議するのか、誰と協力するのかについては詳細は不明。
りんご当初発表された同社のCSAM機能は2021年8月5日に発表され、2021年後半にデビューすると発表した。この機能には、iCloud写真に保存されている児童性的虐待画像の検出と、それとは別に、児童に送信される潜在的に有害なメッセージのブロックが含まれる。
エドワード・スノーデンのような業界の専門家や著名人は次のように答えた。公開書簡これらの機能を実装しないようAppleに求めています。反対意見は、これらの機能が監視に使用される可能性があると認識されているということです。
AppleInsiderを発行しました解説記事、Appleが実際に何を計画していたのか、そしてそれがどのように問題視されていたのかの両方をカバーしています。それからアップル釈明を発表したその意図を詳細に説明し、機能がどのように機能するかを大まかに説明する文書の形式で。
しかし、情報を伝えた人も、知らなかった人も含め、苦情は続いた。アップルのクレイグ・フェデリギ最終的には公にこう言ったアップルは判断を誤った新機能をどのように発表したか。
「私たちは自分たちがやっていることに非常に前向きで強く感じているので、これがもう少しはっきりと皆さんに伝わればよかったのにと思いますが、それが広く誤解されているのは目に見えています」とフェデリギ氏は語った。
「今になって思えば、これら 2 つの機能を同時に導入したことが、この種の混乱を招く原因だったことは認めます」と彼は続けた。 「多くのメッセージがひどくごちゃ混ぜになっていたのは明らかだ。初期に出た音声は、『なんてことだ、Apple が私の携帯電話をスキャンして画像を探している』だったように思う。」これは起こっていることではありません。」