アップルの最新iOS15.2 ベータ版では、以前に発表された、ヌードを含む写真を送受信したときに、親ではなく子供に警告するように設計されたオプトイン通信安全機能が導入されました。
メッセージ機能は、発表された一連の子供の安全への取り組みの一部でした8月に戻って。重要なのは、iMessage 機能は、児童性的虐待資料 (CSAM) を検出するために設計された、物議を醸しているシステムではないということです。iCloud。
デフォルトでは有効になっていませんが、親または保護者は、ファミリー共有プランの子アカウントのメッセージ機能をオンにすることができます。この機能はメッセージ内のヌードを検出し、画像をぼかし、子供に警告します。
Appleは、子供たちには役立つリソースを提供し、画像を見たくなくても大丈夫だと安心させると述べている。子供がヌードを含む写真を送信しようとすると、同様の保護機能が作動します。いずれの場合でも、子供には信頼できる人にメッセージを送って助けを求めるオプションが与えられます。
以前に計画されていたバージョンの機能とは異なり、保護者はないメッセージにヌードが含まれていることがシステムによって検出された場合に通知されます。 Appleはこれは、親からの通知が身体的暴力や虐待の脅威など、子供にリスクをもたらす可能性があるとの懸念からだとしている。
Apple は、ヌードフラグの検出がデバイスから外に出ることはなく、システムが iMessage のエンドツーエンド暗号化を侵害することはないと述べています。
この機能はオプトインであり、iOS のベータ版にのみ含まれており、現時点では一般公開されていないことに注意することが重要です。最終的な iOS アップデートにいつ到達するかについてのタイムラインはなく、その前に最終リリースからこの機能が削除される可能性があります。
繰り返しになりますが、この機能は Apple が発表して物議を醸した CSAM 検出システムではありません。その後遅れました。 9月に遡ると、AppleはCSAM検出機能を2021年後半にデビューさせると発表したが、同社は現在、意見を収集して必要な改善を行うためにさらに時間がかかっていると述べている。
CSAM システムがいつデビューするかは不明です。ただし、Apple は、Siri と検索に関して子供と親に追加のガイダンスを提供すると述べました。 2021年後半のiOS 15およびその他のオペレーティングシステムのアップデートでは、ユーザーが児童搾取に関連するクエリの検索を実行したときに同社が介入し、そのトピックが有害であると説明する予定だ。