米国、英国、その他 16 か国は AI システムの開発を安全に保ちたいと考えていますが、同グループが発行した枠組みは常識的な推奨事項を提供しており、確固たる行動指針が欠けています。
米国サイバーセキュリティ・インフラストラクチャセキュリティ庁と英国国家サイバーセキュリティセンターが日曜日に発表した「安全なAIシステム開発のためのガイドライン」は、人工知能システムの開発について助言する文書である。
その目的は、AI を使用するシステムの開発者が「開発プロセスのあらゆる段階で情報に基づいたサイバーセキュリティの意思決定」を行えるようにすることです。CISA が説明する。また、「Secure by Design の原則を遵守することの重要性を強調する」推奨事項も提供しています。
このガイドラインは、世界中の他の 22 のセキュリティ機関と協力して作成されたほか、AI 分野に関与するさまざまな企業からの貢献も得られました。このリストには、Amazon、Google、IBM、Microsoft、OpenAI、Plantir が含まれていますが、Apple については謝辞の中で言及されていません。仕事の歴史フィールドで。
国土安全保障省のアレハンドロ長官は、「私たちは人工知能の開発の転換点にいます。人工知能は現代において最も重要なテクノロジーであると考えられます。安全、安心、信頼できる AI システムを構築するには、サイバーセキュリティが鍵となります」と述べています。 N.マヨルカス。 「セキュア・バイ・デザインの原則を統合することにより、これらのガイドラインは開発者が投資しなければならない歴史的な合意を表しており、システムの設計と開発の各段階で顧客を保護します。」
マヨルカス氏は続けて、「これらのガイドラインのような世界的な行動を通じて、私たちはこの先駆的な技術の潜在的な害に対処しながら、利点を活用する点で世界をリードすることができます。」と付け加えた。
NCSC CEOのリンディ・キャメロン氏は、「AIが驚異的なペースで発展しており、これに追いつくためには政府や業界を超えた国際的な協調行動が必要であることは承知している」と述べた。 「これらのガイドラインは、セキュリティが開発の後付けではなく、開発全体の中核となる要件であることを保証するために、AI に関するサイバー リスクと緩和戦略について真にグローバルな共通の理解を形成する上で重要な一歩となります。
ガイドライン
20 ページの PDF ファイルにレイアウトされており、NCSCウェブサイト、ガイドラインは 4 つの懸念領域に分類されています。
安全な設計については、このガイドラインではリスクと脅威のモデリングの理解と、システム設計とモデル設計のトレードオフについてのさらなる議論が取り上げられています。 Secure Development は、サプライ チェーンのセキュリティ、文書化、資産および技術的負債の管理を扱います。
Secure Deployment は、侵害、脅威、損失からのインフラストラクチャとモデルの保護、およびインシデント管理プロセスの領域に入ります。最後に、安全な運用とメンテナンスは、ログ記録、監視、更新、情報共有などの導入後のアクションを処理します。
壮大で非効率的
AI などの注目のトピックに関するセキュリティ機関からのガイドラインの導入は重要に思えます。コンセプトは重要ですが、ドキュメントは適切な基盤ですらない。
これらはすべてガイドラインであり、必ず従わなければならないルールではありません。独自の AI システムを開発している企業はこの文書を読むことはできますが、実際に実践する義務はありません。
概要に従わないことに対する罰則はなく、法律の導入もありません。この文書は、政府がAIメーカーに真剣に考えてほしいことをまとめた願望リストにすぎない。
ガイダンスを提供するこのようなフレームワークの場合と同様、誰かが実際に推奨事項に従うという保証はまったくありません。そして、この文書の内容を義務付ける法律がいつ制定されるのか、あるいは制定されるのかは明らかではない。
とはいえ、AI に取り組んでいる企業は、製品を開発する際にすでにセキュリティ上の懸念を考慮に入れていることはほぼ間違いありません。将来の AI の潜在的な重要性と、AI が悪用されたり攻撃されたりする可能性を考慮して、多くの開発者はすでにセキュリティ対策を追加しています。
新しい省庁間のフレームワークは確かに AI 制作者に常識的な指針を提供しますが、セキュリティの必要性をすでに強く認識している開発者には無視される可能性が高い情報です。