paint-brush
AI ガバナンスとサイバーセキュリティの調和@shashankyadav
375 測定値
375 測定値

AI ガバナンスとサイバーセキュリティの調和

Shashank Yadav9m2023/10/01
Read on Terminal Reader

長すぎる; 読むには

AI のセキュリティとガバナンスの領域では、メタポリシーが後回しにされることが多く、進化する脅威の状況に十分に対処できないままになっています。マルチステークホルダー主義とトップダウンアプローチを融合した多国間協力が、重要な解決策として浮上します。この記事では、結果だけでなく、AI システムを推進するプロセスとポリシーを保護するために必要な課題、政治、潜在的な改革について詳しく説明します。
featured image - AI ガバナンスとサイバーセキュリティの調和
Shashank Yadav HackerNoon profile picture
0-item



最近、サム・アルトマンは、(おそらく)世界的な AI 開発を規制当局が把握しようと世界中を巡回しています。 OpenAI がオープンソース AI をまったく好まないのも不思議ではありません。ただし、この投稿は AI 開発に関するものではなく、そのセキュリティと標準化の課題について説明します。一般に、高度なサイバー脅威環境と防御側のサイバー状況認識および対応能力 (以下、まとめて「セキュリティ自動化」能力と呼びます) は、どちらも圧倒的に自動化システムと AI システムによって推進されています。アイデアを得るには、今日 Gmail をチェックして返信するという単純なことを考えて、その単純なアクティビティの保護と調整を構成できる AI と自動化の層を列挙してください。


したがって、顕著な規模と複雑さを備えたすべての組織は、サイバーセキュリティ ポリシーに影響を与えるためにセキュリティ自動化システムに依存する必要があります。見落とされがちなのは、これらのセキュリティ自動化システムの実装を可能にするサイバーセキュリティの「メタポリシー」も存在することです。これらには、自動化された脅威データ交換メカニズム、基礎となる帰属規則、知識生産/管理システムが含まれる場合があります。これらすべてにより、マーケティング担当者や弁護士が「積極的な防御」または「積極的なサイバーセキュリティ」と呼ぶことが多い検出と対応の態勢が可能になります。しかし、国家サイバーセキュリティ政策を取り上げた場合、これらのメタポリシーに関するものを見つけるのは難しいでしょう。なぜなら、これらのメタポリシーは暗黙的に行われることが多く、主に影響や模倣(つまりネットワーク効果)によって国の実施に持ち込まれているからであり、それほど影響力や模倣(ネットワーク効果)によって導入されているからです。公式または戦略的な検討。


これらのセキュリティ自動化メタポリシーは、AI のガバナンスとセキュリティにとって重要です。なぜなら、これらすべての AI システムは、完全にデジタルであるかサイバー物理的であるかにかかわらず、最終的にはより広範なサイバーセキュリティと戦略的マトリックスの中に存在するからです。私たちは、普及している自動化メタポリシーを改良することが AI の将来に役立つかどうかを問う必要があります。


パス依存性の回避

自動化された情報システムにおける経路依存性の傾向を考慮すると、これまで問題なく機能してきたものが、インテリジェント/コネクテッド ビークル エコシステムなど、セキュリティ自動化の新しい付属領域にさらに定着しつつあります。さらに、車輪付きソフトウェアのセキュリティの開発は、乗組員の削減と致死性の向上を約束する完全にデジタル化された戦車から、車両の自動セキュリティ管理の標準に至るまで、さまざまな複雑な自動車システムに容易に採用されています。ドローン輸送システム。その結果、サイバーセキュリティ SOC と同様に動作し、同様のデータ交換メカニズムを使用し、セキュリティの自動化と情報配信の同じ実装を借用する車両 SOC (セキュリティ オペレーション センター) が増加しています。既存の手段が、新たな脅威環境に盲目的に組み込むのに十分であれば、まったく問題ありません。しかし、彼らはそこからは程遠いのです。


たとえば、ほとんどのサイバーセキュリティ脅威データ交換ではトラフィック ライト プロトコル(TLP)が使用されますが、TLP 自体は情報の分類にすぎません。その実行や、意図したとおりに配布を制限するための暗号化方式は、セキュリティ自動化の設計者に任されています。システム。したがって、完全または部分的に自動化されたシステムとのデータ共有をよりきめ細かくより豊富に制御するだけでなく、そのコンプライアンスを確保することも必要です。 TLP のような脅威コミュニケーション ポリシーの多くは、サイバーセキュリティ ベンダーが導入を検討するかどうかの意見をほぼ表明したものであるという点で、悪名高いタリン マニュアルに似ています。脅威データの標準が自動化された検出と対応をカバーすると予想される場合(自動車や産業オートメーションの場合のように)、コンプライアンス要件が欠如しているため、適切なデータ セキュリティと交換ポリシーが統合されている場合と統合されていない場合は、より問題が大きくなります。それで。


矛盾したメタポリシーの別の例は、他にも数多くありますが、言語生成システムと会話型 AI エージェントの最近の台頭に見られます。問題は、すべての会話エージェントが ChatGPT のような大規模なニューラル ネットワークであるわけではないということです。これらのほとんどは、ルールベースのタスク固有の言語生成プログラムとして数十年にわたって展開されてきました。対話モデリングとそのようなプログラム間のコンテキストのグラフベースの表現による「共通の運用イメージ」を持つこと(複数のドメイン/劇場で活動する組織が必要とする可能性があるため)は、世界が「必要なのは注意だけ」ということに出会うまで、継続的な課題でした。したがって、現在では基本的に、ヒューマン マシン インターフェイスにおける膨大なレガシー IT インフラストラクチャと、それに挑戦するマルチモーダル AI 自動化パラダイムが存在します。 「デジタル変革」を経験している組織は、従来の技術的負債の継承を回避するだけでなく、AI 中心の提供モデルを効率的に運用するためのリソースと組織の要件も考慮する必要があります。当然のことながら、一部の組織 (政府を含む) は、すぐには完全な変革を望んでいないかもしれません。新しい自動システムと従来の自動システムの間で標準化されたデータとコンテキストの交換が不足しているため、多くのユーザーは、最も革新的なパラダイムではなく、最も慣れ親しんだパラダイムを使い続ける可能性があります。


実際、今日のサイバーセキュリティの多くは、これらのタイムリーなデータ交換と自動化されたオーケストレーションに依存しているため、これらの基礎となる情報標準は、現代の(脱工業化)社会とサイバー物理システムのガバナンスにとって極めて重要なものとなっています。しかし、私たちは、高度につながり、国境を越えた脅威環境において AI セキュリティを管理するために必要な知識生産メタポリシーを策定したり調和させたりする代わりに、実存の解放と終わりのない不気味の谷という破滅の罠に陥っているようです。そうは言っても、セキュリティ データ作成におけるコンプライアンスの欠如と無秩序な標準開発シナリオの主な理由の 1 つは、主要なガバナンス エージェントの欠如です。


(サイバー)セキュリティ情報のガバナンス

現在の自動化中心のサイバー脅威情報共有標準は、一般にマルチステークホルダー ガバナンス モデルに従っています。これは、これらが基本的にボトムアップのライフサイクル アプローチに従っていることを意味します。つまり、サイバーセキュリティ情報標準が開発され、ITU および ISO との相互標準化のために「引き上げ」られます。この技術基準の向上は容易ではありません。 Structured Threat Information Expression (STIX) は、機械可読な Cyber Threat Intelligence (CTI) を送信するための現在事実上の業界標準となっていると思われますが、まだ ITU の承認を待っています。それが本当に必要だというわけではありません。なぜなら、テクノロジーにおけるグローバル ガバナンスの構築方法は、国家ではなく業界によって主導されるからです。 G7はこれを公式化するところまで行っており、一部の加盟国は異なる規範に向けたあらゆる外交努力をさえ阻止している


これは、官民技術パートナーシップ内で必要な構造的および生産的能力を備えている国民国家にとってはうまく機能します。その結果、サイバー技術標準のグローバルガバナンスは世界秩序を反映することになります。サイバー攻撃者の名前を除けば、これまでのところ、これは本質的に比較的客観的でした。しかし、オンラインの偽情報が攻撃的なサイバー作戦や国家サイバーセキュリティ政策に統合されると、それはもはや当てはまりません。従来の情報標準が意味上の矛盾に遭遇する可能性があるだけでなく、情報環境に関する新しい価値主導の標準も出現しています。自動化による社会的/政治的脅威指標の作成と共有は、政治的嗜好によって形成され、影響を与える可能性があるため、AI 生成情報やソーシャル ボットネットの脅威が高まるにつれて、サイバーセキュリティ脅威情報の基準も十分に客観的なものからより主観的なものへと移行します。姿勢。そして、サイバーセキュリティ標準の政策が市場主導のマルチステークホルダーの開発と深く絡み合っているため、国家はこの現在のシステムを再構成するためにほとんど何もできません。


サイバー脅威の帰属がその好例です。 MITRE は DARPA の請負業者として始まり、現在ではコンピューター ネットワークの脅威と脆弱性に関する業界全体の事実上の知識ベースとして機能しています。 MITRE ATT&CK にリストされている高度持続的脅威グループのうち、サイバー脅威の 1/3 近くが中国、さらに 1/3 がロシア/韓国/中東/インド/南アメリカなどからのもので、残りの 1/3 (最も洗練された TTP、ゼロデイエクスプロイトの最大の割合、地政学的に調整された標的が含まれています)は、帰属されていないままです。ここでは推測はしませんが、原因不明の脅威クラスターに関する抽象的な推論により、読者は世界的な CTI 生成の好みと政策についていくつかのアイデアを得ることができるかもしれません。


現実の事実として、サイバースペースでは権力を求める国家が次のような役割を果たしている。

ガバナンス主体と洗練された犯罪者が同時に存在するため、この市場主導のマルチステークホルダー主義は彼らの運用ロジックにとってうまく機能し、相互運用性の世界的な政治を広めています。しかし、これはサイバー脅威の知識の生成やセキュリティの自動化そのものにとっては好ましくなく、インターネット上では時として非常に偏った政治的動機に基づくものになる可能性があります。社会はこの道を長い間歩んできたので、自律性が高まるシステムに囲まれた世界に移行する際に、それが問題であるとさえ考えなくなりました。

前進への道

ソーシャル AI のリスクが増大する中、今日、防御可能なサイバーセキュリティ自動化態勢を導入しようとしている州は、サイバーセキュリティ脅威情報、複数の CTI ベンダーおよびメタポリシーにおける高い信号対雑音比、さらには産業界や国際社会からの絶え間ない圧力に対処する必要があるかもしれません。 「AI 倫理」と「サイバー規範」についての組織を対象とします (ここでは、「誰の倫理か?」についての議論には立ち入りません)。すでに述べたように、この混乱はボトムアップ アプローチの設計の結果です。ただし、トップダウンのアプローチでは、ボトムアップのアプローチのような柔軟性や機敏性に欠ける可能性があります。このため、マルチステークホルダー主義の最良の部分と多国間主義の最良の部分を統合する必要があります。


それは、多角的なビジョンと枠組みの下で、現在のボトムアップの情報標準設定を合理化することを意味します。私たちは党派的な脅威によるデータ生成を避けたいと考えていますが、調整、解決、舵取りを必要とする業界の専門知識の異なるプールを利用したいとも考えています。 ITU や UNDIR などの一部の国連機関は、世界的なサイバーセキュリティのメタポリシーで重要な役割を果たしていますが、インターネット上の悪意のあるソーシャル AI を管理したり、脅威の共有に対するメタポリシー制御を実装したりするために必要なトップダウンの規制効果はありません。分散型自律プラットフォーム。したがって、マルチステークホルダー主義と多国間主義のこの統合は、安保理自体、またはその他の同等の国際安全保障機関から始める必要があります。


これが予想外だったわけではない。 1998年に情報技術、特にインターネットを評価する最初の国連決議がなされたとき、一部の国はこれらの技術が最終的に国際安全保障と安定に反することになると明確に指摘し、国際安全保障の最高レベルで必要な改革をほのめかしていました。実際、機関としての UNSC は、デジタル技術やインターネット後のセキュリティの現実とうまく共進化してきませんでした。国家関連の APT 活動の無制限の拡散は、不安定化する国家活動を規制できていないことのほんの一例にすぎません。さらに、評議会は依然として戦略的安全保障に関する 1945 年のビジョンに囚われているように見えますが、戦略的に配備された攻撃的なサイバーおよび AI 能力を考慮すると、「国家暴力」という概念を再配置する十分な理由と証拠があります。


世界秩序の回復力とその定着した官僚制度を克服するのは簡単ではないが、その憲章と構成が改革されれば、評議会(またはそれに代わる機関)は、政策の欠如から生じる空白を埋める貴重な機関として機能する可能性がある。サイバースペースにおけるセキュリティの自動化と AI アプリケーションを推進するセキュリティとガバナンスの標準を指導する主要なエージェント。

それはプロセスです

この時点で、ある種の誤解を正す必要があります。規制当局は「AI製品」の管理について何らかの考えを持っているようで、少なくともEUのAI法は同様のことを示唆している。ここで私たちは、「AI」または「自律的行動」とは何かを考えるために、沈黙と静かな時間をとらなければなりません。そして、製品を認証する現在の方法が、継続的な学習と現実世界とのデータ交換。私たちが言いたいのは、規制当局はおそらく AI を規制する際の製品中心のアプローチとプロセス中心のアプローチの長所と短所を真剣に検討する必要があるということです。


AI は最終的には結果です。これは、データ エンジニアリングの実践やモデル アーキテクチャからマシン間の情報交換や最適化メカニズムに至るまで、基礎的なプロセスとポリシーであり、結果そのものではなく、ガバナンスと標準に焦点を当てる必要があります。さらに、ソフトウェアがオブジェクト指向からエージェント指向のエンジニアリング パラダイムに移行するにつれて、規制当局はコードの観点からポリシーを、またポリシーの観点からコードを考え始める必要があります。それ以外の場合は、意図と実装の間に常に大きなギャップが残されます。


前述した今日のマルチステークホルダーによるサイバーセキュリティ ガバナンスの混乱がなんとかなるとすれば、AI のセキュリティとガバナンスのためには、証拠に基づいた (最終的な CTI につながったデータを考慮し、新しい種類の技術的証拠と連携する) 脅威データ オーケストレーション、実行時検証が必要です。サイバー防衛およびセキュリティ システムにおける AI 主導の自動化、サイバー脅威情報ガバナンスのための明確な超党派のチャネルと標準、およびそれに関する多国間の合意です。世界中のセキュリティ自動化システムを推進する情報メタポリシーのエコシステムからわかるように、最終的な AI 製品だけに焦点を当てると、多くのことが未解決のままになり、潜在的に党派的なものになる可能性があります。そのため、これらのシステムを推進する基盤となるプロセスとポリシーをより適切に管理することに焦点を当てる必要があります。それらのプロセスとポリシーの結果。