paint-brush
协调人工智能治理和网络安全经过@shashankyadav
375 讀數
375 讀數

协调人工智能治理和网络安全

经过 Shashank Yadav9m2023/10/01
Read on Terminal Reader

太長; 讀書

在人工智能安全和治理领域,元策略往往处于次要地位,导致不断变化的威胁形势得不到充分解决。多边合作,融合多利益相关者主义和自上而下的方法,成为一个关键的解决方案。本文深入探讨了保护驱动人工智能系统的流程和政策所需的挑战、政治和潜在改革,而不仅仅是结果。
featured image - 协调人工智能治理和网络安全
Shashank Yadav HackerNoon profile picture
0-item



最近,萨姆·奥尔特曼(Sam Altman)一直在世界各地巡游,试图(或许)对全球人工智能的发展进行监管。难怪 OpenAI 根本不喜欢开源人工智能。然而,这篇文章不是关于人工智能的开发,而是关于它的安全和标准化挑战。一般来说,先进的网络威胁环境以及防御者的网络态势感知和响应能力(以下统称为“安全自动化”能力)绝大多数都是由自动化和人工智能系统驱动的。为了获得一个想法,以今天检查和回复 Gmail 为例,并列举可以构成保护和编排这一简单活动的人工智能和自动化层。


因此,所有具有显着规模和复杂性的组织都必须依赖安全自动化系统来影响其网络安全策略。经常被忽视的是,还存在一些网络安全“元策略”,可以实现这些安全自动化系统。这些可能包括自动威胁数据交换机制、底层归因约定和知识生产/管理系统。所有这些都使得检测和响应态势成为可能,营销人员和律师通常将其称为“主动防御”或“主动网络安全”。然而,如果你选择任何国家网络安全政策,你将很难在这些元政策中找到任何内容——因为它们通常是隐性的,主要是通过影响和模仿(即网络效应)而不是通过影响和模仿(即网络效应)进入国家实施的。正式或战略审议。


这些安全自动化元策略对于人工智能治理和安全非常重要,因为最终,所有这些人工智能系统,无论是完全数字化的还是网络物理的,都存在于更广泛的网络安全和战略矩阵中。我们需要问的是,改造流行的自动化元策略是否有利于人工智能的未来。


避免路径依赖

鉴于自动化信息系统存在路径依赖的趋势,到目前为止表现良好的方法正在进一步巩固到安全自动化的更新和附属领域,例如智能/互联车辆生态系统。此外,轮上软件安全性的发展很容易被各种复杂的汽车系统所采用,从有望减少乘员人数和增加杀伤力的全数字化坦克到自动化车队安全管理标准和无人机运输系统。因此,在网络安全 SOC 上运行并使用类似的数据交换机制、借用相同的安全自动化和信息分发实现的车辆 SOC(安全运营中心)有所增加。如果现有手段足以盲目地改造以适应新出现的威胁环境,那就完全没问题了。但他们离这个目标还很远。


例如,大多数网络安全威胁数据交换都使用交通信号灯协议(TLP) ,但 TLP 本身只是一种信息分类 - 它的执行以及任何限制按预期分发的加密机制都留给安全自动化的设计者系统。因此,不仅需要对完全或部分自动化系统的数据共享进行更细粒度和更丰富的控制,而且还需要确保合规性。许多威胁通信策略(例如 TLP)类似于臭名昭著的塔林手册,因为这些策略几乎表达了网络安全供应商可能考虑实施或可能不实施的意见。当威胁数据标准预计涵盖自动检测和响应(就像汽车和工业自动化的情况)时,问题会变得更加严重,并且可能会或可能不会集成适当的数据安全和交换策略,因为缺乏任何合规性要求所以。


在众多其他元策略不一致的例子中,可以在最近兴起的语言生成系统和对话式人工智能代理中找到。问题是,并非所有会话代理都是 ChatGPT 式的大型神经网络。其中大多数已经作为基于规则的、特定于任务的语言生成程序部署了数十年。在世界偶然发现“你所需要的就是注意力”之前,通过对话建模和基于图形的程序之间的上下文表示(作为在多个领域/剧院运营的组织可能需要的)来拥有“共同的操作图”是一个持续的挑战。所以现在基本上我们在人机界面方面拥有大量的遗留 IT 基础设施和挑战它的多模式人工智能自动化范式。正在进行“数字化转型”的组织不仅必须避免继承遗留技术债务,还要考虑有效运营以人工智能为中心的交付模型的资源和组织要求。可以理解的是,一些组织(包括政府)可能不希望立即彻底转型。由于新兴和传统自动化系统之间缺乏标准化的数据和上下文交换,许多用户可能会继续使用他们最熟悉的范例,而不是最具革命性的范例。


事实上,当今的网络安全很大程度上取决于这些及时的数据交换和自动编排,因此这些基础信息标准对于现代(后工业)社会和网络物理系统的治理变得绝对至关重要。然而,我们似乎没有制定或协调在超互联和跨国威胁环境中管理人工智能安全所需的知识生产元政策,而是陷入了生存拯救和无休止的恐怖谷的厄运陷阱。也就是说,安全数据生产中缺乏合规性和混乱的标准开发场景的主要原因之一是缺乏主要的治理代理。


(网络)安全信息的治理

目前以自动化为中心的网络威胁信息共享标准通常遵循多利益相关者治理模型。这意味着这些标准基本上遵循自下而上的生命周期方法,即开发网络安全信息标准,然后“向上”推动与国际电联和国际标准化组织的交叉标准化。技术标准的这种向上流动并不容易。结构化威胁信息表达(STIX)可能是目前用于传输机器可读网络威胁情报(CTI)的事实上的行业标准,仍在等待国际电联的批准。并不是说它真的需要,因为全球技术治理的结构方式是由行业而不是国家领导的。七国集团已经将这一点正式化,一些成员甚至阻止任何针对任何不同规范的外交努力。


这对于那些在公私技术伙伴关系中拥有必要的结构和生产能力的民族国家来说非常有效。因此,网络技术标准的全球治理成为全球秩序的体现。如果没有网络威胁行为者的名字,到目前为止,这本质上仍然是相对客观的。但随着网络虚假信息融入进攻性网络行动和国家网络安全政策,情况不再如此——不仅传统的信息标准会陷入语义冲突,新的信息环境价值驱动标准也不断涌现。由于自动化驱动的社会/政治威胁指标的产生和共享可以由政治偏好塑造并影响政治偏好,随着人工智能生成信息和社交僵尸网络的威胁上升,网络安全威胁信息标准也从足够客观滑向更加主观姿势。各国对重新配置现有体系无能为力,因为网络安全标准的政治已与市场主导的多利益相关方发展紧密地交织在一起。


网络威胁归因就是一个很好的例子。 MITRE 最初是 DARPA 承包商,如今已成为全行业计算机网络威胁和漏洞的事实知识库。 MITRE ATT&CK 列出的高级持续威胁组织中,近 1/3 的网络威胁来自中国,另外 1/3 来自俄罗斯/韩国/中东/印度/南美等,其余 1/3(其中包含最复杂的 TTP、最大比例的零日利用以及地缘政治一致的目标)仍未确定。我们不会在这里进行推测,但对未归属威胁集群的溯因推理可能会让读者对全球 CTI 生产的偏好和政治产生一些想法。


现实的事实是,在网络空间中,寻求权力的国家一直扮演着

治理参与者和老练的犯罪者同时存在,因此这种市场主导的多利益相关者主义非常适合其运作逻辑——传播全球互操作性政治。但这对网络威胁知识和安全自动化本身的产生不利,有时可能会在互联网上变得相当有偏见和出于政治动机。社会在这条道路上已经走了足够长的时间,当进入一个被日益自治的系统包围的世界时,甚至不认为这是一个问题。

前进之路

随着社交人工智能风险日益增大,如今打算实施可防御的网络安全自动化态势的国家可能必须应对网络安全威胁信息的高信噪比、多个 CTI 供应商和元政策,以及来自行业和国际的持续压力。关于“人工智能道德”和“网络规范”的组织(我们不会在这里冒险讨论“谁的道德?”)。正如我们所指出的,这种混乱是自下而上方法设计的结果。然而,自上而下的方法可能缺乏自下而上方法的灵活性和敏捷性。因此,有必要将多利益相关方主义的优点与多边主义的优点结合起来。


这意味着在多边愿景和框架下合理化目前自下而上的信息标准设置。虽然我们确实希望避免数据生成中的党派威胁,但我们也希望利用不同的行业专业知识库,这需要协调、解决和指导。虽然一些联合国机构,如国际电联和联合国地下核裁军研究所,在全球网络安全元政策中发挥着重要作用,但它们不具备治理互联网上恶意社交人工智能或对威胁共享实施任何元政策控制所需的自上而下的监管作用。分布式自治平台。因此,多利益相关方主义与多边主义的融合需要从联合国安理会本身或任何其他同等的国际安全组织开始。


这并非是不可预见的。当1998年联合国第一项评估信息技术特别是互联网的决议出台时,一些国家明确指出这些技术最终将与国际安全和稳定相悖,暗示国际安全最高层需要进行改革。事实上,联合国安理会作为一个机构并没有很好地与数字技术和后互联网安全现实共同发展。国家附属的 APT 行动不受限制的扩散只是其未能监管破坏稳定的国家活动的一个例子。此外,虽然安理会似乎仍停留在 1945 年的战略安全愿景上,但有足够的理由和证据根据战略部署的进攻性网络和人工智能能力重新定位“国家暴力”的概念。


虽然克服全球秩序的弹性及其根深蒂固的官僚机构并不容易,但如果对其章程和组成进行改革,理事会(或其替代者)可以成为一个有价值的机构,以填补因缺乏权威而出现的空白。指导推动网络空间安全自动化和人工智能应用的安全和治理标准的主要代理。

这就是过程

在此,我们有必要澄清一些误解。监管机构似乎对监管“人工智能产品”有一些想法,至少欧盟的人工智能法案表明了这一点。在这里,我们必须静默片刻,反思一下什么是“人工智能”或“自主行为”——我们大多数人很快就会意识到,目前的产品认证方法可能不足以解决根植于人工智能的自适应系统问题。不断学习并与现实世界交换数据。我们想说的是,监管机构或许需要认真考虑以产品为中心与以流程为中心的人工智能监管方法的利弊。


人工智能最终是一个结果。从数据工程实践和模型架构到机器对机器的信息交换和优化机制,治理和标准的重点需要放在底层流程和策略上,而不是结果本身。此外,随着软件从面向对象的工程范式转变为面向代理的工程范式,监管机构需要开始从代码的角度考虑政策,再从政策的角度考虑代码——任何其他事情总会在意图和实施之间留下巨大的差距。


如果前面提到的当今多利益相关方网络安全治理的混乱是事实的话,那么对于人工智能安全和治理,我们需要基于证据的(考虑导致最终 CTI 的数据,并利用新型技术证据)威胁数据编排、运行时验证网络防御和安全系统中人工智能驱动的自动化、网络威胁信息治理的明确无党派渠道和标准以及对此的多边共识。仅关注最终的人工智能产品可能会留下许多未解决的问题,并且可能存在党派之争——正如我们从驱动全球安全自动化系统的信息元政策生态系统中看到的那样——因此,我们需要专注于更好地管理驱动这些系统的底层流程和政策,而不是这些流程和政策的结果。


也发布在这里。