随着人工智能(AI)加速向工业控制领域渗透,如何平衡AI的“概率性创新”与运营技术(OT)的“确定性安全”,已成为全球关键基础设施面临的首要挑战。
近日,美国网络安全和基础设施安全局(CISA)联合澳大利亚网络安全中心(ACSC),并协同英国、加拿大、新西兰、德国、日本、韩国等十余个国家的网络安全机构,共同发布了《运营技术(OT)人工智能集成安全原则》。
当“黑盒”AI遇见“零容错”OT:在确定性系统中驾驭概率性技术
这份指南不仅仅是一份合规清单,更是一份针对工业4.0时代的技术生存手册。它直击OT环境的核心痛点——在追求效率的同时,如何防止AI的不可解释性与脆弱性演变成物理世界的灾难。
报道指出,OT系统的核心属性是确定性、可靠性和安全性(Safety)。传统的工业控制逻辑是线性的、可预测的。然而,AI(尤其是基于机器学习和深度学习的模型)本质上是概率性的,且往往伴随着“黑盒”特征。
指南特别强调,将AI引入OT环境时,必须重新校准风险容忍度。一个在IT环境中可以接受的“95%准确率”,在控制电网或化工管道的OT环境中可能意味着无法承受的物理风险。因此,指南不仅关注生成式AI(GenAI),也涵盖了传统的统计模型和逻辑自动化,强调任何自动化决策机制都需纳入安全视野。
四大基本安全原则构建防御纵深
为了应对上述挑战,指南通过四大原则构建了一套全生命周期的防御体系,其中包含大量具体且具备实操性的技术建议:
一、理解AI。
超越代码的文化重塑 安全不仅仅是技术问题,更是认知问题。指南建议,OT资产所有者必须通过多学科的方法来理解AI:
跨领域技能融合:打破IT与OT的部门壁垒,确保OT工程师理解AI模型的基本逻辑(如训练数据依赖性),同时让AI数据科学家理解OT环境的物理约束。
识别独特的AI威胁:组织必须认识到AI引入了新的攻击面,例如“模型反转攻击”(从模型输出推导敏感训练数据)或“对抗性样本攻击”(通过微小扰动欺骗传感器)。指南强调,必须像管理传统漏洞一样管理AI模型的脆弱性。
二、评估AI应用。
从供应链到数据血缘 在决定部署AI之前,必须进行彻底的尽职调查。指南细化了评估维度的颗粒度:
数据作为核心资产:OT环境中的数据(如传感器读数、遥测数据)是AI的燃料。指南警告,必须确保数据的完整性,防止数据在采集或传输阶段被“投毒”。
供应链透明度:强调了软件物料清单(SBOM)的重要性,并将其概念延伸至AI模型。运营者需要清楚AI组件的来源、训练数据集的构成以及预训练模型的潜在后门。
云与边缘的抉择:评估是在云端处理数据还是在边缘设备(On-Premise)处理。对于高风险OT系统,指南倾向于限制外部连接,建议优先考虑本地化部署以减少攻击面。
三、建立AI治理。
全生命周期的“护栏” 治理不能仅停留在纸面。指南提出了一套动态的治理框架:
持续监控与模型漂移:OT环境是动态变化的(如设备老化、工艺调整)。AI模型一旦部署,其性能可能会随时间推移而下降(即“模型漂移”)。指南要求建立持续监控机制,一旦发现模型输出偏离预期,需立即触发警报或回退机制。
角色与责任:明确界定谁有权修改模型参数,谁负责批准AI的决策建议。必须防止未经授权的微调导致系统行为异常。
四、 嵌入安全与保障。
物理世界的最后防线,这是指南中最具OT特色的部分,强调在任何情况下,物理安全(Safety)均高于算法效率:
数字孪生验证:在将AI部署到生产环境之前,强烈建议利用数字孪生(Digital Twins)技术在虚拟环境中进行高保真模拟测试,特别是针对边缘情况(Corner Cases)的压力测试。
“人在回路”与手动超控:对于高风险操作,必须保留人类操作员的最终决定权。更重要的是,系统设计必须保留硬连线的物理安全机制(如机械安全阀),确保即使AI完全失控或被黑客接管,物理安全底线也不会被突破。
故障导向安全(Fail-Safe):设计AI系统时,必须预设故障模式。当AI失效时,系统应自动切换到已知的安全状态,而不是不可预测的中间状态。
结语:关键基础设施集成AI的前提是物理安全绝对可控
对于关键基础设施运营者而言,这份指南传达了一个明确信号:AI的集成不是“即插即用”的功能升级,而是一场需要精密策划的架构重构。 只有在确保物理安全绝对可控的前提下,AI的智能化潜力才能真正赋能工业未来。
本文转自:GoUpSec,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。





