AI时代的头号安全威胁:机器身份

GoUpSec点评:AI正在引发一场网络安全攻防技术的军备竞赛,但一个更大的风险——机器身份,却往往被人们忽视。

2025年以DeepSeek为代表的生成式AI技术迅猛发展,为企业带来了前所未有的创新机遇,也带来了新的安全风险。其中,非人类身份(Non-Human Identities, NHI)——如API密钥、令牌、加密密钥和服务账户——已成为网络安全的重大盲点。

根据OWASP最新发布的《非人类身份十大风险》(NHI Top 10),NHI数量可能比人类身份多出10至50倍,是网络攻击的主要攻击面。与此同时,生成式AI的崛起正在加速NHI相关威胁的增长,迫使企业重新审视安全策略。


生成式AI引爆非人类身份威胁

生成式AI,特别是人工智能代理(Agentic AI),以其高度自主性和适应性,能够学习、推理并独立决策,为自动化流程和内容生成带来了革命性变化。然而,这种能力也为NHI安全带来了新的风险:

1. 虚假身份生成:生成式AI(如DeepSeek、GroK)可生成伪造的API密钥、令牌或服务账户,供恶意攻击者用于模拟合法NHI,绕过身份验证。例如,攻击者可利用生成性AI创建看似真实的AWS IAM角色或Kubernetes服务账户,实施横向移动(lateral movement)或权限提升(privilege escalation)。

2. 社会工程攻击升级:Agentic AI可生成高度逼真的钓鱼邮件、Deepfake视频或虚假指令,诱骗管理员或开发者误用NHI。例如,AI生成的内容可能伪装成内部系统通知,要求共享API密钥或令牌,导致机密泄露。

3. 自动化攻击升级:Agentic AI能够模拟复杂攻击行为,如自动扫描NHI漏洞、优化攻击路径或持续利用长寿命密钥(long-lived secrets)。这使攻击者能够大规模、精准地针对NHI发起攻击,相比传统方法效率更高。

4. 复杂性增加:生成式AI生成的NHI相关内容(如日志、配置文件)可能混淆安全团队的检测,导致误报或漏报。例如,AI生成的伪造日志可能掩盖NHI滥用的痕迹,增加审计难度。

5. 快速迭代威胁:Agentic AI能实时学习最新安全漏洞和防御策略,迅速调整攻击手法(如利用OWASP列出的NHI风险),使防御系统难以跟上威胁节奏。这在云原生环境(如CI/CD管道)中尤为显著,NHI的过度权限和不安全配置可能被AI迅速利用。

生成式AI的这些特性让NHI威胁从静态、规则驱动的风险升级为动态、自主的全新挑战。随着人工智能代理变得越来越普遍,企业将面临大规模保护AI代理身份(动辄数千甚至数百万个代理同时运行)的安全挑战。

2024年微软遭遇的“午夜暴风雪”攻击事件凸显了NHI被利用进行数据窃取的巨大风险,而Agentic AI可能进一步放大此类攻击的规模和隐蔽性。


OWASP十大非人类身份威胁

OWASP最近发布的《非人类身份十大风险》为企业识别和应对NHI安全挑战提供了指导框架。NHI(如API密钥、令牌、加密密钥、服务账户)在企业网络中占主导地位,数量可能比人类身份多10至50倍。Verizon《2024数据泄露调查报告》指出,凭据仍是网络攻击的主要入口,NHI的漏洞直接加剧了这一风险。以下是OWASP列出的十大NHI风险及其缓解措施:

1. 不当注销(Improper Offboarding)

风险:NHI(如应用、服务账户)在任务结束或实体退出后未被清理,可能成为孤儿账户,供攻击者利用进行权限提升或横向移动(如Kubernetes服务账户、未撤销的凭据)。

缓解:实施标准化注销流程,自动化清理NHI,定期审计活跃NHI,确定使用基线并调整权限。

2. 机密泄露(SecretLeakage)

风险:API密钥、令牌等长寿命机密被泄露,如Codecov、Samsung事件中代码库泄露,导致攻击者绕过多因素认证(MFA)。

缓解:使用短暂凭据(ephemeral credentials)、部署机密管理工具(如HashiCorp Vault)、自动化检测和定期轮换机密。

3. 脆弱的第三方NHI(Vulnerable Third-Party NHI)

风险:第三方集成(如Visual Studio Code扩展)可能引入恶意NHI,获取开发者机器访问权限,影响版本控制、数据库和云环境。

缓解:审查限制第三方集成、监测行为、使用短暂或轮换凭据。

4. 不安全的认证(Insecure Authentication)

风险:过时或脆弱的认证方法(如废弃OAuth流程)易被利用,绕过现代安全标准。

缓解:采用现代化标准(如OAuth2.1、OpenID Connect)、无凭据认证、定期审计认证配置。

5. 过度权限NHI(Overprivileged NHI)

风险:NHI权限过高(如云身份99%过权限),易被攻击扩大影响范围(如Web服务器、VM、服务账户)。

缓解:实施最小权限原则(Least Privilege)、定期审查权限、启用即时访问(JIT)。

6. 不安全的云部署配置(Insecure Cloud Deployment Configurations)

风险:云环境配置错误(如存储桶公开、CI/CD凭据泄露)导致NHI被滥用,绕过MFA或横向移动。

缓解:使用OIDC动态生成短暂令牌、限制IAM角色信任、扫描代码库避免硬编码凭据。

7. 长寿机密(Long-Lived Secrets)

风险:API密钥等无过期或过期时间过长的机密易被攻击,用于权限提升或会话劫持。

缓解:启用自动化密钥轮换、采用零信任原则、最小权限配置。

8. 环境隔离不足(Lack of Environment Isolation)

风险:开发、测试、生产环境共享NHI,可能导致一个环境的安全事件影响其他环境。

缓解:为每个环境分配独立NHI、最小权限控制、定期审计和隔离敏感资源。

9. NHI重复使用(Reusing NHIs)

风险:服务账户、API密钥跨应用重复使用,易被攻击利用,扩大影响(如Kubernetes服务账户、云凭据)。

缓解:为每个应用/环境分配唯一NHI、最小权限、定期审查使用。

10. 人类使用NHI(Human Use of NHI)

风险:开发者或管理员手动使用NHI(如服务账户、API令牌),掩盖活动或被攻击者利用持久化。

缓解:使用专用身份、审计NHI活动、上下文感知访问控制、教育员工NHI风险。


技术与策略应对:用AI治理AI

面对生成式AI引发的NHI威胁,企业需结合OWASP指南,构建全面防御体系:

1. AI驱动的NHI检测与响应

解决方案:利用Agentic AI(如基于DeepSeek的模型)构建实时监控系统,分析NHI行为模式,识别异常活动(如伪造密钥、过度权限使用)。DeepSeek的推理能力可模拟攻击场景,预测潜在漏洞。

实施:集成DeepSeek于SIEM(安全信息和事件管理)工具,通过自然语言处理(NLP)解析日志,生成警报。

2. 动态权限管理

解决方案:开发基于Agentic AI的权限管理平台,自动评估NHI权限,实施最小权限和即时访问(JIT)。AI可根据任务需求生成短暂凭据,减少长寿命机密风险。

实施:使用DeepSeek-R1训练AI代理,动态调整权限。

3. 自动化的NHI清理与审计

解决方案:构建自动化注销系统,定期扫描孤儿NHI(如Kubernetes服务账户、未使用的API密钥),并生成审计报告。Agentic AI可预测未清理风险,建议优化策略。

实施:部署DeepSeek于云端或本地,集成到CI/CD管道,结合OWASP推荐的自动化工具。

此外,部署生成式AI技术的企业还需要考虑以下身份控制措施:

- 对所有用户访问实施强自适应MFA。

- 确保访问安全、审核使用情况并定期轮换人员和后端应用程序或脚本使用的凭证、密钥、证书和机密。确保不会永久分配无法自动轮换的API密钥或令牌,并且仅公开最少的必要系统和服务。

- 实施零权限(ZSP)有助于确保用户没有永久访问权限,只能在必要时访问数据并承担特定角色。在无法实施零权限的区域,应实施最小权限访问,以在用户受到攻击时将攻击面降至最低。

- 隔离和审核访问GenAI主干组件的所有用户的会话。

- 集中监控所有用户行为,以进行取证、审计和合规性检查。记录并监控所有更改。


未来展望

AI时代的NHI威胁将持续增长,生成式AI和Agentic AI的普及将进一步放大风险。企业需加强跨部门协作,结合AI技术构建动态、弹性的防御体系。同时,关注生成式AI的安全风险(如偏见、误用),确保技术服务于安全而非威胁。


参考链接:https://owasp.org/www-project-non-human-identities-top-10/2025/introduction/
本文转自:GoUpSec,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章