生成式AI和智能体的快速普及,正在改变网络安全的攻防模式。企业不仅要利用AI提升安全能力,也必须应对AI带来的新型风险。

近期,中国类OpenClaw应用快速发展,市场上出现了许多不同的龙虾智能体,如火山引擎的的ArkClaw、腾讯的QClaw等。阿里巴巴近日也发布了企业级Agent平台 “悟空” 。大模型、智能体的快速发展为千行百业带来众多机遇,网络安全产业也不例外。
一方面,AI正在赋能安全检测、漏洞分析和自动化修复,大幅提升安全运营效率;另一方面,AI应用本身也正在成为新的攻击入口。IDC在《IDC Link:中国网络安全技术前瞻,2026Q1》中指出,当前网络安全技术的发展正呈现出明显的“All in AI”趋势。
以下是IDC观察到的七个关键技术趋势
趋势一:安全智能体有望替代部分传统安全产品,成为安全团队“协作者”和“运营者”
2026年2月,Anthropic发布Claude Code Security。这款安全智能体能够通过语义理解分析代码逻辑,并在真实环境中发现500多个此前未被识别的高危漏洞。事实上,Google和OpenAI早在2025年就推出了类似的安全研究智能体,并将其应用于漏洞识别、代码审计和漏洞验证等场景。
与传统SAST、DAST或SCA工具相比,代码安全智能体在以下方面具有明显优势:
●更强的上下文理解能力
●更复杂的场景识别能力
●自动化修复能力
IDC认为,在任务重复度较高、难度较低的安全场景,智能体会快速落地,并替代掉部分安全工具和产品。但短期来看,AI并不会取代安全专家。当前主流安全智能体仍然保留人工审批机制(Human in loop),因为在风险决策、责任归属和异常处理方面,人类仍然是关键环节。
趋势二:AI智能体应用正在成为新的攻击入口
OpenClaw龙虾爆火全球,其具备长期记忆能力,在本地运行,可以主动通过用户偏好的现有消息应用向用户发送消息并在后台持续运行,受到了全球用户的广泛关注并引发安装潮。但这类能力与高度自主性息息相关,意味着助手在实现目标时可能表现出异常强大的资源整合能力,这既带来了益处,也会大幅扩大威胁暴露面,“裸奔”的小龙虾会造成巨大的安全风险,给个人、企业带来难以挽回的巨大损失。
具体来说,OpenClaw存在如公网暴露+弱认证、Skill供应链风险、Agent权限失控风险、提示注入风险、敏感信息明文存储风险等。国家信息安全漏洞库(CNNVD)发布通报,2026年1月到3月9日,共采集到82个OpenClaw漏洞,存在极大的安全隐患。
为此 IDC 建议:禁用公网直接暴露,改用127.0.0.1 并加密远程访问;最小化权限,关闭高危命令并启用二次确认;加密敏感数据,杜绝明文存密;仅安装官方可信插件;定期自查安全配置,及时整改风险。IDC《全球CIO议程2026年预测——中国启示》报告预测,到2030年,中国500强企业中15%的组织将因对AI智能体的管控与治理不足,引发高关注度的运营中断,进而面临诉讼、高额罚款及CIO被解雇的情况。企业管理者亟需构建一套智能体安全和治理体系来帮助企业安全地用好智能体,规避安全风险。
趋势三:非人类身份管理将成为现代身份管理体系的核心
在AI和自动化环境中,企业身份体系正在发生变化。除了员工身份外,越来越多非人类身份正在出现,如AI智能体、API密钥、服务账号等,这些身份推动企业自动化运行,但同时也扩大了攻击面。
IDC观察到,非人类身份管理平台(NHIM)正成为企业安全架构的重要组成部分,非人类身份管理平台(NHIM)可为多云和代码环境中的机器身份提供基于AI驱动的自动化生命周期管理,具体能力如下:
●非人类身份的自动发现和分类
●最小权限管理
●动态密钥轮换
●身份归属管理
●态势监控与管理
IDC认为,通过整合这些功能,NHIM平台可实现一致的治理和安全性,使身份管理实践与零信任框架保持一致。未来,非人类身份管理将弥补IAM体系中的关键缺口,通过主动安全控制措施增强企业机器身份管理能力,降低机器身份相关事件发生的概率。
趋势四:AI-ready data成为AI安全的关键基础设施
在推进AI项目时,企业往往面临一个核心挑战:如何在推动AI应用落地的同时保护敏感数据。
IDC提出AI-ready data概念,即经过整理、清洗、脱敏和合规化处理的数据。
构建AI-ready data通常需要:用于AI训练推理的数据识别和分级分类治理跨场景统一安全策略细粒度访问控制
IDC认为,AI-ready数据既能保障数据安全与数据质量,消除 AI 项目推进的关键障碍,又能通过分层安全机制降低数据泄露与合规风险,为企业安全、高效、规模化落地AI 应用提供稳定可靠的数据基础。
趋势五:PCC技术将推动企业数字化架构向更高的安全性、灵活性和智能化演进
当前许多企业在落地大模型应用时面临一个典型困境,即自建大模型成本过高,但使用公有云模型又担心数据隐私。PCC(Private Cloud Compute)私密云计算正成为解决这一问题的重要技术路径。
PCC通过端到端加密和硬件级安全隔离构建 “数据可访问但不可见”的运行环境,使企业能够在云端运行AI模型的同时保护核心数据。其既保留了云计算能力对复杂大模型任务的支持能力,又避免了传统公有云数据流的泄漏风险。
IDC认为,PCC可让企业在安全使用云端大模型能力的同时保护自身数据隐私,加速 AI 从试点探索走向规模化落地,并推动数据治理从静态合规评估转向动态隐私保护,实现大模型全生命周期安全管控。同时,PCC能够拓展 AI 应用场景、提升用户信任,助力企业以轻资产模式快速部署合规的云AI 服务。
趋势六:Deepfake防护需求快速增长
生成式AI正在让身份欺诈变得更加复杂。攻击者可以利用AI生成:深度伪造视频、合成身份以及自动化攻击脚本,这些攻击可能导致账户接管、财务损失和声誉风险。
为应对这一挑战,基于 AI 的生物识别和活体检测的多层身份验证技术正在成为关键防护手段,其主要功能包括:
●AI生物识别
●活体检测
●分层身份认证
这些技术可以通过SDK或API集成到业务系统中,在提升安全性的同时保持用户体验。
IDC认为,多层身份验证技术可以帮助企业获得针对高级身份欺诈的认证保护,降低财务与声誉风险,满足全球合规标准,同时以快速无密码验证的方式提升用户体验与转化率,通过自动化降低运营成本,构建安全、合规且无摩擦的身份生态系统,为企业抵御不断演变的威胁提供未来保障。
趋势七:智能防偷拍技术解决了传统数据防泄漏技术在应对手机偷拍场景下的防护不足问题
传统DLP系统在防止文件外泄方面效果明显,但在手机偷拍场景中存在明显不足。例如2025年台积电数据泄露事件中,攻击者通过手机拍摄终端屏幕获取核心技术信息,并将相关信息外泄给竞争对手,造成了巨大损失。
智能防偷拍技术结合端侧AI能力和业务场景化设计,能够识别并阻断各类偷拍风险,通过终端侧AI模型,这类技术在不依赖特定手机型号的背景下可以:
●识别偷拍摄像头
●检测偷拍行为
●实时报警和阻断
IDC认为,随着AI技术的发展以及手机算力性能的不断提升,智能防偷拍技术将不断演进,在准确性、性能上不断提升,并进一步得到广泛应用。
(刘立庆 文:IDC中国市场部)