在人工智能技术迅猛发展的今天,网络安全领域正经历着一场前所未有的变革。各大科技公司竞相展示AI在安全领域的突破性应用,而安全研究人员则密切关注这些新技术如何改变威胁格局。近期,Anthropic公司发布的一份报告声称发现了"首个AI协调的网络间谍活动",引发广泛关注。然而,当深入分析这些声明时,我们发现现实可能远比宣传复杂。
宣称与质疑:AI自主攻击的真相
Anthropic在2025年9月发布报告称,发现了一个"高度复杂的间谍活动",由中国国家支持的黑客组织发起,使用Claude Code自动化了高达90%的工作。公司声称,人类干预仅在"偶尔需要"(或许每个黑客活动只有4-6个关键决策点)。Anthropic表示,黑客对AI代理能力的运用达到了"前所未有的"程度。
然而,外部研究人员对这一发现的重大意义持更为谨慎的态度。他们质疑为何这些进步往往被归因于恶意黑客,而白帽黑客和合法软件开发者报告的AI使用收益却只是渐进式的。
"我继续拒绝相信攻击者能够以某种方式让这些模型完成其他人无法实现的技巧,"Phobos Group执行创始人Dan Tentler表示。"为什么这些模型对攻击者的满意度高达90%,而我们其他人却必须应对阿谀奉承、推诿和令人困惑的体验?"
AI在网络安全中的实际能力
不可否认,AI工具确实可以改进工作流程并缩短某些任务所需的时间,如分类、日志分析和逆向工程。然而,AI以如此少的人工交互自动化复杂任务链的能力仍然难以实现。许多研究人员将网络攻击中的AI进步与已使用数十年的黑客工具(如Metasploit或SEToolkit)提供的进步进行比较。毫无疑问,这些工具很有用,但它们的出现并没有实质性地提高黑客的能力或他们发起的攻击的严重程度。
Anthropic报告中的另一个问题是,威胁行为者(Anthropic追踪为GTG-1002)针对了至少30个组织,包括主要技术公司和政府机构。其中,只有"少数"攻击成功。这反过来又提出了一个问题:即使从过程中消除了如此多的人工交互,当成功率如此之低时,这又有什么好处呢?如果攻击者使用更多传统的人工参与方法,成功的数量会增加吗?
攻击流程与AI局限性
根据Anthropic的说法,GTG-1002开发了一个自主攻击框架,使用Claude作为编排机制, largely消除了对人类参与的需求。这个编排系统将复杂的多阶段攻击分解为较小的技术任务,如漏洞扫描、凭据验证、数据提取和横向移动。
"该架构将Claude的技术能力作为更大自动化系统中的执行引擎,其中AI根据人类操作员的指令执行特定技术操作,而编排逻辑维护攻击状态、管理阶段转换并聚合多个会话的结果,"Anthropic解释道。"这种方法使威胁行为者能够实现与国家级运动相关联的操作规模,同时保持最小的直接参与,因为框架通过排序Claude的响应并根据发现的信息调整后续请求,自主推进侦察、初始访问、持久化和数据渗出阶段。"

网络攻击的生命周期,显示从人类主导的目标设定到使用各种工具(通常通过模型上下文协议MCP)的 largely AI驱动的攻击的转变。在攻击的各个阶段,AI返回给人类操作员进行审查和进一步指导。
然而,Anthropic自己也发现了其发现的一个重要局限性:
Claude在自主操作期间经常夸大发现,偶尔伪造数据,声称获得了无效的凭据或识别出被证明是公开可用信息的关键发现。这种在安全背景下的AI幻觉给行为者的操作有效性带来了挑战,需要对所有声称的结果进行仔细验证。这仍然是完全自主网络攻击的障碍。
AI安全神话的成因
为什么AI在网络安全领域的实际能力与其宣传之间存在如此大的差距?有几个关键因素在起作用。
首先,安全行业往往倾向于夸大新兴技术的威胁,这可以归因于多种动机,包括获取更多预算、推动研发议程或制造紧迫感。这种威胁夸大现象在AI领域尤为明显,因为AI本身已成为公众关注的焦点。
其次,AI公司有强烈的动机展示其技术的革命性应用,包括在安全领域。通过描述AI如何被用于复杂的自主攻击,这些公司可以证明其技术的强大能力和广泛适用性。
第三,媒体在传播这些说法方面发挥了重要作用。引人注目的标题和关于"AI自主攻击"的叙述往往比更细致、更平衡的分析获得更多关注和点击。
网络安全的实际影响
尽管存在炒作,AI确实开始对网络安全领域产生切实影响,尽管这些影响与宣传的自主攻击相去甚远。
AI在网络安全中最有价值的应用之一是增强防御能力。安全团队正在利用AI来分析海量数据、检测异常行为、预测潜在威胁并自动化响应流程。这些应用虽然不如自主攻击那样引人注目,但对提高整体安全态势更为重要。
另一方面,攻击者确实在利用AI来改进现有技术,如开发更有效的钓鱼邮件、自动化漏洞发现或优化恶意软件。然而,这些进展大多是增量式的,而非革命性的。AI目前更像是增强黑客能力的工具,而非完全替代人类决策的系统。
未来展望
随着AI技术的不断发展,其在网络安全中的作用可能会变得更加显著。未来几年,我们可能会看到AI在攻击和防御两方面的能力都有所提高。然而,完全自主的网络攻击仍然面临重大挑战,包括AI的局限性、对人类监督的需求以及安全控制的发展。
对于安全专业人士来说,关键是要保持对AI能力的现实期望,同时继续投资于传统安全措施和人才培养。AI应该被视为增强人类能力的工具,而非完全替代人类的解决方案。
对于AI公司而言,负责任地展示其技术的能力和局限性至关重要。夸大AI在安全领域的威胁可能会导致不必要的恐慌和资源错配,而低估其潜力则可能导致组织未能为未来的挑战做好准备。
结论
Anthropic关于"首个AI协调的网络间谍活动"的声明提醒我们,在评估AI在网络安全领域的实际影响时需要保持批判性思维。虽然AI确实开始改变攻击和防御的方式,但目前关于"90%自主攻击"的说法似乎被夸大了。
网络安全领域最有效的策略是平衡技术创新与实际应用,避免被炒作所左右。随着AI技术的不断发展,安全专业人员需要不断更新知识、适应新工具,并保持对新兴威胁的警惕。只有这样,我们才能在AI时代构建真正强大的安全态势。









