在网络安全领域,人工智能已从理论走向实践,成为防御者不可或缺的工具。随着研究和经验证明前沿AI作为网络攻击工具的有效性,我们投入资源提升Claude在帮助防御者检测、分析和修复代码及部署系统中漏洞的能力。这项工作使Claude Sonnet 4.5在发现代码漏洞和其他网络安全技能方面能够匹敌甚至超越我们仅两个月前发布的前沿模型Opus 4.1。采用和实验AI将是防御者保持领先的关键。
AI网络安全的转折点
我们相信,AI对网络安全的影响正处于一个重要转折点。过去几年,我们的团队一直在跟踪AI模型与网络安全相关的能力。最初,我们发现模型对于高级且有意义的能力并不特别强大。然而,在过去一年左右,我们注意到一种转变:
- 我们展示了模型能够在模拟中重现历史上代价最高的网络攻击之一——2017年Equifax数据泄露事件。
- 我们让Claude参加网络安全竞赛,在某些情况下,它的表现超过了人类团队。
- Claude帮助我们发现了自己代码中的漏洞并在发布前修复了它们。
在夏季DARPA的AI网络挑战赛中,团队使用大型语言模型(包括Claude)构建了"网络推理系统",检查数百万行代码以发现并修复漏洞。除了插入的漏洞外,团队还发现了(有时修复了)先前未发现的、非合成的漏洞。在竞赛之外,其他前沿实验室现在也应用模型来发现和报告新的漏洞。
与此同时,作为我们保障工作的一部分,我们发现并破坏了我们自己平台上利用AI扩大其运营的威胁行为者。我们的保障团队最近发现并破坏了一起"氛围黑客"事件,网络犯罪分子使用Claude构建了一个大规模的数据勒索计划,这以前需要一个完整的团队才能完成。保障团队还检测并阻止了Claude在日益复杂的间谍行动中的使用,包括针对关键电信基础设施的行动,该行为表现出与中国APT行动一致的特征。
所有这些证据线都让我们认为,我们正处于网络安全生态系统的一个重要转折点,从现在开始的进展可能会非常迅速,或者使用可能会快速增长。
因此,现在是加速AI防御应用以保护代码和基础设施的重要时刻。我们不应该将AI带来的网络优势拱手让给攻击者和犯罪分子。虽然我们将继续投资于检测和破坏恶意攻击者,但我们认为最可扩展的解决方案是构建AI系统,赋能那些保护我们数字环境的人——如保护企业和政府的安全团队、网络安全研究人员以及关键开源软件的维护者。
在发布Claude Sonnet 4.5之前,我们已经开始这样做了。
Claude Sonnet 4.5:强调网络安全技能
随着大型语言模型规模的扩大,"涌现能力"——在较小模型中不明显且不一定是模型训练明确目标的能力——开始出现。事实上,Claude在执行网络安全任务(如捕获旗帜挑战中寻找和利用软件漏洞)方面的能力一直是开发通用有用AI助手的产品。
但我们不想仅仅依靠通用模型的进步来更好地装备防御者。由于AI和网络安全发展这一时刻的紧迫性,我们专门投入研究人员使Claude在代码漏洞发现和修复等关键技能上更加出色。
这项工作的成果反映在Claude Sonnet 4.5中。它在许多网络安全方面与Claude Opus 4.1相当或更优,同时成本更低、速度更快。
评估证据
在构建Sonnet 4.5时,我们有一个小型研究团队专注于增强Claude在代码库中查找漏洞、修复漏洞以及在模拟部署的安全基础设施中测试弱点方面的能力。我们选择这些是因为它们反映了防御者的重要任务。我们刻意避免那些明显有利于进攻工作的增强——如高级利用或编写恶意软件。我们希望模型能够在部署前发现不安全的代码,并找到并修复已部署代码中的漏洞。当然,我们没有关注许多其他关键的安全任务;在本文的最后,我们将详细说明未来的方向。
为了测试我们研究的效果,我们对模型进行了行业标准评估。这些评估能够清晰比较不同模型,衡量AI进步的速度,特别是在新颖的、外部开发的评估的情况下,提供了一个良好的指标,确保我们不仅仅是在针对自己的测试进行教学。
在进行这些评估时,一个突出的重要性是多次运行它们。即使对于大量评估任务来说计算成本很高,但它能更好地捕捉到在任何特定实际问题上动机充分的攻击者或防御者的行为。这样做不仅揭示了Claude Sonnet 4.5的出色表现,也展示了几代以前模型的出色表现。
Cybench评估
我们跟踪了一年多的评估之一是Cybench,这是一个源自CTF竞赛挑战的基准测试。在这个评估中,我们看到Claude Sonnet 4.5取得了显著的进步,不仅超过了Claude Sonnet 4,甚至超过了Claude Opus 4和4.1模型。也许最引人注目的是,当Sonnet 4.5每个任务尝试一次时,它比Opus 4.1每个任务尝试十次时的成功率更高。作为此评估一部分的挑战反映了相当复杂、长时间的工作流程。例如,一个挑战涉及分析网络流量,从该流量中提取恶意软件,然后反编译和解密该恶意软件。我们估计,这至少需要熟练的人类一小时,甚至可能更长;Claude花了38分钟解决了它。
当我们给Claude Sonnet 4.5 10次尝试Cybench评估时,它在76.5%的挑战中成功。这特别值得注意,因为在过去六个月内,我们将这个成功率翻了一番(2025年2月发布的Sonnet 3.7在10次试验时只有35.9%的成功率)。
Cybench上的模型性能。Claude Sonnet 4.5在k=1、10或30次试验中明显优于所有以前的模型,其中成功概率被测量为在k次试验中至少有一次成功的问题的比例的期望值。注意,这些结果是在原始40个Cybench问题中的37个子集上进行的,由于实施困难,排除了3个问题。
CyberGym评估
在另一个外部评估中,我们在CyberGym上评估了Claude Sonnet 4.5,这是一个评估代理能力的基准测试,要求:(1)在给定弱点的高层次描述的情况下,在真实开源软件项目中找到(先前已发现的)漏洞,(2)发现新的(先前未发现的)漏洞。CyberGym团队之前发现Claude Sonnet 4是他们在公共排行榜上最强的模型。
Claude Sonnet 4.5的得分明显优于Claude Sonnet 4或Claude Opus 4。当使用与公共CyberGym排行榜相同的成本限制(即每个漏洞限制2美元的LLM API查询)时,我们发现Sonnet 4.5达到了28.9%的新最先进分数。但真正的攻击者很少受到这种限制:他们可以进行许多尝试,每次尝试远不止2美元。当我们移除这些限制,并给每个任务30次尝试时,我们发现Sonnet 4.5在66.7%的程序中重现了漏洞。虽然这种方法相对成本较高,但绝对成本——尝试一个任务30次约45美元——仍然相当低。
CyberGym上的模型性能。Sonnet 4.5优于所有以前的模型,包括Opus 4.1。*注意,Opus 4.1由于其较高价格,在1次试验场景中没有遵循与其他模型相同的2美元成本限制。
同样有趣的是Claude Sonnet 4.5发现新漏洞的速度。虽然CyberGym排行榜显示Claude Sonnet 4只在约2%的目标中发现漏洞,但Sonnet 4.5在5%的情况下发现了新漏洞。通过重复试验30次,它在超过33%的项目中发现了新漏洞。
CyberGym上的模型性能。Sonnet 4.5在一次试验中发现新漏洞的能力优于Sonnet 4,并且在给予30次试验时大幅超越其性能。
补丁修复的进一步研究
我们还在进行初步研究,探索Claude生成和审查修复漏洞补丁的能力。修复漏洞比发现它们更难,因为模型必须进行外科手术式的更改,移除漏洞而不改变原始功能。在没有指导或规范的情况下,模型必须从代码库中推断出预期的功能。
在我们的实验中,我们让Claude Sonnet 4.5基于漏洞描述和程序崩溃时正在做什么的信息,修复CyberGym评估集中的漏洞。我们使用Claude来评判自己的工作,要求它通过将提交的补丁与人类编写的参考补丁进行比较来对这些补丁进行评分。15%的Claude生成的补丁被判定为与人类生成的补丁语义等效。然而,这种基于比较的方法有一个重要限制:因为漏洞通常可以通过多种有效方式修复,与参考补丁不同的补丁仍然可能是正确的,导致我们的评估中出现假阴性。
我们手动分析了最高分补丁的样本,发现它们与已合并到CyberGym评估所基于的开源软件中的参考补丁功能相同。这项工作揭示了一个与我们更广泛发现一致的模式:Claude在一般改进的同时发展网络安全相关技能。我们的初步结果表明,补丁生成——就像之前的漏洞发现一样——是一种可以通过专注研究增强的涌现能力。我们的下一步是系统解决我们已确定的挑战,使Claude成为可靠的补丁作者和审查者。
与可信伙伴合作
现实世界的防御性安全在实践中比我们的评估所能捕捉的要复杂得多。我们一直发现,实际问题更复杂,挑战更困难,实现细节非常重要。因此,我们认为与实际使用AI进行防御的组织合作,获取关于我们的研究如何加速他们工作的反馈非常重要。在Sonnet 4.5发布前,我们与多个组织合作,他们将模型应用于他们在漏洞修复、测试网络安全和威胁分析等领域的实际挑战。
Hackerone首席产品官Nidhi Aggarwal说:"Claude Sonnet 4.5将我们的Hai安全代理的平均漏洞接收时间减少了44%,同时提高了25%的准确性,帮助我们自信地降低企业的风险。"根据CrowdStrike数据科学高级副总裁兼首席科学家Sven Krasser的说法:"Claude在红队方面显示出强大的潜力——生成创造性的攻击场景,加速我们研究攻击者战术的方式。这些见解加强了我们在端点、身份、云、数据、SaaS和AI工作负载方面的防御。"
这些证言让我们对Claude的防御应用工作更有信心。
未来展望
Claude Sonnet 4.5代表了一个有意义的改进,但我们知道它的许多能力仍处于初级阶段,尚未匹配安全专业人员既定流程的能力。我们将继续努力改进我们模型与防御相关的能力,增强保护我们平台的威胁情报和缓解措施。事实上,我们已经开始使用调查和评估的结果来不断完善我们检测模型有害网络行为滥用的能力。这包括使用组织级别的总结技术来理解超越单一提示和完成的大局;这有助于将双重用途行为与恶意行为区分开来,特别是对于涉及大规模自动化活动的最具破坏性的用例。
但我们相信,现在是尽可能多的组织开始实验如何利用AI改善其安全态势并构建评估以衡量这些收益的时候。Claude Code中的自动化安全审查展示了AI如何集成到CI/CD管道中。我们特别希望研究人员和团队能够实验应用模型于安全运营中心(SOC)自动化、安全信息和事件管理(SIEM)分析、安全网络工程或主动防御等领域。我们希望看到并使用更多针对防御能力的评估,作为模型评估不断增长的第三方生态系统的一部分。
但即使构建和采用以防御者优势为目标的模型只是解决方案的一部分。我们还需要关于如何使数字基础设施更具韧性以及如何通过设计使新软件更安全的对话——包括前沿AI模型的帮助。我们期待与行业、政府和社会各界进行这些讨论,因为我们正处在AI对网络安全的影响从未来关切转变为当今关键的时刻。












