在人工智能技术飞速发展的今天,网络安全领域充斥着关于AI生成恶意软件的种种预测和警告。然而,谷歌最新的一项研究却为我们呈现了一个截然不同的现实:五种AI生成的恶意软件样本在实际应用中表现不佳,容易被检测且缺乏创新性。
研究发现:AI恶意软件表现平平
谷歌周三公布的五份最新恶意软件样本均由生成式AI构建,但每份样本的表现都与专业恶意软件开发相去甚远。这一发现表明,恶意软件的"氛围编程"(vibe coding)仍落后于传统开发方式,在构成真实世界威胁方面还有很长的路要走。
以PromptLock为例,这一样本源自一项学术研究,旨在分析大型语言模型如何"自主规划、适应和执行勒索软件攻击生命周期"。然而,研究人员报告称该恶意软件存在明显缺陷:它缺少持久性、横向移动和高级规避战术,仅作为AI应用于此类目的可行性的演示。在论文发布前,安全公司ESET发现了这一样本,并称其为"首个AI驱动的勒索软件"。
五大AI恶意软件样本分析
除了PromptLock,谷歌还分析了另外四个样本:FruitShell、PromptFlux、PromptSteal和QuietVault。研究发现:
- 易于检测:所有样本即使是依赖静态签名的低级终端保护也能轻松检测到
- 方法陈旧:采用了之前已见的恶意软件方法,容易被反制
- 无实际影响:不需要防御者采用新的防御措施
独立研究员Kevin Beaumont对此评论道:"这表明在生成式AI热潮三年多后,威胁开发进展缓慢。如果你为这些恶意软件开发者付费,你会愤怒地要求退款,因为这并未显示出可信的威胁或向可信威胁发展的趋势。"
专家观点:AI只是辅助工具
另一位匿名恶意软件专家同意谷歌的报告并未表明生成式AI让恶意软件开发者比依赖传统开发实践的人更有优势。
"AI并没有制造出比平时更可怕的恶意软件,"该研究员说,"它只是帮助恶意软件开发者完成工作。没有创新。AI肯定会变得更好。但何时变好,以及提高多少,谁也说不准。"
对AI公司炒作的反击
这些评估为AI公司过度宣传的论调提供了强有力的反驳。许多寻求新一轮风险投资的AI公司声称,AI生成的恶意软件普遍存在,是构成对传统防御构成当前威胁的新范式。
一个典型例子是Anthropic,该公司最近报告称发现了一个威胁行为者使用其Claude LLM"开发、营销和分发多个勒索软件变体,每个变体都具有高级规避功能、加密和反恢复机制"。该公司还表示:"没有Claude的帮助,他们无法实现或故障排除核心恶意软件组件,如加密算法、反分析技术或Windows内部操作。"
初创公司ConnectWise最近表示,生成式AI"降低了威胁行为者入门的门槛"。该帖子引用了OpenAI的一份独立报告,发现20个不同的威胁行为者使用其ChatGPT AI引擎开发恶意软件,任务包括识别漏洞、开发漏洞利用代码和调试该代码。BugCrowd则表示,在对自选个人的调查中,"74%的黑客同意AI使黑客更容易入门,为新人打开了大门"。
研究限制与过度宣传
值得注意的是,这些报告的作者有时也指出了本文提到的相同限制。谷歌周三的报告称,在其分析用于开发管理命令控制渠道和混淆操作的AI工具时,"我们没有看到成功自动化或任何突破性能力的证据"。OpenAI也表示了类似观点。尽管如此,这些免责声明很少被突出强调,在将AI辅助恶意软件描绘成构成近期威胁的热潮中,往往被淡化处理。
AI安全防护机制的突破
谷歌的报告还提供了另一个有用的发现。一个利用公司Gemini AI模型的威胁行为者通过冒充参加夺旗比赛的白帽黑客进行研究,成功绕过了其护栏。这些竞争性活动旨在向参与者和观众教授和展示有效的网络攻击策略。
所有主流LLM都内置了护栏,以防止它们被恶意使用,如网络攻击和自残行为。谷歌表示,此后它已经更好地调整了反制措施,以抵抗此类策略。
结论:当前威胁仍来自传统方法
迄今为止出现的AI生成恶意软件表明,它们大多仍处于实验阶段,结果并不令人印象深刻。值得持续关注这些事件的发展,看看AI工具是否能产生以前未知的新能力。但目前,最大的威胁仍然主要依赖于老式的战术。
这一研究为网络安全领域提供了重要视角:虽然AI技术在恶意软件开发领域有所应用,但目前仍处于初级阶段,远未达到行业炒作的水平。安全专业人士和决策者应当基于实际证据而非夸大宣传来评估AI对网络安全的真实影响。









