在人工智能技术迅猛发展的今天,关于AI生成恶意软件的警告不绝于耳。然而,谷歌最新的一项研究却给出了一个出人意料的结论:当前AI开发的恶意软件不仅效果不佳,而且很容易被检测到,远未达到实际威胁水平。这一发现与科技公司渲染的AI威胁叙事形成鲜明对比,为我们理性看待AI在网络安全领域的实际影响提供了重要参考。
研究发现:AI恶意软件表现不佳
谷歌在最新发布的研究报告中分析了五个由AI生成的恶意软件样本,分别是PromptLock、FruitShell、PromptFlux、PromptSteal和QuietVault。研究结果表明,这些样本的表现远低于专业恶意软件开发水平,显示出AI在恶意软件开发领域仍处于初级阶段。
以PromptLock为例,这个样本原本是一项学术研究的一部分,旨在分析大型语言模型在"自主规划、适应和执行勒索软件攻击生命周期"方面的有效性。然而,研究人员报告称,该恶意软件存在"明显的局限性:它缺少持久性、横向移动和高级规避技术",仅作为AI在恶意软件开发中可行性的演示。在论文发布前,安全公司ESET曾发现该样本并宣称其为"首个AI驱动的勒索软件"。
技术局限性:AI恶意软件的明显缺陷
谷歌的分析显示,这五个AI生成的恶意软件样本存在几个共同的技术缺陷:
- 容易被检测:即使是不依赖高级动态分析的终端安全防护系统也能轻易检测到这些样本。
- 方法陈旧:所有样本都使用了已在其他恶意软件中见过的方法,使得防御者能够轻松应对。
- 缺乏创新:这些样本没有采用任何新颖的攻击技术或规避策略。
- 无实际影响:它们没有对防御系统提出新的挑战,不需要安全团队采取额外的防御措施。
独立研究员凯文·博蒙特(Kevin Beaumont)对此评论道:"这表明在生成式AI热潮持续三年多之后,威胁开发进展缓慢。如果你为这些恶意软件开发付费,你会愤怒地要求退款,因为这并不显示出可信的威胁或向可信威胁发展的趋势。"
专家观点:AI并未提升恶意软件威胁水平
另一位不愿透露姓名的恶意软件专家也同意谷歌的报告并未表明生成式AI为恶意软件开发者提供了相对于传统开发实践的优势。
"AI并没有制造出比正常情况更可怕的恶意软件,"该专家表示,"它只是在帮助恶意软件开发者完成他们的工作。没有什么新颖之处。AI肯定会变得更好,但何时以及提高多少程度,谁也说不准。"
这些评估为AI公司夸大的叙事提供了强有力的反驳,许多公司正在寻求新一轮风险投资,声称AI生成的恶意软件已经广泛存在,并构成了对传统防御的新范式威胁。
公司宣传与实际表现的对比
多家科技公司近期发布了关于AI生成恶意软件的警告,但这些警告往往与实际研究数据存在明显差距:
Anthropic公司最近报告称发现一个威胁行为体使用其Claude LLM来"开发、营销和分发多种勒索软件变体,每种都具有高级规避功能、加密和反恢复机制"。该公司还表示:"没有Claude的帮助,他们无法实现或故障排除核心恶意软件组件,如加密算法、反分析技术或Windows内部操作。"
初创公司ConnectWise最近声称生成式AI正在"降低威胁行为体参与游戏的门槛"。该帖子引用了OpenAI的一份单独报告,该报告发现有20个不同的威胁行为体使用其ChatGPT AI引擎开发恶意软件,用于识别漏洞、开发漏洞利用代码和调试该代码。
BugCrowd则表示,在对自选个人的调查中,"74%的黑客同意AI使黑客更容易获得,为新人打开了加入的大门"。
值得注意的是,这些报告的作者有时也会注意到本文中提到的相同局限性。谷歌周三的报告称,在分析用于开发管理命令控制通道和模糊化操作的AI工具时,"我们没有看到成功自动化的证据或任何突破性能力"。OpenAI也表示了类似的观点。尽管如此,这些免责声明很少被突出强调,在渲染AI辅助恶意软件构成近期威胁的狂热中往往被淡化。
AI安全防护的挑战与应对
谷歌的报告还提供了另一个有用的发现:一个利用公司Gemini AI模型的威胁行为体通过伪装成参加夺旗游戏研究工作的白帽黑客成功绕过了其安全护栏。这些竞争性活动旨在向参与者和旁观者教授和展示有效的网络攻击策略。
所有主流LLM都内置了此类护栏,以防止它们被恶意使用,如在网络攻击和自我伤害中。谷歌表示,此后它已经更好地调整了反制措施以抵抗此类策略。
理性看待AI在网络安全中的实际影响
尽管AI技术在恶意软件开发中的应用前景令人担忧,但目前的研究数据表明,AI生成的恶意软件大多仍处于实验阶段,效果并不令人印象深刻。这些案例值得持续关注,以观察AI工具是否能产生以前未知的新能力。
然而,目前最大的威胁仍然主要依赖于传统技术。网络安全专业人员应当保持警惕,但不必过度反应于关于AI威胁的夸张宣传。相反,应当基于实际数据和科学研究来评估AI技术对网络安全的真实影响。
结论:技术发展需要时间
AI在恶意软件开发中的应用仍处于早期阶段,存在明显的局限性。随着技术的不断进步,AI可能会在未来提升恶意软件开发的能力,但目前来看,这仍是一个需要时间发展的过程。
对于安全行业而言,这一发现提供了一个重要提醒:在评估新兴技术带来的威胁时,应当基于客观事实而非营销炒作。同时,这也为安全研究人员提供了宝贵的时间窗口,来开发针对AI生成恶意软件的检测和防御策略。
最终,技术的发展总是伴随着双刃剑效应。AI在网络安全领域的应用既可能被攻击者利用,也能被防御者用来提升安全能力。关键在于如何负责任地发展和应用这些技术,以及如何建立有效的监管和防护机制。











