AI生成恶意软件: hype与现实威胁的巨大鸿沟

1

在网络安全领域,人工智能(AI)生成恶意软件一直被视为潜在的重大威胁。然而,谷歌最新研究提供的实证数据却揭示了截然不同的现实:当前AI开发的恶意软件不仅功能不完善,还极易被检测,远未达到对网络安全构成实质性威胁的水平。

研究发现:AI恶意软件的局限性

谷歌研究人员对五个近期出现的AI生成恶意软件样本进行了深入分析,这些样本包括PromptLock、FruitShell、PromptFlux、PromptSteal和QuietVault。研究结果令人意外:所有这些AI生成的恶意软件都存在明显缺陷,检测率极高,且缺乏创新性。

PromptLock:学术研究中的失败案例

以PromptLock为例,这个样本曾在一项学术研究中被分析,研究主题是大型语言模型如何"自主规划、适应和执行勒索软件攻击生命周期"。然而,研究人员报告称,该恶意软件存在"明显的局限性:它缺少持久性、横向移动和高级规避技术",仅仅作为证明AI在恶意软件开发中可行性的演示工具。

在论文发布前,安全公司ESET发现了这一样本,并宣称其为"首个AI驱动的勒索软件"。然而,谷歌的分析表明,这一评价过于乐观。事实上,PromptLock不仅功能不完整,还容易被基本的端点保护系统检测到,即使是依赖静态签名的低级防护也能轻松识别。

共同缺陷:易于检测和缺乏创新

谷歌的研究发现,这五个AI生成的恶意软件样本存在共同特点:

  1. 高检测率:所有样本都能被不太复杂的端点保护系统轻松检测到
  2. 技术陈旧:采用了过去已见过的恶意软件方法,容易被反制
  3. 无实际影响:不需要防御者采用新的防御策略
  4. 功能不完整:缺少高级恶意软件应有的关键功能

独立研究员Kevin Beaumont对此评价道:"这向我们表明,在生成式AI热潮持续三年多之后,威胁开发进展缓慢。如果你为这些恶意软件开发者付费,你会愤怒地要求退款,因为这并不显示出可信的威胁或向可信威胁发展的趋势。"

行业专家观点:AI恶意软件被过度炒作

另一位匿名恶意软件专家也认同谷歌报告的结论,认为生成式AI并未给恶意软件开发者带来相对于传统开发实践的优势。

"AI并没有制造出比正常情况更可怕的恶意软件,"该专家表示,"它只是在帮助恶意软件开发者完成工作。没什么新意。AI肯定会变得更好。但何时变得更好,以及好多少,谁也无法预测。"

这些评估为AI公司夸大的宣传提供了强有力的反驳论据。许多AI公司寻求新一轮风险投资资金,声称AI生成的恶意软件已经泛滥,并构成了对传统防御的新范式威胁。

夸大宣传的典型案例

多家AI公司的宣传与谷歌的研究结果形成鲜明对比:

  • Anthropic最近报告称发现了一个使用其Claude LLM"开发、营销和分发具有高级规避功能、加密和反恢复机制的勒索软件多个变种"的威胁行为者。该公司还声称:"没有Claude的帮助,他们无法实现或故障排除核心恶意软件组件,如加密算法、反分析技术或Windows内部操作。"

  • ConnectWise最近表示,生成式AI正在"降低威胁行为者进入门槛"。该公司引用了OpenAI的一份报告,该报告发现20个不同的威胁行为者使用其ChatGPT AI引擎开发恶意软件,用于识别漏洞、开发漏洞利用代码和调试代码。

  • BugCrowd则表示,在对自选个人的调查中,"74%的黑客同意AI使黑客更容易入门,为新加入者打开了大门。"

值得注意的是,这些报告的作者有时也指出了本文中提到的相同局限性。谷歌在分析用于开发管理和控制通道代码以及混淆操作的AI工具时表示:"我们没有看到成功自动化或任何突破性能力的证据。"OpenAI也表达了类似的观点。然而,这些免责声明很少被突出强调,在将AI辅助恶意软件描绘成近在眼前的威胁的过程中,往往被淡化处理。

AI安全边界与规避尝试

谷歌的报告还提供了另一个重要发现:一个利用公司Gemini AI模型的威胁行为者能够通过伪装成参与夺旗游戏研究的白帽黑客来绕过其护栏。

这类竞争性活动旨在向参与者和观众传授和展示有效的网络攻击策略。

所有主流大语言模型都内置了护栏,以防止它们被恶意使用,例如在网络攻击和自残行为中。谷歌表示,它已经更好地调整了反制措施,以抵抗此类策略。

研究结论:AI恶意软件仍处于实验阶段

综合来看,迄今为止出现的AI生成恶意软件表明,它们大多仍处于实验阶段,结果并不令人印象深刻。这些事件值得监测,以显示AI工具产生先前未知的新功能的发展。然而,目前最大的威胁仍然主要依赖于传统的战术。

对网络安全行业的启示

谷歌的研究为网络安全行业提供了重要启示:

  1. 保持理性看待AI威胁:不应被过度炒作所迷惑,应基于实证数据评估AI对网络安全的实际影响
  2. 持续改进传统防御:当前AI生成的恶意软件对现有防御体系构不成挑战,传统安全措施仍然有效
  3. 关注AI安全研究:随着AI技术的发展,需要持续研究如何防止AI被用于恶意目的
  4. 平衡创新与安全:AI技术在带来便利的同时,也可能被滥用,需要在发展与安全之间找到平衡点

未来展望

尽管当前AI生成的恶意软件表现不佳,但这并不意味着未来不会出现更高级的AI辅助恶意软件。随着AI技术的不断发展,恶意软件开发者可能会找到更有效的方法来利用AI技术。

然而,正如专家所指出的,AI的发展轨迹和时间表难以预测。网络安全行业需要保持警惕,同时避免不必要的恐慌。通过持续的研究和合作,行业可以更好地应对AI技术带来的挑战,确保网络安全与AI技术协调发展。

最终,AI与网络安全的关系将是一个持续的博弈过程,需要技术开发者、安全研究人员和政策制定者的共同努力,以确保AI技术被用于造福社会,而非造成危害。