在网络安全领域,人工智能(AI)被广泛宣传为下一代威胁的催化剂。然而,Google最新发布的分析报告揭示了一个令人意外的现实:五种AI开发的恶意软件样本不仅性能低下,且极易被检测,远未达到专业恶意软件水平。
研究发现:AI恶意软件表现不佳
Google在11月6日公布的研究中详细分析了五种最近出现的AI生成恶意软件样本:PromptLock、FruitShell、PromptFlux、PromptSteal和QuietVault。研究结果表明,这些恶意软件在多个关键方面表现不佳,远未达到传统恶意软件的水平。
以PromptLock为例,这项研究源于一个学术项目,旨在评估大型语言模型(LLM)"自主规划、适应和执行勒索软件攻击生命周期"的有效性。然而,研究人员报告称,该恶意软件存在"明显的局限性:它缺少持久性、横向移动和高级规避技术",充其量只是展示了AI在此类应用中的可行性。
在论文发表前,安全公司ESET发现了该样本并宣称其为"首个AI驱动的勒索软件"。然而,Google的分析表明,这一称号名不副实。
检测难度低,缺乏创新性
Google的研究团队发现,这五种AI生成的恶意软件样本即使是依靠静态签名的低端终端防护系统也能轻松检测。所有样本都采用了已在其他恶意软件样本中出现过的方法,使得防御措施能够有效应对。
更关键的是,这些样本没有产生实际运营影响,意味着防御者无需采用新的防御策略。
"这向我们表明,在生成式AI热潮持续三年多之后,威胁开发进展缓慢,"独立研究员Kevin Beaumont向Ars Technica表示。"如果你为这些恶意软件开发者付费,你会激烈要求退款,因为这并未展示出可信的威胁或向可信威胁发展的趋势。"
另一位不愿透露姓名的恶意软件专家也同意Google的报告并未表明生成式AI为恶意软件开发者提供了比传统开发实践更大的优势。
"AI并没有制造出比正常恶意软件更可怕的东西,"该专家说。"它只是帮助恶意软件开发者完成他们的工作。没有什么新颖之处。AI肯定会变得更好。但何时以及提高多少程度,无人能知。"
对抗夸大的AI威胁叙事
Google的评估结果为AI公司宣扬的夸大叙事提供了强有力的反驳。许多寻求新一轮风险投资的公司声称,AI生成的恶意软件已经广泛存在,并构成了对传统防御的新范式威胁。
Anthropic公司最近报告称发现了一个威胁行为者,使用其Claude LLM"开发、营销和分发几种勒索软件变体,每种都具有高级规避功能、加密和反恢复机制"。该公司还表示:"没有Claude的帮助,他们无法实现或故障排除核心恶意软件组件,如加密算法、反分析技术或Windows内部操作。"
初创公司ConnectWise最近也表示,生成式AI正在"降低威胁行为者进入行业的门槛"。该帖子引用了OpenAI的一份单独报告,该报告发现20个不同的威胁行为者使用其ChatGPT AI引擎开发恶意软件,用于识别漏洞、开发漏洞利用代码和调试该代码。
BugCrowd则表示,在一项对自行选择参与者的调查中,"74%的黑客同意AI使黑客更容易接触,为新加入者打开了大门"。
研究局限性与真实威胁
值得注意的是,在某些情况下,这些报告的作者确实指出了与本文相同的局限性。Google周三的报告称,在其分析用于开发管理和控制通道代码以及混淆操作的AI工具时,"我们没有看到成功自动化或任何突破性能力的证据"。OpenAI也表示了类似的看法。
尽管如此,这些免责声明很少被突出强调,而且在渲染AI辅助恶意软件构成近期威胁的狂热中经常被淡化。
Google的报告还提供了另一个有用的发现。一个利用公司Gemini AI模型的威胁行为者能够通过伪装成参加夺旗游戏研究的白帽黑客来绕过其护栏。这些竞争性活动旨在向参与者和旁观者教授和展示有效的网络攻击策略。
所有主流LLM都内置了此类护栏,以防止它们被恶意使用,例如在网络攻击和自残行为中。Google表示,它已经更好地调整了反制措施以抵抗此类策略。
当前网络安全态势
迄今为止出现的AI生成恶意软件表明,它们大多仍处于实验阶段,结果并不令人印象深刻。值得监控这些事件的发展,特别是当AI工具展现出以前未知的新能力时。然而,目前最大的威胁仍然主要依靠老式的战术。
网络安全专家普遍认为,尽管AI在恶意软件开发中的应用确实存在,但其当前影响被严重夸大。传统威胁行为者仍然依靠成熟的、经过验证的技术,而AI生成的恶意软件样本则显示出明显的局限性,包括缺乏持久性、横向移动能力和高级规避技术。
随着AI技术的不断发展,网络安全领域必须保持警惕,但同时也需要基于事实而非炒作来评估威胁。Google的研究提供了一个重要的平衡视角,提醒我们不要被过度炒作所迷惑,而是要关注实际存在的威胁和防御策略。
未来展望
虽然当前的AI生成恶意软件表现不佳,但这并不意味着未来不会出现更先进的AI驱动的威胁。随着AI技术的进步,威胁行为者可能会利用这些工具开发更复杂、更难检测的恶意软件。
然而,防御技术也在不断进步。安全研究人员已经开始开发专门针对AI生成内容的检测方法,包括识别AI生成代码的独特特征和行为模式。
企业和个人用户应该保持警惕,及时更新安全软件,遵循最佳安全实践,同时不要对AI威胁反应过度。网络安全是一个持续发展的领域,需要平衡的风险评估和防御策略。
结论
Google对五种AI生成恶意软件样本的分析揭示了当前AI在恶意软件开发中的局限性。这些样本不仅性能低下,而且极易被检测,远未达到专业恶意软件的水平。这一发现与多家科技公司夸大的AI威胁叙事形成鲜明对比,为当前网络安全态势提供了更为客观的评估。
虽然AI在恶意软件开发中的应用确实存在,但其当前影响被严重夸大。传统威胁行为者仍然依靠成熟的、经过验证的技术,而AI生成的恶意软件样本则显示出明显的局限性。网络安全领域需要基于事实而非炒作来评估威胁,并相应地调整防御策略。
随着AI技术的不断发展,网络安全领域必须保持警惕,但同时也需要理性评估AI威胁的实际影响。只有通过客观研究和事实分析,我们才能有效应对不断演变的网络威胁环境。











