在人工智能技术飞速发展的今天,关于AI生成恶意软件的警告不绝于耳。然而,谷歌最新的一项研究却给我们带来了不同的视角——目前AI开发的恶意软件不仅表现不佳,甚至很容易被现有的安全系统检测到。这一发现与市场上过度炒作的AI威胁论形成鲜明对比,为我们重新评估AI在网络安全领域的实际影响提供了重要参考。
五款AI恶意软件表现欠佳
谷歌近期分析了五款近期出现的AI生成恶意软件样本,发现它们的表现远低于专业恶意软件开发的标准。这些样本包括PromptLock、FruitShell、PromptFlux、PromptSteal和QuietVault,它们都显示出明显的局限性,无法构成真正的威胁。
以PromptLock为例,这款恶意软件曾被视为"首个AI驱动的勒索软件",由安全公司ESET率先发现。然而,根据相关学术研究,该软件存在"明显的局限性:它缺少持久性、横向移动和高级规避技术",仅仅是一个展示AI在恶意软件开发中可行性的演示。研究人员在论文发布前就发现了这些缺陷,说明这款所谓的"AI勒索软件"实际上并不具备实际威胁能力。
检测难度低,缺乏创新性
谷歌的研究发现,这五款AI生成的恶意软件都非常容易被检测,即使是依赖静态签名的低级终端防护系统也能轻松识别。这些样本都采用了已被见过的恶意软件方法,使得防御方能够轻松应对。更重要的是,这些恶意软件没有实际运营影响,不需要防御方采取新的防御措施。
独立研究员凯文·博蒙特(Kevin Beaumont)对此评论道:"这表明在生成式AI热潮持续三年多之后,威胁开发进展缓慢。如果你为这些恶意软件付费,你会愤怒地要求退款,因为这并不显示出可信的威胁或向可信威胁发展的趋势。"
另一位不愿透露姓名的恶意软件专家也同意这一观点,认为谷歌的报告并未表明生成式AI为恶意软件开发者提供了比传统开发方法更多的优势。专家表示:"AI并没有制造出比平时更可怕的恶意软件,它只是在帮助恶意软件开发者完成工作。没有什么创新之处。AI肯定会变得更好,但何时以及能提高多少,谁也说不准。"
对抗AI威胁论的过度炒作
这些评估为AI公司宣扬的夸大叙事提供了强有力的反驳。许多AI公司寻求新一轮风险投资,声称AI生成的恶意软件已经广泛存在,并构成对传统防御的新范式威胁。
例如,Anthropic公司最近报告称发现一个威胁行为者使用其Claude LLM来"开发、营销和分发多种勒索软件变体,每种都具有高级规避功能、加密和反恢复机制"。该公司还声称:"没有Claude的帮助,他们无法实现或故障排除核心恶意软件组件,如加密算法、反分析技术或Windows内部操作。"
初创公司ConnectWise最近也表示,生成式AI正在"降低威胁行为者进入游戏的门槛"。该文章引用了OpenAI的一份单独报告,该报告发现20个不同的威胁行为者使用其ChatGPT AI引擎开发恶意软件,用于识别漏洞、开发漏洞利用代码和调试代码。与此同时,BugCrowd表示,在一项针对自我选择个体的调查中,"74%的黑客同意AI使黑客更容易访问,为新来者打开了大门。"
然而,这些报告的作者有时也指出了与本文相同的局限性。谷歌周三的报告指出,在其分析用于开发管理命令控制通道和模糊操作的代码的AI工具时,"我们没有看到成功自动化或任何突破性能力的证据"。OpenAI也表达了类似的看法。尽管如此,这些免责声明很少被突出强调,在描绘AI辅助恶意软件构成近期威胁的狂热中往往被淡化。
AI安全防护的进步
谷歌的报告还提供了另一个有用的发现。一个利用公司Gemini AI模型的威胁行为者能够通过伪装成参与夺旗游戏研究的白帽黑客来绕过其护栏。这些竞争性活动旨在向参与者和观察者教授和展示有效的网络攻击策略。
所有主流LLM都内置了护栏,以防止它们被恶意使用,例如在网络攻击和自残行为中。谷歌表示,它已经更好地调整了反制措施,以抵抗此类策略。
结论:AI恶意软件仍处于实验阶段
迄今为止出现的AI生成恶意软件表明,它们大多仍处于实验阶段,结果并不令人印象深刻。值得持续关注这些事件的发展,特别是当AI工具产生以前未知的新能力时。然而,目前最大的威胁仍然主要依赖于传统的老式战术。
网络安全专家普遍认为,尽管AI技术在不断发展,但在恶意软件开发领域的应用仍处于初级阶段。当前的AI生成恶意软件缺乏创新性和有效性,对现有防御系统构不成实质性挑战。随着安全技术的不断进步,AI在网络安全领域的角色可能会更加复杂,需要我们保持警惕但不被过度炒作所误导。
未来,随着AI技术的进步,我们可能会看到更先进的AI生成恶意软件出现。然而,与此同时,安全防护技术也在不断发展,双方之间的博弈将持续进行。对于企业和个人而言,保持基本的安全防护措施,及时更新安全补丁,仍然是防范网络威胁的最佳策略。











