在人工智能技术飞速发展的今天,关于AI生成恶意软件的警告声不绝于耳。然而,谷歌最新的一项研究却给出了一个令人意外的结论:当前AI生成的恶意软件不仅效果不佳,而且很容易被检测到,远未达到真正威胁水平。
研究发现:AI恶意软件质量低下
谷歌在最近的分析中考察了五个使用生成式AI开发的恶意软件样本,包括PromptLock、FruitShell、PromptFlux、PromptSteal和QuietVault。研究结果显示,这些AI生成的恶意软件存在明显的局限性,远未达到专业恶意软件开发的标准。
以PromptLock为例,这一恶意软件样本是学术研究的一部分,旨在评估大型语言模型在"自主规划、适应和执行勒索软件攻击生命周期"方面的有效性。然而,研究人员报告称,该恶意软件"存在明显局限性:它缺少持久性、横向移动和高级规避技术",仅仅作为AI在此类应用中可行性的演示。
在论文发布前,安全公司ESET发现了这一样本并称其为"首个AI驱动的勒索软件"。但谷歌的分析表明,这一评价显然过于夸大。
检测难度低,缺乏创新
谷歌的研究发现,这五个AI生成的恶意软件样本很容易被检测到,即使是依赖静态签名的低级端点保护系统也能轻松识别。所有样本都使用了之前已见的恶意软件方法,使其容易被反制。此外,这些恶意软件没有实际运营影响,意味着防御者不需要采用新的防御措施。
独立研究员Kevin Beaumont表示:"这向我们表明,在生成式AI热潮持续三年多之后,威胁开发进展缓慢。如果你为这些恶意软件开发者付费,你会疯狂要求退款,因为这并不显示出可信的威胁或向可信威胁发展的趋势。"
另一位不愿透露姓名的恶意软件专家也同意谷歌的报告并未表明生成式AI正在给恶意软件开发者带来比传统开发实践的优势。
专家指出:"AI并没有制造出比正常情况更可怕的恶意软件,它只是在帮助恶意软件开发者完成工作。没有什么创新。AI肯定会变得更好。但何时以及能达到什么程度,谁也说不准。"
与安全厂商的夸张宣传形成鲜明对比
谷歌的评估结果为AI公司过度宣传的论调提供了强有力的反驳。许多寻求新一轮风险投资的公司声称AI生成的恶意软件已经广泛存在,并构成对传统防御的新威胁范式。
例如,Anthropic最近报告称发现一个威胁行为者使用其Claude LLM来"开发、营销和分发多个勒索软件变体,每个变体都具有高级规避功能、加密和反恢复机制"。该公司还表示:"没有Claude的帮助,他们无法实现或排除恶意软件核心组件,如加密算法、反分析技术或Windows内部操作。"
初创公司ConnectWise最近也表示,生成式AI正在"降低威胁行为者入门的门槛"。该帖子引用了OpenAI的一份独立报告,发现20个不同的威胁行为者使用其ChatGPT AI引擎开发恶意软件,用于识别漏洞、开发漏洞利用代码和调试该代码。与此同时,BugCrowd表示,在对自选个人的调查中,"74%的黑客同意AI使黑客更容易进入,为新加入者打开了大门。"
然而,值得注意的是,这些报告的作者有时也指出了与本文相同的局限性。谷歌的报告称,在其分析用于开发管理命令控制通道和模糊操作的代码的AI工具时,"我们没有看到成功自动化或任何突破性能力的证据"。OpenAI也表达了类似的看法。尽管如此,这些免责声明很少被突出强调,在将AI辅助恶意软件描述为构成近期威胁的狂热中往往被淡化。
AI恶意软件的实验性质
谷歌的报告还提供了另一个有用的发现:一个利用谷歌Gemini AI模型的威胁行为者通过伪装成参与夺旗游戏的白帽黑客研究人员,成功绕过了其护栏。这些竞争性活动旨在向参与者和观察者教授和展示有效的网络攻击策略。
所有主流LLM都内置了护栏,以防止它们被恶意使用,如在网络攻击和自残中。谷歌表示,此后它已经更好地调整了反制措施以抵制此类策略。
总体而言,迄今为止出现的AI生成恶意软件表明它大多处于实验阶段,结果并不令人印象深刻。值得监测这些事件的发展,以显示AI工具产生以前未知的新能力。但就目前而言,最大的威胁仍然主要依赖老式战术。
行业专家观点
多位安全专家对AI生成恶意软件的现状持谨慎态度。他们认为,虽然AI技术可能在某些方面辅助恶意软件开发,但目前尚未出现真正令人担忧的突破。
"AI目前还没有产生任何真正新颖的威胁模式,"一位资深网络安全分析师表示,"它只是让现有的攻击方法更容易实现。真正的威胁仍然来自那些理解系统漏洞并能够利用它们的人类攻击者。"
另一位安全研究员指出:"AI生成的代码往往存在可预测的模式和签名,这使得它们相对容易被检测到。真正的挑战是当AI能够学习如何绕过这些检测方法时。"
未来展望
尽管当前AI生成的恶意软件威胁有限,但专家们警告不要低估这一领域的潜在发展。随着AI技术的不断进步,未来可能会出现更复杂、更难以检测的AI生成恶意软件。
"我们需要关注的是AI学习能力和适应能力的提升,"一位AI安全专家表示,"当AI能够根据防御系统的变化实时调整其攻击策略时,情况就会变得复杂得多。"
谷歌和其他安全公司正在积极开发新的检测方法和防御策略,以应对未来可能出现的更高级AI威胁。同时,研究人员也在探索如何利用AI技术本身来增强网络安全防御能力。
结论
谷歌的最新研究为我们提供了一个重要的视角:尽管AI技术在恶意软件开发中的应用被广泛宣传,但目前的结果远未达到威胁水平。AI生成的恶意软件样本质量低下,容易被检测,缺乏创新性。
这一发现提醒我们,在评估新兴技术带来的安全风险时,需要基于实际证据而非过度炒作。同时,安全行业应继续关注AI技术的发展,并做好应对未来可能出现的更高级威胁的准备。
在AI与网络安全的持续博弈中,保持客观评估和前瞻性思考至关重要。只有这样,我们才能在享受AI技术带来便利的同时,有效应对其可能带来的安全挑战。








