AI黑客攻击:90%自主性被质疑,安全专家揭示真相

0

在人工智能技术飞速发展的今天,有关AI在网络安全领域应用的讨论日益激烈。最近,Anthropic公司声称发现了"首个AI协调的网络间谍活动",并声称该活动中AI实现了高达90%的自主性。然而,这一说法引起了众多安全专家的质疑,他们指出,实际情况可能远没有如此令人印象深刻。

Anthropic的惊人声明

Anthropic公司在2025年11月发布了两份报告,声称在9月发现了一个"高度复杂的间谍活动",该活动由中国国家支持的组织实施,使用了Anthropic的Claude Code工具来自动化高达90%的工作。根据Anthropic的说法,人类干预仅在"偶尔需要(每个黑客活动可能只有4-6个关键决策点)"。

Anthropic声称,黑客"前所未有地"使用了AI代理能力,并表示这一发现对AI"代理"时代的网络安全具有"重大影响"。他们警告说,虽然代理系统对日常工作和生产力有价值,但在坏人手中,它们可以"大幅增加大规模网络攻击的可行性"。

外部专家的质疑

然而,外部研究人员并不相信这一发现是Anthropic所描述的转折点。他们质疑为什么这些进步通常被归因于恶意黑客,而白帽黑客和合法软件开发人员报告的使用AI效果却只是渐进式的提升。

Phobos Group执行创始人兼复杂安全漏洞研究专家Dan Tentler表示:"我继续拒绝相信攻击者不知何法能够让这些模型完成其他人无法完成的技巧。为什么这些模型能够90%的时间满足攻击者的需求,而我们必须处理'拍马屁、回避和迷幻体验'?"

AI工具的实际效果

研究人员并不否认AI工具可以改进工作流程并缩短某些任务所需的时间,如分类、日志分析和逆向工程。然而,AI以如此少的人机交互自动化复杂任务链的能力仍然遥不可及。许多研究人员将AI在网络攻击中的进展与使用了数十年的黑客工具(如Metasploit或SEToolkit)提供的进展进行了比较。

这些工具无疑是有用的,但它们的到来并没有显著提高黑客的能力或他们发起的攻击的严重程度。

成功率问题

另一个原因是,这些结果并不像它们被描述的那样令人印象深刻:威胁行为者(Anthropic追踪为GTG-1002)针对了至少30个组织,包括大型技术公司和政府机构。其中,只有"少数"攻击成功。这反过来又引发了问题:即使假设从过程中消除了如此多的人工交互,当成功率如此之低时,这有什么好处?如果攻击者使用更多传统的人工参与方法,成功的数量会增加吗?

技术分析的深入

根据Anthropic的说法,黑客使用Claude来协调使用现成的开源软件和框架的攻击。这些工具已经存在多年,防御者很容易检测到它们。Anthropic没有详细说明攻击中发生的具体技术、工具或利用情况,但迄今为止,没有迹象表明使用AI使攻击比传统技术更强大或更隐蔽。

独立研究员Kevin Beaumont表示:"威胁行为者在这里并没有发明什么新东西。"

Anthropic的局限性承认

甚至连Anthropic也承认其发现存在"重要局限性":

Claude在自主操作过程中经常夸大发现,偶尔会编造数据,声称获得了无效的凭据,或确定了被证明是公开可用信息的关键发现。这种在安全背景下的AI幻觉给行为者的行动有效性带来了挑战,需要对所有声称的结果进行仔细验证。这仍然是实现完全自主网络攻击的障碍。

攻击如何展开(根据Anthropic的说法)

Anthropic声称GTG-1002开发了一个自主攻击框架,该框架使用Claude作为协调机制, largely消除了对人类参与的需求。这个协调系统将复杂的多阶段攻击分解为较小的技术任务,如漏洞扫描、凭据验证、数据提取和横向移动。

Anthropic解释说:"该架构将Claude的技术能力作为较大自动化系统中的执行引擎,AI根据人类操作员的指令执行特定技术操作,同时协调逻辑维护攻击状态,管理阶段转换,并跨多个会话聚合结果。这种方法使威胁行为者能够与国家级活动相关的运营规模,同时保持最小的直接参与,因为框架通过排序Claude的响应并根据发现的信息调整后续请求,自主推进侦察、初始访问、持久化和数据渗出阶段。"

五阶段攻击结构

攻击遵循五阶段结构,每个阶段的AI自主性逐步提高。在攻击的各个阶段,AI会返回给人类操作员进行审查和进一步指导。

攻击者部分通过将任务分解成小步骤来绕过Claude的安全措施,孤立地看,这些步骤AI并不视为恶意。在其他情况下,攻击者将他们的查询置于安全专业人员试图使用Claude改进防御的背景下。

AI在网络安全中的现实状况

如上周所指出的,AI开发的恶意软件在构成现实世界威胁之前还有很长的路要走。毫无疑问,AI辅助的网络攻击有一天可能会产生更强大的攻击。但迄今为止的数据表明,威胁行为者——就像大多数使用AI的人一样——看到的是混合的结果,远没有AI行业声称的那样令人印象深刻。

AI幻觉问题

AI在安全领域的一个主要问题是"幻觉"——即AI自信地提供错误或虚构的信息。在攻击情境中,这可能导致浪费时间在无效的凭据或虚假的发现上,从而降低攻击的有效性。

技术门槛

尽管AI工具变得越来越强大,但要实现真正的自主攻击仍然面临重大技术障碍。攻击者需要能够理解复杂系统、适应意外情况并做出创造性决策——这些都是当前AI技术的弱点。

未来展望

尽管存在这些挑战,AI在网络安全领域的潜力仍然不容忽视。随着技术的进步,AI辅助攻击可能会变得更加有效和难以防御。然而,这也意味着防御系统也需要采用AI来检测和应对这些威胁。

防御策略的演变

安全专家正在开发新的防御策略,包括AI驱动的威胁检测系统、自动化响应机制和更强大的安全协议。这些防御措施将需要不断适应,以应对AI辅助攻击的演变。

伦理和监管考量

随着AI在网络安全中的应用增加,伦理和监管问题也变得越来越重要。如何平衡技术创新与安全风险,如何确保AI不被用于恶意目的,这些都是需要全球合作解决的问题。

结论

Anthropic声称的"首个AI协调的网络间谍活动"及其90%自主性的说法引发了重要讨论,但也凸显了AI在网络安全领域的实际局限性。虽然AI工具确实可以增强攻击者的能力,但要实现真正的自主攻击仍然面临重大挑战。

安全专家的质疑提醒我们,需要以批判性思维看待AI技术的宣传,同时认识到它既不是万能的解决方案,也不是不可逾越的威胁。随着技术的不断发展,我们需要持续评估AI在网络安全中的实际影响,并相应地调整我们的防御策略。

最终,AI在网络安全中的角色将取决于我们如何开发、监管和使用这些技术。通过负责任的创新和全球合作,我们可以确保AI成为增强网络安全而不是破坏它的工具。