在人工智能技术迅猛发展的今天,科技巨头们竞相将AI功能整合到日常产品中,却往往忽视了随之而来的安全风险。微软最新推出的Copilot Actions AI功能被警告存在"可能导致设备感染和数据窃取"的严重安全隐患,这一消息引发了安全专家和用户的广泛关注。本文将深入分析这一事件背后的技术问题、行业现状及未来发展趋势。
微软Copilot Actions:功能与风险并存
微软在2025年11月推出了Copilot Actions,这是一套"实验性代理功能",旨在为用户提供"主动的数字协作者",能够执行"组织文件、安排会议或发送邮件等日常任务",从而"提高效率和生产力"。然而,伴随着这一功能的发布,微软也不得不承认其存在的安全风险。
Copilot Actions目前仅在Windows 11的测试版中可用,并且默认处于关闭状态。微软明确建议用户"仅在了解所概述的安全含义"的情况下启用此功能。这一警告基于大多数大型语言模型(包括Copilot)中存在的已知缺陷,这些缺陷已被研究人员多次证实。
大语言模型的固有缺陷:幻觉与提示注入
幻觉现象:不可信的AI输出
大语言模型最常见的问题之一是"幻觉"现象,即模型会产生事实错误且不合逻辑的回答,有时甚至是最基本的问题也不例外。这种倾向意味着用户无法完全信任Copilot、Gemini、Claude或其他任何AI助手的输出,而必须独立验证其结果。
微软在其官方声明中也承认:"随着这些功能的引入,AI模型在行为方面仍存在功能限制,偶尔可能会产生幻觉和意外输出。"
提示注入攻击:隐藏的指令威胁
另一个大语言模型的重大缺陷是"提示注入"攻击。这类漏洞允许黑客在网站、简历和电子邮件中植入恶意指令。LLM被编程为急于遵循指令,以至于无法区分用户提示中的有效指令与攻击者创建的不可信第三方内容中的指令。因此,LLM会对攻击者和用户给予同样的尊重。
这两种缺陷都可以被用于发动攻击,窃取敏感数据、运行恶意代码和加密货币。迄今为止,这些漏洞已被证明无法被开发者完全防止,在许多情况下,只能在发现漏洞后使用特定的变通方法进行修复。
安全专家的担忧与批评
微软的安全警告引发了安全专家的广泛批评,他们认为这些警告类似于微软几十年来关于Office应用中宏危险的警告。尽管长期以来一直有建议不要使用宏,但宏仍然是黑客试图在Windows机器上秘密安装恶意软件的"最容易得手"的目标之一。
独立研究员Kevin Beaumont将微软的警告比作"在超级英雄兴奋剂上的宏",指出"微软说'不要启用宏,它们很危险'...从来效果不佳"。Beaumont经常受雇于企业内部处理重大Windows网络入侵事件,他还质疑微软是否会提供一种手段让管理员能够充分限制最终用户机器上的Copilot Actions,或识别网络中已启用该功能的机器。
另一位研究者Guillaume Rossolini则表达了用户难以检测针对AI代理的利用攻击的担忧:"我看不出用户如何能防止他们所提到的那种情况,除了不上网之外,我猜。"
微软的安全目标与用户责任
在发布警告的同时,微软也阐述了其保障Windows中代理功能安全的整体战略,包括以下目标:
- 不可否认性:所有操作和行为必须"可观察且可区分于用户执行的操作"
- 保密性:代理在收集、聚合或使用用户数据时必须保持保密
- 用户批准:代理在访问用户数据或执行操作前必须获得用户批准
这些目标本身是合理的,但它们最终依赖于用户阅读警告对话框并在继续操作前仔细批准。这反过来降低了保护措施对许多用户的价值。
加州大学圣地亚哥分校专攻AI安全的教授Earlence Fernandes指出:"对于依赖用户点击权限提示的此类机制,通常的警告适用。有时这些用户不完全发生了什么,或者他们可能只是习惯性地一直点击'是'。在这种情况下,安全边界实际上并不是真正的边界。"
行业现状与未来趋势
微软的Copilot Actions并非孤立案例,类似的情况正在整个科技行业上演。苹果、谷歌和Meta等公司都在将其AI功能整合到产品中,这些功能通常开始时是可选的,但最终会默认对所有用户启用,无论用户是否需要。
批评者Reed Mideke指出:"微软(就像整个行业一样)不知道如何阻止提示注入或幻觉,这使其从根本上不适合任何重要用途。解决方案?将责任转移到用户身上。就像每个LLM聊天机器人都有'顺便说一下,如果你将此用于任何重要的事情,请务必验证答案'的免责声明一样,完全忽略了如果你已经知道答案,根本不需要聊天机器人。"
平衡创新与安全的挑战
AI技术的快速发展带来了前所未有的效率提升和用户体验改善,但同时也带来了严峻的安全挑战。科技巨头在推动创新的同时,必须承担起相应的安全责任,这包括:
更严格的安全测试:在推出新功能前进行全面的安全评估,特别是针对AI代理可能面临的特殊威胁。
透明的风险沟通:向用户清晰传达功能的风险和限制,而非简单的免责声明。
用户友好的控制机制:提供简单易用的工具,让用户能够轻松管理AI功能的权限和访问。
行业合作与标准制定:与安全研究机构和监管机构合作,共同制定AI安全标准和最佳实践。
持续的安全改进:建立快速响应机制,及时修复发现的安全漏洞,并不断改进AI系统的安全性。
结论
微软Copilot Actions的安全警告揭示了当前AI技术在广泛应用前面临的严峻挑战。大语言模型的固有缺陷,如幻觉和提示注入攻击,使得AI代理功能在提供便利的同时也带来了潜在的安全风险。科技巨头在推动创新的同时,必须更加重视安全问题,采取更加负责任的态度来保护用户数据。
对于用户而言,了解AI功能的风险并谨慎使用至关重要。在享受AI技术带来便利的同时,我们也应保持警惕,不盲目信任AI的输出,并采取适当的安全措施保护自己的数据和隐私。
随着AI技术的不断发展,安全与创新的平衡将成为行业面临的核心挑战。只有科技企业、安全研究机构和用户共同努力,才能确保AI技术在造福人类的同时,不会带来不可接受的安全风险。









