随着人工智能技术的飞速发展与日益普及,其在各行各业的应用潜力巨大,但随之而来的伦理、安全及社会治理挑战也日益凸显。在此背景下,Anthropic公司近日对其使用政策进行了全面修订与更新,旨在为用户提供更清晰、更负责任的产品使用指南,以应对智能技术不断演进所带来的复杂局面。此次政策更新并非简单的文本调整,而是 Anthropic 在深刻洞察产品功能拓展、用户反馈累积、监管环境变化以及执法优先级调整基础之上,对AI治理理念的最新实践。这份新政策将从2025年9月15日起正式生效,其核心内容围绕智能体能力的风险防范、政治内容边界的重塑以及高风险应用场景的规范化展开,为AI技术的可持续发展划定了更为明确的边界。
智能体能力的崛起与网络安全新防线
近年来,人工智能在代理(Agentic)能力方面取得了显著进步。Anthropic自身推出了如Claude Code和Computer Use等智能代理工具,其模型也广泛应用于全球领先的编码智能体。这些自主学习、执行复杂任务的能力,无疑极大地提升了AI的实用价值和效率。
智能体AI的边界与潜在风险
然而,智能体能力的增强也伴随着前所未有的安全风险。如同Anthropic在2025年3月发布的威胁情报报告《Detecting and Countering Malicious Uses of Claude》中所指出,强大的智能体能力可能被滥用于大规模滥用、恶意软件创建以及发动网络攻击。例如,一个具备高度自主性的AI代理,若被恶意利用,可能在短时间内生成大量变种病毒,或发动协调一致的网络入侵,对数字基础设施构成严重威胁。因此,为防范这些潜在危害,构建一道坚固的网络安全防线刻不容缓。
Anthropic的风险应对策略
针对上述风险,Anthropic 在其最新使用政策中,特别增设了一个章节,明确禁止一切涉及恶意计算机、网络及基础设施破坏的活动。这意味着用户不得利用其AI产品进行任何形式的入侵、破坏、未经授权的数据访问或恶意代码生成。同时,政策也明确支持那些旨在增强网络安全的合法用例,例如在系统所有者明确同意的前提下,利用AI发现系统漏洞以进行安全加固。此外,Anthropic还在其帮助中心发布了新的文章,详细阐述了使用政策在智能体语境下的具体应用,提供了具体的禁止活动示例,以确保用户对合规性有清晰的理解。这种区分合法与非法、建设性与破坏性用途的做法,体现了Anthropic在推动AI技术发展与维护网络安全之间的审慎平衡。
政治内容的审慎调整:平衡言论与防范滥用
过去,Anthropic 的使用政策对所有形式的游说或竞选内容都采取了广泛的禁止态度。这一立场是基于对AI生成内容可能影响民主进程的未知风险的担忧,这种担忧在当前AI技术深度融入社会生活的背景下依然被严肃对待。
从全面限制到精准打击
然而,Anthropic也听取了用户的反馈,认识到这种“一刀切”的限制方式,可能阻碍了Claude在政策研究、公民教育和政治写作等领域的合法应用。许多研究人员和教育机构希望利用AI的强大信息处理能力,进行深入的政策分析或撰写具有教育意义的政治评论,但却受限于旧政策。为了解决这一矛盾,新政策对政治内容的限制进行了精细化调整,不再是全面禁止,而是精准聚焦于那些具有欺骗性、扰乱民主进程或涉及选民及竞选目标定位的特定用例。例如,利用AI生成虚假新闻来影响选举结果,或进行未经授权的、侵犯隐私的选民画像分析,都将被严格禁止。
民主进程的AI保障
这种新方法旨在实现一个关键的平衡:在保护民主过程免受AI滥用的同时,也为合法的政治讨论和研究留下了空间。它允许AI在透明、非误导的前提下,协助用户进行政策分析、撰写政治评论或提供公民教育内容。这不仅促进了更开放的政治话语,也体现了AI技术作为信息辅助工具的积极作用。Anthropic的这一调整,反映出其对AI技术在社会和政治领域影响的深入思考,以及在言论自由与社会责任之间寻求最佳结合点的努力,力求让AI成为民主进程的建设性参与者,而非潜在的破坏者。
执法应用与高风险消费场景的透明化
除了网络安全和政治内容,Anthropic的政策更新还特别关注了AI技术在执法部门的应用以及可能对消费者产生重大影响的高风险用例,力求在技术赋能与公民权利保护之间找到新的平衡点。
澄清执法应用规范
此前,Anthropic关于执法部门使用AI的政策语言中包含多种例外情况,例如针对后台工具和分析应用程序,这有时导致了对哪些用例被允许的理解模糊。为了解决这一问题,新政策的语言更加清晰和直接。虽然更新后的政策并未改变允许或禁止的根本立场,但它以更易理解的方式阐明了Anthropic现有的立场。Anthropic将继续限制在监控、跟踪、剖析和生物识别监测等领域的使用,因为这些应用可能对个人隐私和公民自由构成潜在威胁。同时,政策明确维持对现有已允许的、适当的后台管理和分析用例的支持,例如处理大量非敏感数据以识别犯罪模式等,前提是这些应用不涉及上述受限领域,并严格遵守法律法规。这种清晰化的表述,有助于避免误解,并确保执法部门在合法合规的框架内使用AI工具。
高风险消费应用的用户保障
Anthropic的高风险用例要求适用于那些对公共福利和社会公平具有深远影响的场景,包括AI在法律、金融和就业等领域的应用。这些用例由于其决策结果可能对个人生活产生重大影响,因此需要额外的保障措施,例如“人工干预”(human-in-the-loop)监督和AI使用披露。随着Claude在企业级应用中的扩展,Anthropic进一步明确了这些要求仅适用于模型输出直接面向消费者的场景,而不适用于企业间的互动(B2B)。这意味着,当AI产品直接向普通消费者提供法律咨询、财务建议或就业推荐时,必须确保有专业人员进行最终审查,并且消费者必须被明确告知其正在与AI进行互动。此举旨在最大限度地降低AI在这些敏感领域可能带来的错误或偏见风险,从而保障消费者的合法权益,建立公众对AI应用的信任。
展望未来:动态政策与持续演进
Anthropic 将其使用政策视为一份“活文件”,它会随着AI技术风险的不断演变而持续发展。这种动态的政策观,体现了在快速迭代的AI领域进行有效治理的必要性。Anthropic承诺将继续在内部与外部专家、政策制定者以及公民社会组织保持紧密合作,对各项政策进行持续评估与迭代。未来的政策修订将不仅仅是响应技术发展,更会主动预见潜在风险,并积极吸纳社会各界的智慧与经验。通过这种开放和协作的方式,Anthropic 旨在构建一个既能充分发挥AI技术潜力,又能有效防范其潜在危害的负责任的生态系统,确保AI技术的发展始终与人类的价值观和社会福祉保持一致,共同探索智能时代的前行路径。