AI数据使用新规:用户选择权与模型安全升级

1

政策更新概述

Anthropic公司于2025年8月28日宣布对其消费者条款和隐私政策进行重大更新,核心变化是赋予用户对其数据使用的选择权。这一政策调整旨在通过用户自愿提供的数据来改进Claude AI模型的能力,同时增强系统对有害内容(如诈骗和滥用)的检测能力。用户可以随时调整这一偏好设置,使其完全掌握个人数据的使用方式。

适用范围与限制

此次政策更新主要影响使用Claude免费版、专业版和高级版计划的用户,包括通过关联账户使用Claude Code的情况。值得注意的是,这些更新不适用于商业条款下的服务,包括:

  • Claude for Work(团队和企业计划)
  • Claude for Government(政府版)
  • Claude for Education(教育版)
  • API使用,包括通过Amazon Bedrock和Google Cloud的Vertex AI等第三方平台的使用

用户选择权详解

新用户

新用户在注册过程中即可选择是否允许其数据用于模型训练。这一选择将直接影响其与Claude交互的数据使用方式。

现有用户

现有用户将看到一个弹出式通知,类似于下图所示的应用内通知:

App screen showing the modal presented to users

用户需要在2025年10月8日前接受更新的消费者条款并做出选择。如果立即接受新政策,将立即生效。这些更新仅适用于新对话或恢复的会话。10月8日后,用户必须在模型训练设置中做出选择才能继续使用Claude。用户可以随时在隐私设置中更改其选择。

数据保留期限延长

如果用户允许将其数据用于模型训练,Anthropic将把数据保留期限延长至五年。这一新的保留期限仅适用于新对话或恢复的会话,将有助于更好地支持模型开发和安全性改进。如果用户删除与Claude的对话,该数据将不会被用于未来的模型训练。如果用户选择不提供其数据用于模型训练,将继续执行现有的30天数据保留期。

新的五年保留期也将适用于用户提交的关于Claude对提示响应的反馈

隐私保护措施

为保护用户隐私,Anthropic采用多种工具和自动化流程来过滤或模糊敏感数据。公司明确表示不会将用户数据出售给第三方。

政策变更原因与背景

为什么需要这一变更?

所有大型语言模型(包括Claude)都需要使用大量数据进行训练。来自真实世界交互的数据提供了关于哪些响应对用户最有用和准确的宝贵见解。例如,当开发者通过与AI模型协作来调试代码时,这种交互提供了有价值的信号,有助于改进未来模型在类似编码任务上的表现。这创造了一个反馈循环,使模型能够随时间不断改进。

为什么要延长数据保留期限?

AI开发周期跨越多年——今天发布的模型在18至24个月前就开始开发。在整个训练过程中保持数据一致性有助于使模型更加一致:在相似数据上训练的模型将以类似的方式响应、推理和生成输出,使用户在模型升级之间的体验更加顺畅。

延长保留期也有助于改进分类器——帮助识别滥用的系统——以检测有害使用模式。当这些系统能够从更长时期收集的数据中学习时,它们会更好地识别滥用、垃圾邮件或滥用等活动,帮助我们保持Claude对所有人的安全性。

用户行动指南

当前用户将看到应用内通知,询问是否希望共享其对话和编码会话以改进模型。用户可以立即做出选择,或选择"暂不"并稍后决定。用户需要在2025年10月8日前做出选择。如果选择此选项,更新的五年数据保留政策也将立即适用于新对话和恢复的编码会话。一旦10月8日到来,用户需要选择其偏好才能继续使用Claude。

如果今天注册Claude,用户将在注册流程中看到这一决定。请记住,用户可以随时在隐私设置中更新其偏好。

改变选择的影响

如果用户允许其数据用于模型训练后改变主意,可以在隐私设置中更新其选择。如果用户决定关闭模型训练设置,将不会将任何新的对话和编码会话用于未来的模型训练。用户的数据仍将包含在已经开始的模型训练和已经训练过的模型中,但将停止使用先前存储的对话和编码会话进行未来的模型训练运行。

行业影响与未来展望

Anthropic的这一政策更新反映了AI行业在数据使用与用户隐私保护之间寻求平衡的最新趋势。随着AI技术的不断发展,如何在利用用户数据改进模型的同时保护用户隐私,已成为行业面临的关键挑战。

这一政策可能对整个AI行业产生深远影响,促使其他AI服务提供商重新考虑其数据使用政策,赋予用户更多控制权。同时,这也可能推动AI模型训练方法的创新,使模型能够在获得更少数据的情况下实现更好的性能。

技术与伦理考量

从技术角度看,Anthropic的政策体现了对AI模型训练过程的深入理解。通过允许用户选择是否参与模型训练,公司能够在尊重用户自主权的同时,收集有价值的数据来改进模型。

从伦理角度看,这一政策强调了用户对自身数据的控制权,符合数据保护的基本原则。同时,通过加强对有害内容的检测能力,公司也在履行其社会责任,确保AI技术的安全应用。

用户建议

作为Claude用户,建议您仔细考虑这一政策变更,并根据自身需求做出选择。如果您重视AI模型的持续改进并愿意为此贡献数据,可以选择参与模型训练。如果您更关注数据隐私,可以选择不参与,但仍可享受Claude的基本功能。

无论选择如何,都建议您定期检查隐私设置,确保您的偏好与您的需求保持一致。同时,请注意,如果您选择不参与模型训练,您仍可享受Claude的所有功能,只是模型可能不会基于您的交互数据进行改进。

结论

Anthropic的消费者条款和隐私政策更新代表了AI服务提供商在用户数据使用和隐私保护方面的重要进步。通过赋予用户选择权,公司尊重了用户的自主权,同时为AI模型的持续改进提供了数据基础。这一政策平衡了技术创新与用户隐私保护的需求,为AI行业的未来发展树立了良好榜样。

随着AI技术的不断发展,我们期待看到更多类似的创新政策,使AI技术能够在尊重用户隐私的前提下不断进步,为用户创造更大价值。