Anthropic近期发布了针对其消费者条款和隐私政策的系列重要更新,此举旨在通过用户的互动数据,进一步优化并增强Claude AI模型的性能与安全性。本次调整的核心在于赋予用户更高级别的自主选择权,允许他们自行决定是否将其数据用于模型改进,并强化了AI系统在识别和抵御有害内容(如各类诈骗和滥用行为)方面的能力。这些更新不仅体现了AI技术持续演进的需求,也反映了行业对数据隐私和用户控制权的日益重视。
这些新政策将适用于所有使用Claude免费版、专业版和旗舰版的用户,包括通过这些账户使用Claude Code的场景。值得注意的是,本次更新明确不涵盖Anthropic的商业条款服务范畴,即Claude for Work、Claude for Government、Claude for Education或通过第三方(如Amazon Bedrock和Google Cloud Vertex AI)进行API调用的服务。这一区分突显了不同用户群体和应用场景下数据处理策略的差异化管理。
通过参与数据共享,用户将直接助力于模型安全性的提升。例如,当用户选择允许数据用于模型训练时,AI系统在检测有害内容方面的准确性将得到显著增强,误判无害对话的可能性也会降低。此外,此举也将促进未来Claude模型在编码、分析和推理等关键技能上的进步,最终为所有用户带来更高效、更智能的AI体验。这种用户与AI共同成长的模式,是推动AI技术螺旋式上升的关键动力。
用户对其数据是否用于模型训练的控制权始终掌握在自己手中。新用户在注册流程中即可明确选择其偏好。现有用户则会通过弹窗界面接收到这些更新通知,并可根据自身意愿进行设置。Anthropic强调,用户可以随时在隐私设置中调整其选择,充分体现了对用户数据主导权的尊重。
自即日起,相关通知将逐步向用户推送,以便用户审阅并管理其设置。现有用户需在2025年9月28日之前接受更新后的消费者条款并作出数据使用决定。如果用户选择立即接受新政策,则这些政策将即刻生效,且仅适用于新的或已恢复的聊天会话和编码任务。在2025年9月28日之后,用户必须完成模型训练设置的选择,才能继续使用Claude服务。这种设定提供了一个缓冲期,确保用户有足够时间理解和适应新规。
数据保留期限的调整与深层考量
除了数据使用权限的调整,Anthropic还延长了数据保留期限。如果用户同意将其数据用于模型训练,数据保留期将延长至五年。此项变更同样仅适用于新的或已恢复的聊天和编码会话。延长的数据保留期旨在更好地支持模型的长期开发和安全性能改进。若用户选择删除与Claude的对话,则该对话内容将不会被用于未来的模型训练。如果用户不选择提供数据用于模型训练,则将继续执行现有的30天数据保留期限。这种弹性策略平衡了模型发展需求与用户对数据存储的担忧。
延长至五年的保留期也将适用于用户提交的关于Claude对提示词响应的反馈。此举旨在确保反馈数据能够更长时间地用于模型的迭代优化,尤其是对于那些需要长期观察和分析才能发现的问题和改进点。通过更长时间的数据积累,AI系统可以更全面地理解用户需求,从而提供更精准、更个性化的服务。
Anthropic深知用户隐私的重要性。为保护用户数据安全,公司采用了一系列工具和自动化流程来筛选或混淆敏感数据。此外,Anthropic明确声明不会将用户数据出售给第三方,这一承诺对于建立用户信任至关重要。数据隐私保护措施是AI服务提供商不可或缺的责任,也是用户选择服务的重要考量因素。
常见问题解答与深入分析
本次更新引发了一些用户关注,Anthropic通过FAQ形式进行了详细解释。核心变化包括:当用户开启此设置时,Free、Pro和Max账户的数据(包括Claude Code的使用)将用于新模型训练。现有用户可在2025年9月28日前决定,新用户则在注册时选择。用户可随时在隐私设置中更改。此外,如果允许数据用于改进模型,数据保留期将扩展至五年,否则维持30天。这些政策不适用于商业条款下的服务。
Anthropic解释了进行此项变更的原因:所有大型语言模型(LLM)的训练都依赖海量数据。真实世界的用户交互提供了宝贵的洞察,有助于识别哪些响应最有用、最准确。例如,当开发者与AI模型协作调试代码时,这种交互为改进未来模型在类似编码任务上的表现提供了重要信号。这形成了一个反馈循环,促使模型随着时间推移不断优化。这种数据驱动的迭代是AI进步的基石。
关于延长数据保留期限的理由,Anthropic指出,AI开发周期通常长达数年。模型训练过程中数据的一致性有助于提高模型的整体表现:在类似数据上训练的模型将以相似的方式响应、推理和生成输出,从而使用户在模型升级之间获得更顺畅的体验。长期数据还可帮助改进分类器(识别滥用行为的系统),使其在检测如滥用、垃圾邮件或不当使用等有害模式方面更有效。这些系统通过学习更长时间内收集的数据,变得更擅长识别异常活动,从而确保Claude对所有用户来说都是一个安全的环境。
用户需采取的行动是,现有用户将通过应用内通知被询问是否共享聊天和编码会话以改进模型。用户可立即选择,也可选择“稍后决定”,但需在2025年9月28日前做出选择。若用户选择同意,则更新后的五年数据保留政策将立即适用于新的和已恢复的会话。此日期之后,用户需作出偏好选择才能继续使用Claude。新用户在注册流程中即会看到此选项。这些步骤确保用户了解并主动参与到这一重要决策中。
如果用户允许数据用于模型训练后改变主意,他们可以随时在隐私设置中更新选择。如果关闭模型训练设置,Anthropic将不会使用新的聊天和编码会话进行未来的模型训练。然而,数据仍会包含在已经开始的模型训练和已完成训练的模型中。Anthropic将停止在未来的模型训练中使用之前存储的聊天和编码会话。这一机制确保了用户选择的即时性和有效性,但同时也考虑到已进行训练的历史数据无法完全回溯的现实限制。通过这些细致的政策调整,Anthropic尝试在AI技术创新与用户隐私保护之间找到一个平衡点,推动AI的可持续发展。