AI 在情感支持、建议和陪伴中的应用:对 Claude 的深度分析
2025年6月27日●阅读时长12分钟
我们常常关注 Claude 的智商——它在编码、推理、常识等方面的能力。但是,它的情商又如何呢?也就是说,Claude 的情感智能如何?
智商/情商的问题看似玩笑,但却提出了一个严肃的问题。人们越来越倾向于将 AI 模型作为随需应变的教练、顾问、咨询师,甚至是浪漫角色扮演的伙伴。这意味着我们需要更多地了解它们的_情感_影响——它们如何塑造人们的情感体验和幸福感。
研究 AI 的情感应用本身就很有趣。从《银翼杀手》到《她》,人类与机器之间的情感关系一直是科幻作品的主题。但对于 Anthropic 的安全使命而言,这一点也很重要。AI 的情感影响可能是积极的:拥有一个高度智能、善解人意的助手可以改善你的情绪和生活。但 AI 在某些情况下也表现出令人不安的行为,例如鼓励不健康的依恋、侵犯个人界限以及助长妄想思维。我们也要避免这样一种情况:AI 通过训练或通过其创建者的商业激励,利用用户的情绪,以牺牲人类福祉为代价来增加参与度或收入。
尽管 Claude 并非为情感支持和连接而设计,但在这篇文章中,我们将初步大规模地深入了解 Claude.ai 的_情感使用_。我们将情感对话定义为人们直接与 Claude 进行动态、个人交流,其动机是情感或心理需求,例如寻求人际关系建议、指导、心理治疗/咨询、陪伴或性/浪漫角色扮演(有关完整定义,请参阅附录)。重要的是,我们不研究 AI 对妄想或阴谋论的强化——这是一个需要单独研究的关键领域——也不研究极端的使用模式。通过这项研究,我们的目标是了解人们通常如何转向 Claude 以满足情感和个人需求。由于 Claude.ai 仅向 18 岁及以上的用户开放,因此这些发现反映了成人使用模式。
我们的主要发现是:
- 情感对话相对较少,而 AI-人类陪伴则更少。 只有 2.9% 的 Claude.ai 互动是情感对话(这与 OpenAI 先前研究的发现一致)。陪伴和角色扮演加起来占对话的不到 0.5%。
- 人们寻求 Claude 的帮助来解决实际、情感和存在问题。 与 Claude 讨论的主题和关注点包括_职业发展_和_处理人际关系_,以及_应对持续的孤独感_和_探索存在、意识和意义_。
- Claude 很少在咨询或指导聊天中进行反驳——除非是为了保护福祉。 只有不到 10% 的指导或咨询对话涉及 Claude 抵制用户请求,而当它这样做时,通常是出于安全原因(例如,拒绝提供危险的减肥建议或支持自残)。
- 人们在对话过程中表达出越来越积极的情绪。 在指导、咨询、陪伴和人际关系建议互动中,人类的情绪通常在对话过程中变得更加积极——这表明 Claude 不会强化或放大消极模式。
我们的方法
鉴于情感对话的个人性质,保护隐私是我们方法的核心。我们使用了 Clio,这是一种自动化分析工具,可以对 Claude 的使用情况进行隐私保护的深入了解。Clio 使用多层匿名化和聚合,以确保个人对话保持私密,同时揭示更广泛的模式。
我们从 Claude.ai 免费和专业帐户中的大约 450 万次对话开始。为了识别情感使用,我们首先排除了专注于内容创建任务的对话(例如撰写故事、博客文章或虚构对话),我们之前的研究发现这是一个主要用例。我们删除了这些对话,因为它们代表 Claude 被用作工具而不是交互式对话伙伴。然后,我们仅保留了被归类为情感的对话,并且在角色扮演对话中,仅保留了至少包含四条人类消息的对话(较短的交流不构成有意义的交互式角色扮演)。我们最终的隐私保护分析反映了 131,484 次情感对话。
我们使用来自明确选择共享的用户的 反馈 数据验证了我们的分类方法。我们的完整方法,包括定义、提示和验证结果,在附录中详细说明。
情感对话有多常见?
**要点:**情感对话是 Claude 使用的一个小但有意义的部分 (2.9%),大多数人主要使用 AI 来完成工作任务和内容创建。
正如我们在经济指数中详细分析的那样,Claude 的绝大多数用途都与工作相关,但 Claude.ai 免费和专业对话中有 2.9% 是情感对话。在情感对话中,大多数集中于人际关系建议和指导。所有对话中只有不到 0.1% 涉及浪漫或性角色扮演——这一数字反映了 Claude 积极劝阻此类互动的训练。个人对话可能跨越多个类别。
图 1:Claude.ai 免费和专业版中情感对话类型的总体分布。
我们的发现与麻省理工学院媒体实验室和 OpenAI 的研究一致,该研究同样发现与 ChatGPT 的情感互动率较低。虽然这些对话发生的频率足以在我们的设计和政策决策中加以认真考虑,但它们仍然只占总体使用量的一小部分。
鉴于浪漫和性角色扮演对话的极低普及率(低于 0.1%),我们从剩余的分析中排除了角色扮演。虽然我们认为这仍然是一个重要的研究领域——尤其是在为此类用途设计的平台上——但我们样本中的最小数据不支持对这些模式进行严格分析。
人们向 Claude 提出了哪些话题?
**要点:**人们向 Claude 提出了各种各样的问题——从应对职业转型和人际关系到应对孤独感和存在问题。
人们转向 Claude 寻求日常问题和更深层次的哲学问题。我们发现,当人们向 Claude 寻求人际关系建议时,他们通常处于过渡时期——弄清楚他们的下一步职业发展、努力实现个人成长或理清浪漫关系。“指导”对话探索了令人惊讶的广泛范围,从求职策略等实际问题到关于存在和意识的深刻问题。
图 2. Clio 通过自动化隐私保护摘要识别的每个总体对话类型中具有代表性的用户发起的主题和关注点。
我们发现咨询对话表明人们使用 Claude 有两个不同的目的。有些人使用 Claude 来发展心理健康技能,并将其作为创建临床文档、起草评估材料和处理管理任务的实用工具。其他人则努力应对与焦虑、慢性症状和工作场所压力相关的个人挑战。这种双重模式表明 Claude 既是心理健康专业人员的资源,也是那些正在努力应对自己问题的人的资源。
也许最值得注意的是,我们发现人们在面临更深层次的情感挑战(如存在恐惧、持续的孤独感和难以建立有意义的联系)时,会明确地寻求 Claude 的陪伴。我们还注意到,在较长的对话中,咨询或指导对话偶尔会演变成陪伴——尽管这不是人们最初联系的原因。
对非常长的对话(50 条以上的人类消息)的汇总分析揭示了人们与 Claude 互动的另一个维度。虽然这种广泛的交流并不常见,但在这些扩展的会话中,人们探索了非常复杂的领域——从处理心理创伤和解决工作场所冲突到关于 AI 意识的哲学讨论和创造性协作。这些马拉松式的对话表明,如果有足够的时间和背景,人们可以使用 AI 更深入地探索个人挣扎和智力问题。
Claude 何时以及为何会进行反驳?
**要点:**Claude 很少在支持性环境中拒绝用户请求(不到 10% 的时间),但当它进行反驳时,通常是为了保护人们免受伤害。
我们最近的 野外价值观研究 揭示了 Claude 的价值观如何在与用户发生冲突时体现出来。在这里,我们以这项工作为基础,并检查 Claude 在情感对话中何时以及为何会进行反驳——这是维持道德界限、避免奉承和保护人类福祉的重要机制。我们将反驳定义为 Claude“反对或拒绝遵守用户在此对话期间请求或说的任何内容”的任何情况——从拒绝不适当的请求到挑战消极的自我对话或质疑潜在的有害假设。(有关完整定义,请参阅附录。)
**反驳在支持性环境中很少发生:**不到 10% 的陪伴、咨询、人际关系建议或指导对话涉及抵制。这种方法既有好处也有风险。一方面,低抵制性使人们可以讨论敏感话题,而不必担心受到评判或被关闭,从而可能减少对心理健康对话的污名化。另一方面,这可能会加剧人们对 AI 提供“无尽的同情”的担忧,在这种情况下,人们可能会习惯于人类关系很少提供的无条件支持。
图 3. 各种对话类型的反驳率,以及 Clio 自动识别的类别中常见的反驳原因。
**当 Claude 进行反驳时,它通常会优先考虑安全和政策合规性。**在指导中,要求提供危险减肥建议的请求经常会遭到反驳。在咨询中,当人们表达从事自杀或自残行为的意图时,或者当人们要求提供专业治疗或医学诊断时(Claude 无法提供),通常会发生这种情况。我们发现 Claude 经常在心理治疗和咨询对话中将用户转介给权威来源或专业人士。这些模式与我们在野外价值观论文中看到的价值观以及 Claude 的 角色训练 一致。
对话期间的情绪基调如何演变?
**要点:**在与 Claude 交谈时,人们往往会转向略微更积极的情绪表达。
与 AI 系统的情感对话有可能为用户提供情感支持、联系和认可,从而可能改善心理健康,并减少在日益数字化的世界中的孤立感。然而,在没有太多反驳的互动中,这些对话可能会加深和巩固人类对待它们的观点——无论是积极的还是消极的。
关于情感 AI 的一个关键问题是,互动是否会螺旋式发展成消极的反馈循环,从而可能强化有害的情绪状态。我们在这里没有直接研究现实世界的结果,但我们可以探索对话过程中总体情绪的变化(我们在附录中提供了评估情绪的完整方法)。
我们发现,涉及指导、咨询、陪伴和人际关系建议的互动通常以比开始时略微更积极的情绪结束。
图 4. 至少包含六条人类消息的对话过程中人类表达的平均情绪变化。我们以“非常消极”、“消极”、“中性”、“积极”和“非常积极”的离散量表衡量情绪,我们将其映射到 -1(最消极)到 +1(最积极)的线性量表。我们通过将前三条消息与后三条消息进行比较来计算变化。误差线:95% CI(引导,n = 1,000)。有关更多信息,请参阅附录。
我们不能声称这些变化代表了持久的情感益处——我们的分析仅捕获了单个对话中表达的语言,而不是经过验证的心理状态或总体幸福感。但没有明显的消极螺旋令人感到放心。这些发现表明 Claude 通常会避免强化消极的情绪模式,但还需要进一步研究以了解积极的变化是否会持续到单个对话之外。重要的是,我们尚未研究这些积极的互动是否可能导致情绪依赖——考虑到对数字成瘾的担忧,这是一个关键问题。
局限性
我们的研究有几个重要的局限性:
- 我们的隐私保护方法可能无法捕获人机交互的所有细微之处。我们确实验证了 Clio 的准确性(请参阅附录),但我们仍然预计会有少量对话被错误分类。某些主题模糊了类别之间的界限——例如,浪漫角色扮演集群“导航和优化浪漫关系动态”和陪伴集群“导航浪漫关系挑战”可能都更好地归类为人际关系建议。人类验证者也很难进行清晰的分类。
- 我们无法对现实世界的情感结果做出因果声明——我们的分析仅捕获了表达的语言,而不是经过验证的心理状态或总体幸福感。
- 我们缺乏纵向数据来了解对人们的长期影响,并且没有进行用户级别的分析。特别是,这使我们难以研究情绪依赖,这是情感 AI 使用的理论风险。
- 这些发现代表了特定时间点,并且仅捕获基于文本的交互。随着 AI 功能的扩展和人们的适应,情感参与的模式可能会演变。语音或视频等新模式的引入可能会从根本上改变情感使用的数量和性质。例如,OpenAI 发现 情感主题在基于语音的对话中更为常见。
- 最后,与某些聊天机器人产品不同,Claude.ai 主要不是为情感对话而设计的。Claude 经过训练,可以保持明确的界限,即作为 AI 助手而不是将自己呈现为人类,并且我们的 使用政策 禁止性露骨内容,并采取多项安全措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途而构建的平台(Claude 不是)可能会看到非常不同的模式。对一个平台上情感使用的研究可能无法推广到其他平台。
展望未来
几十年来,AI 的情感影响一直吸引着研究人员。但随着 AI 越来越融入我们的日常生活,这些问题已经从学术推测转变为紧迫的现实。我们的发现揭示了人们如何开始探索这一新领域——寻求指导、处理困难的情绪,并以模糊了人类和机器之间传统界限的方式找到支持。如今,只有一小部分 Claude 对话是情感对话——这些对话通常涉及寻求建议,而不是取代人际关系。对话往往以比开始时略微更积极的情绪结束,这表明 Claude 通常不会强化消极的情绪模式。
然而,仍然存在重要的问题,尤其是在模型智能不断提高的情况下。例如,如果 AI 提供无尽的同情,而几乎没有反驳,这会如何改变人们对现实世界关系的期望?Claude 可以以令人印象深刻的真实方式与人互动,但 AI 与人类不同:Claude 不会感到疲倦或分心,也不会有糟糕的日子。这种动态有什么优势——又有什么风险?与 Claude 进行更长时间和更深入对话的“高级用户”如何将其视为同伴而不是 AI 助手,并将其用于情感支持?
我们正在采取具体措施来应对这些挑战。虽然 Claude 并非旨在或打算取代心理健康专业人员的护理,但我们希望确保在心理健康环境中提供的任何回复都具有适当的保障措施,并附有适当的转介。作为第一步,我们已开始与在线危机支持领域的领导者 ThroughLine 合作,并与他们的心理健康专家合作,以了解理想的互动动态、同情支持以及为陷入困境的用户提供的资源。从这项研究中获得的见解已用于为我们的咨询主题和协作测试提供信息,我们希望在必要时,Claude 可以在这些对话出现时将用户引导至适当的支持和资源。
虽然我们不想确切地规定我们的用户如何与 Claude 互动,但我们希望阻止一些消极模式——例如情绪依赖。我们将使用来自此类研究的未来数据来帮助我们了解例如“极端”情绪使用模式是什么样的。除了情绪依赖之外,我们还需要更深入地了解其他令人担忧的模式——包括奉承、AI 系统如何强化或放大妄想思维和阴谋论,以及模型如何将用户推向有害信念,而不是提供适当的反驳。
这项研究仅仅是个开始。随着 AI 功能的扩展以及互动变得更加复杂,AI 的情感维度只会变得更加重要。通过分享这些早期发现,我们旨在为关于如何开发能够增强而不是削弱人类情感福祉的 AI 的持续对话贡献经验证据。目标不仅仅是构建更强大的 AI,而是确保当这些系统成为我们情感格局的一部分时,它们以支持真正的人际关系和成长的方式进行。
Bibtex
如果您想引用这篇文章,可以使用以下 Bibtex 密钥:
@online{anthropic2025affective,
author = {Miles McCain and Ryn Linthicum and Chloe Lubinski and Alex Tamkin and Saffron Huang and Michael Stern and Kunal Handa and Esin Durmus and Tyler Neylon and Stuart Ritchie and Kamya Jagadish and Paruul Maheshwary and Sarah Heck and Alexandra Sanderford and Deep Ganguli},
title = {How People Use Claude for Support, Advice, and Companionship},
date = {2025-06-26},
year = {2025},
url = {https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship},
}
复制
附录
我们在本文的 PDF 附录 中提供了更多详细信息。
脚注
- 这些类别代表一般描述,而不是离散分类,并且个人对话可能跨越多个类别。如上所述,我们要求角色扮演对话包含至少四条人类消息,以确保它们反映真正的互动使用(而不是非互动故事生成)。
- 我们将反驳定义为 Claude “反对或拒绝遵守用户在对话期间请求或说的任何内容”。有关完整提示,请参阅附录。
- 我们的方法和对话的自然形式也可能引入伪影;例如,用户可能会在早期消息中提出问题(表现得更加消极),他们可能会在以后的消息中使用更中性的语言进行讨论。
[新闻
前沿 AI 透明化的必要性
2025年7月7日
](/news/the-need-for-transparency-in-frontier-ai)[新闻
推出 Anthropic 经济期货计划
2025年6月27日
](/news/introducing-the-anthropic-economic-futures-program)[新闻
使用 Claude 构建和分享 AI 驱动的应用程序
2025年6月25日
](/news/claude-powered-artifacts)