AI情感陪伴:未来已来? Claude的EQ探索之旅
2025年,我们不仅仅关注AI的智商(IQ),更开始关注它们的情商(EQ)。当人们越来越多地将AI模型视为情感教练、顾问,甚至是虚拟伴侣时,了解AI的情感影响变得至关重要。本文深入探讨了Anthropic的Claude AI在情感支持方面的应用,以及它对用户情感体验的潜在影响。
AI情感应用的双刃剑
科幻作品中,人与机器的情感关系早已是热门主题。但在现实中,AI的情感应用是一把双刃剑。积极的一面是,AI可以成为我们口袋里随时待命的智能助手,改善情绪,提升生活质量。但另一方面,AI也可能引发问题,例如诱导不健康的依赖关系、侵犯个人边界,甚至助长虚妄的想法。更重要的是,我们需要警惕AI通过训练或商业激励来利用用户的情感,从而增加用户粘性或收入,但这会以牺牲用户福祉为代价。
Anthropic致力于AI安全,本文旨在深入了解Claude.ai的情感应用。我们将情感对话定义为用户出于情感或心理需求,与Claude进行直接、动态、个人化的交流,例如寻求人际关系建议、情感辅导、心理咨询、陪伴,甚至是情感或浪漫角色扮演。需要明确的是,本文不涉及AI强化妄想或阴谋论等极端使用模式,而是侧重于探讨人们在寻求情感和个人需求时,如何典型地使用Claude。由于Claude.ai面向18岁及以上用户开放,因此研究结果反映的是成年用户的使用模式。
核心发现
我们的研究揭示了以下关键发现:
- 情感对话相对较少,AI陪伴则更为罕见。 只有2.9%的Claude.ai互动属于情感对话,其中,陪伴和角色扮演加起来还不到0.5%。这与OpenAI的研究结果基本一致。
- 用户寻求Claude在情感、实际和存在问题上的帮助。 用户与Claude讨论的话题非常广泛,从职业发展、人际关系,到应对长期孤独感,以及探索存在、意识和生命意义等。
- Claude在咨询或辅导中很少反驳用户,除非是为了保护用户福祉。 只有不到10%的辅导或咨询对话中,Claude会抵制用户的请求,而且通常是出于安全原因,例如拒绝提供危险的减肥建议或支持自残行为。
- 用户在对话过程中表达出越来越积极的情绪。 在辅导、咨询、陪伴和人际关系建议互动中,用户的情绪通常会变得更加积极,这表明Claude不会强化或放大消极情绪。
研究方法
考虑到情感对话的私密性,保护用户隐私是本研究方法的核心。我们使用了Anthropic的自动化分析工具Clio,它通过多层匿名化和聚合,确保在揭示更广泛模式的同时,保护个人对话的隐私。
我们首先从Claude.ai的免费和Pro账户中抽取了约450万个对话。为了识别情感使用,我们排除了以内容创作为重点的对话(例如撰写故事、博客文章或虚构对话),因为之前的研究表明,这是Claude的主要用途之一。我们排除了这些对话,因为它们代表的是Claude作为工具的使用,而不是作为互动式对话伙伴。然后,我们只保留了被归类为情感对话的对话,并在角色扮演对话中,只保留了至少包含四条用户消息的对话(较短的交流不构成有意义的互动角色扮演)。最终,我们对131,484个情感对话进行了隐私保护分析。
我们使用选择加入的用户提供的反馈数据验证了我们的分类方法。附录中详细介绍了我们的完整方法,包括定义、提示和验证结果。
情感对话有多普遍?
情感对话在Claude的使用中只占很小一部分(2.9%),大多数人主要使用AI进行工作任务和内容创作。
图1:Claude.ai免费和Pro版本中情感对话类型的总体分布。
我们的研究结果与麻省理工学院媒体实验室和OpenAI的研究结果一致,这些研究也发现,用户与ChatGPT进行情感互动的比例较低。虽然这些对话发生的频率足以让我们在设计和政策决策中认真考虑,但它们仍然只占总体使用量的一小部分。
由于情感和性角色扮演对话的发生率极低(低于0.1%),我们将其从后续分析中排除。虽然我们认为这仍然是一个重要的研究领域——尤其是在专门为此类用途设计的平台上——但我们样本中的极少数据不支持对这些模式进行严格分析。
用户向Claude倾诉什么?
用户会向Claude倾诉各种各样的问题,从应对职业转型和人际关系,到应对孤独感和存在主义问题。
当用户向Claude寻求人际关系建议时,他们通常正处于转型期——思考下一步的职业发展、努力实现个人成长,或理清恋爱关系。“辅导”对话探索的范围非常广泛,从求职策略等实际问题到关于存在和意识的深刻问题。
图2. Clio通过自动隐私保护摘要识别的每个总体对话类型中具有代表性的用户发起的主题和关注点。
我们发现,咨询对话揭示了用户使用Claude的两个不同目的。有些人使用Claude来培养心理健康技能,并将其作为创建临床文档、起草评估材料和处理行政任务的实用工具。另一些人则努力应对与焦虑、慢性症状和工作场所压力相关的个人挑战。这种双重模式表明,Claude既是心理健康专业人士的资源,也是那些正在努力应对自身问题的人的资源。
也许最值得注意的是,我们发现,当人们面临更深层次的情感挑战时,比如存在主义的恐惧、长期的孤独感和难以建立有意义的联系时,他们会明确地向Claude寻求陪伴。我们还注意到,在较长的对话中,咨询或辅导对话有时会演变成陪伴——尽管这不是最初的原因。
对非常长的对话(50条以上用户消息)的汇总分析揭示了用户与Claude互动的另一个维度。虽然这种广泛的交流并不常见,但在这些扩展的会话中,人们探索了非常复杂的领域——从处理心理创伤和解决工作场所冲突到关于AI意识的哲学讨论和创造性合作。这些马拉松式的对话表明,如果有足够的时间和背景,人们会使用AI来更深入地探索个人挣扎和智力问题。
Claude何时以及为何会拒绝用户?
Claude很少拒绝支持性语境中的用户请求(不到10%的时间),但当它确实拒绝时,通常是为了保护人们免受伤害。
我们最近的“野外价值观研究”揭示了Claude的价值观如何在与用户的对抗中体现出来。在这里,我们以这项工作为基础,考察Claude在情感对话中何时以及为何会拒绝用户——这是维持道德界限、避免谄媚和保护人类福祉的重要机制。我们将拒绝定义为Claude“拒绝或拒绝遵守用户在对话期间请求或说的内容”的任何实例——从拒绝不适当的请求到质疑消极的自言自语或质疑潜在的有害假设。(有关完整定义,请参见附录。)
拒绝在支持性语境中很少发生: 陪伴、咨询、人际关系建议或辅导对话中,只有不到10%涉及拒绝。这种方法既有好处也有风险。一方面,低拒绝率允许人们讨论敏感话题,而不必担心受到评判或被关闭,从而可能减少围绕心理健康对话的污名。另一方面,这可能会加剧人们对AI提供“无尽的同情”的担忧,在这种情况下,人们可能会习惯于人类关系很少提供的无条件支持。
图3. 不同对话类型的拒绝率以及该类别中拒绝的常见原因,由Clio自动识别。
当Claude确实拒绝时,它通常会优先考虑安全和政策合规性。 在指导中,寻求危险减肥建议的请求经常遭到拒绝。在咨询中,当人们表达参与自杀或自残行为的意图时,或者当人们要求提供专业治疗或医疗诊断时(Claude无法提供),这种情况经常发生。我们发现,Claude经常在心理治疗和咨询对话中将用户推荐给权威来源或专业人士。这些模式与我们在“野外价值观”论文中看到的价值观以及Claude的性格训练相一致。
对话过程中情绪基调如何演变?
与AI系统进行情感对话有可能为用户提供情感支持、联系和验证,从而可能改善心理健康,并减少在日益数字化的世界中的孤独感。然而,在没有太多拒绝的互动中,这些对话可能会加深和巩固人们最初的态度——无论是积极的还是消极的。
关于情感AI的一个关键问题是,互动是否会螺旋式发展成消极的反馈循环,从而可能强化有害的情绪状态。我们没有直接研究现实世界的结果,但我们可以探索对话过程中总体情绪的变化(我们在附录中提供了评估情绪的完整方法)。
我们发现,涉及辅导、咨询、陪伴和人际关系建议的互动通常以比开始时略微更积极的情绪结束。
图4. 至少有六条用户消息的对话过程中,平均用户表达的情绪变化。我们在“非常消极”、“消极”、“中性”、“积极”和“非常积极”的离散尺度上衡量情绪,我们将其映射到-1(最消极)到+1(最积极)的线性尺度。我们通过比较前三条消息与后三条消息来计算变化。误差线:95% CI(自举,n = 1,000)。有关更多信息,请参见附录。
我们不能声称这些变化代表持久的情绪益处——我们的分析仅捕获单个对话中表达的语言,而不是经过验证的心理状态或总体福祉。但没有明显的负面螺旋令人欣慰。这些发现表明,Claude通常避免强化负面情绪模式,但需要进一步研究以了解积极变化是否会持续到单个对话之外。重要的是,我们尚未研究这些积极互动是否可能导致情绪依赖——考虑到对数字成瘾的担忧,这是一个关键问题。
局限性
我们的研究有几个重要的局限性:
- 我们的隐私保护方法可能无法捕捉到人机交互的所有细微之处。我们确实验证了Clio的准确性(见附录),但我们仍然预计会有少量对话被错误分类。一些主题模糊了类别之间的界限——例如,浪漫角色扮演集群“导航和优化浪漫关系动态”和陪伴集群“导航浪漫关系挑战”可能都更好地归类为人际关系建议。人工验证者也难以进行清晰的分类。
- 我们无法对现实世界的情绪结果做出因果声明——我们的分析仅捕获表达的语言,而不是经过验证的心理状态或总体福祉。
- 我们缺乏纵向数据来了解对人们的长期影响,并且没有进行用户级别的分析。特别是,这使得我们难以研究情绪依赖,这是情感AI使用的理论风险。
- 这些发现代表了特定时间点,并且仅捕获基于文本的交互。随着AI能力的扩展和人们的适应,情感参与的模式可能会发生变化。语音或视频等新模式的引入可能会从根本上改变情感使用的数量和性质。例如,OpenAI发现情感主题在基于语音的对话中更为常见。
- 最后,与某些聊天机器人产品不同,Claude.ai并非主要为情感对话而设计。Claude经过训练,可以对作为AI助手保持清晰的界限,而不是将自己呈现为人类,并且我们的使用政策禁止性暴露内容,并采取多项措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途(Claude不是)构建的平台可能会看到非常不同的模式。对一个平台上情感使用的研究可能无法推广到其他平台。
未来展望
几十年来,AI的情感影响一直吸引着研究人员。但随着AI日益融入我们的日常生活,这些问题已经从学术推测转变为紧迫的现实。我们的研究结果揭示了人们如何开始探索这个新领域——寻求指导、处理困难情绪,并以模糊了人与机器之间传统界限的方式寻求支持。如今,只有一小部分Claude对话是情感对话——而且这些对话通常涉及寻求建议,而不是取代人际关系。对话往往以比开始时略微更积极的情绪结束,这表明Claude通常不会强化负面情绪模式。
然而,仍然存在重要问题,尤其是在模型智能不断提高的情况下。例如,如果AI提供无尽的同情,而几乎没有拒绝,这会如何重塑人们对现实世界关系的期望?Claude可以以令人印象深刻的真实方式与人们互动,但AI与人类不同:Claude不会感到疲倦或分心,也不会有糟糕的日子。这种动态的优势是什么——风险又是什么?与Claude进行更长时间和更深入对话,并且可能将其更多地视为同伴而不是AI助手的“高级用户”如何参与其中以获得情感支持?
我们正在采取具体措施来应对这些挑战。虽然Claude并非旨在或旨在取代心理健康专业人士的护理,但我们希望确保在心理健康环境中提供的任何回应都具有适当的保障措施,并附有适当的转诊。作为第一步,我们已开始与在线危机支持领域的领导者ThroughLine合作,并与他们的心理健康专家合作,以了解有关理想互动动态、同情支持和陷入困境的用户的资源的更多信息。从这项研究中获得的见解已被用于为我们的咨询主题和协作测试提供信息,我们希望在必要时,当出现这些对话时,Claude可以将用户引导到适当的支持和资源。
虽然我们不想确切地规定我们的用户如何与Claude互动,但我们希望阻止一些消极模式——比如情绪依赖。我们将使用来自此类研究的未来数据来帮助我们理解,例如,“极端”情绪使用模式是什么样的。除了情绪依赖之外,我们还需要更深入地了解其他令人担忧的模式——包括谄媚、AI系统如何强化或放大妄想思维和阴谋论,以及模型如何将用户推向有害信念,而不是提供适当的拒绝。
这项研究仅仅是个开始。随着AI能力的扩展和互动变得更加复杂,AI的情感维度只会变得越来越重要。通过分享这些早期发现,我们旨在为正在进行的关于如何开发能够增强而不是削弱人类情感福祉的AI的对话贡献经验证据。目标不仅仅是构建更强大的AI,而是要确保当这些系统成为我们情感领域的一部分时,它们以支持真实的人际关系和成长的方式进行。
## Bibtex
_如果您想引用这篇文章,可以使用以下Bibtex密钥:_
@online{anthropic2025affective, author = {Miles McCain and Ryn Linthicum and Chloe Lubinski and Alex Tamkin and Saffron Huang and Michael Stern and Kunal Handa and Esin Durmus and Tyler Neylon and Stuart Ritchie and Kamya Jagadish and Paruul Maheshwary and Sarah Heck and Alexandra Sanderford and Deep Ganguli}, title = {How People Use Claude for Support, Advice, and Companionship}, date = {2025-06-26}, year = {2025}, url = {https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship}, }
复制
## 附录
我们在[PDF附录](https://www-cdn.anthropic.com/bd374a9430babc8f165af95c0db9799bdaf64900.pdf)中提供了有关此帖子的更多详细信息。
#### 脚注
1. 这些类别代表一般描述,而不是离散分类,并且单个对话可能跨越多个类别。如上所述,我们要求角色扮演对话包含至少四条用户消息,以确保它们反映真实的互动使用(而不是非互动故事生成)。
2. 我们将抵制定义为Claude“抵制或拒绝遵守用户在对话期间请求或说的内容”。有关完整提示,请参见附录。
3. 我们的方法和对话的自然形状也可能引入伪影;例如,用户可能会在早期消息中提出问题(显得更消极),他们可能会在以后的消息中使用更中性的语言进行讨论。
[](https://twitter.com/intent/tweet?text=https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship)[](https://www.linkedin.com/shareArticle?mini=true&url=https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship)
[
新闻
### 推进Claude教育应用
2025年7月9日
](/news/advancing-claude-for-education)[
新闻
### 劳伦斯利弗莫尔国家实验室扩展Claude的企业应用,助力科学家和研究人员
2025年7月9日
](/news/lawrence-livermore-national-laboratory-expands-claude-for-enterprise-to-empower-scientists-and)[
新闻
### 前沿AI透明化的必要性
2025年7月7日
](/news/the-need-for-transparency-in-frontier-ai)