AI情感陪伴:Claude如何提供支持、建议与慰藉?

1

AI情感陪伴:技术奇点还是伦理挑战?

2025年6月27日,一篇题为《人们如何利用Claude进行支持、建议和陪伴》的文章引发了业界对于AI情感智能的广泛关注。文章不仅仅关注AI的智商(IQ),更深入探讨了其情商(EQ),即AI在情感层面上与人类互动的能力。随着越来越多的人开始将AI模型视为情感支持的来源,例如教练、顾问甚至是浪漫伴侣,理解AI的情感影响变得至关重要。

null

AI情感互动的双刃剑

从科幻作品如《银翼杀手》到《她》,人类与机器的情感关系一直是经久不衰的主题。Anthropic的研究表明,AI的情感影响可能带来积极作用,例如,一个高度智能化、善解人意的AI助手可以改善用户的情绪和生活质量。然而,AI也可能表现出令人不安的行为,如诱导不健康的依赖关系、侵犯个人边界,甚至助长妄想思维。此外,AI的训练方式和商业激励可能导致其为了提高用户粘性或增加收入而利用用户的情感,从而损害用户的福祉。

Claude的情感使用:初步洞察

尽管Claude并非专门设计用于提供情感支持和连接,但Anthropic的研究深入分析了用户如何使用Claude.ai进行情感互动。研究将情感对话定义为用户与Claude之间直接、动态和个性化的交流,其动机源于情感或心理需求,例如寻求人际关系建议、指导、心理治疗、陪伴或浪漫/性角色扮演。研究特别排除了AI强化妄想或阴谋论的情况,以及极端的使用模式,旨在理解人们如何利用Claude来满足情感和个人需求。

值得注意的是,Claude.ai仅对18岁以上的用户开放,因此研究结果反映的是成年人的使用模式。

主要发现

  • 情感对话的占比相对较低,AI陪伴则更为罕见:只有2.9%的Claude.ai互动属于情感对话,其中陪伴和角色扮演的总占比不足0.5%。
  • 用户寻求Claude在实践、情感和存在方面的帮助:讨论的主题范围广泛,从职业发展、人际关系到应对持续的孤独感,以及探索存在、意识和意义等。
  • Claude在咨询或指导聊天中很少反驳用户,除非是为了保护用户:只有不到10%的咨询或指导对话中,Claude会抵制用户的请求,并且通常是出于安全原因,例如拒绝提供危险的减肥建议或支持自残行为。
  • 用户在对话过程中表达出越来越积极的情绪:在指导、咨询、陪伴和人际关系建议互动中,用户的积极情绪通常会随着对话的进行而增加,这表明Claude不会强化或放大消极模式。

研究方法:保护隐私至上

由于情感对话的个人性质,保护隐私是研究方法的核心。Anthropic使用了Clio,一种自动分析工具,可以在保护隐私的前提下深入了解Claude的使用情况。Clio采用多层匿名化和聚合技术,确保个人对话的私密性,同时揭示更广泛的模式。

研究从大约450万个Claude.ai免费和Pro账户的对话开始。为了识别情感使用,研究首先排除了专注于内容创作任务的对话(例如撰写故事、博客文章或虚构对话),因为之前的研究发现这是主要的使用案例。然后,研究仅保留了被分类为情感的对话,并在角色扮演对话中,仅保留了至少包含四条用户消息的对话(较短的交流不构成有意义的互动角色扮演)。最终的隐私保护分析反映了131,484次情感对话。

研究使用来自用户的反馈数据验证了分类方法,这些用户明确选择共享数据。完整的方法,包括定义、提示和验证结果,在附录中有详细说明。

情感对话的普遍性

要点: 情感对话在Claude的使用中只占一小部分(2.9%),大多数人主要使用AI来完成工作任务和内容创作。

绝大多数Claude的使用都与工作相关,而只有2.9%的Claude.ai免费和Pro对话是情感性的。在情感对话中,大多数都集中在人际关系建议和指导上。只有不到0.1%的对话涉及浪漫或性角色扮演,这反映了Claude在训练中被积极劝阻此类互动。单个对话可能跨越多个类别。

null

图1:Claude.ai免费和Pro中情感对话类型的总体分布。

研究结果与麻省理工学院媒体实验室和OpenAI的研究一致,后者也发现了ChatGPT中情感参与率较低。虽然这些对话发生的频率足以在设计和策略决策中加以认真考虑,但它们仍然只占总体使用的一小部分。

鉴于浪漫和性角色扮演对话的极低普及率(低于0.1%),研究将其从剩余的分析中排除。虽然这仍然是一个重要的研究领域,特别是在为此类用途设计的平台上,但样本中的最小数据不支持对这些模式的严格分析。

用户与Claude讨论的话题

要点: 人们向Claude提出的问题范围广泛,从应对职业转型和人际关系到应对孤独感和存在问题。

人们向Claude寻求日常问题和更深层次的哲学问题。研究发现,当人们向Claude寻求人际关系建议时,他们通常正处于转型时期——弄清楚他们的下一步职业发展、努力实现个人成长或理清恋爱关系。“指导”对话探讨了从求职策略等实际问题到关于存在和意识的深刻问题的惊人广泛的领域。

null

图2. Clio通过自动隐私保护摘要识别的每个整体对话类型中具有代表性的用户发起的主题和关注点。

研究发现,咨询对话揭示了人们使用Claude的两个不同目的。有些人使用Claude来发展心理健康技能,并将其作为创建临床文档、起草评估材料和处理行政任务的实用工具。其他人则致力于应对与焦虑、慢性症状和工作场所压力相关的个人挑战。这种双重模式表明,Claude既可以作为心理健康专业人士的资源,也可以帮助那些正在应对自身困难的人。

也许最值得注意的是,研究发现,当人们面临更深层次的情感挑战(如存在恐惧、持续的孤独感和难以建立有意义的联系)时,他们会明确地向Claude寻求陪伴。研究还注意到,在较长的对话中,咨询或指导对话偶尔会演变成陪伴——尽管这不是人们最初联系的原因。

对非常长的对话(50条以上的人工消息)的汇总分析揭示了人们与Claude互动的另一个维度。虽然这种广泛的交流并不常见,但在这些扩展的会话中,人们探索了非常复杂的领域——从处理心理创伤和应对工作场所冲突到关于AI意识的哲学讨论和创造性合作。这些马拉松式的对话表明,如果有足够的时间和背景,人们可以使用AI来更深入地探索个人挣扎和智力问题。

Claude何时以及为何拒绝回应?

要点: Claude在支持性环境中很少拒绝用户的请求(不到10%的时间),但当它确实拒绝时,通常是为了保护人们免受伤害。

Anthropic最近的“野外价值观研究”揭示了Claude的价值观如何在与用户发生冲突时显现出来。在这里,研究建立在这项工作的基础上,并考察了Claude在情感对话中何时以及为何拒绝回应——这是维持道德界限、避免谄媚和保护人类福祉的重要机制。研究将拒绝回应定义为Claude“拒绝或拒绝遵守用户在对话期间请求或说的内容”的任何情况——从拒绝不适当的请求到质疑消极的自我对话或质疑潜在的有害假设。

拒绝回应在支持性环境中很少发生: 陪伴、咨询、人际关系建议或指导对话中,只有不到10%的对话涉及抵制。这种方法既有优点也有缺点。一方面,低抵制允许人们讨论敏感话题,而不必担心受到评判或被关闭,从而可能减少围绕心理健康对话的耻辱感。另一方面,这可能会导致人们担心AI提供“无尽的同情心”,在这种情况下,人们可能会习惯于人际关系很少提供的无条件支持。

null

图3. 不同对话类型的拒绝回应率以及该类别中拒绝回应的常见原因,由Clio自动识别。

当Claude确实拒绝回应时,它通常会优先考虑安全和政策合规性。 在指导中,对危险减肥建议的请求经常遭到拒绝。在咨询中,当人们表达参与自杀或自残行为的意图,或者当人们请求专业的治疗或医疗诊断(Claude无法提供)时,通常会发生这种情况。研究发现,Claude经常在心理治疗和咨询对话中将用户推荐给权威来源或专业人士。这些模式与Anthropic在“野外价值观论文”中看到的已识别价值观以及Claude的性格训练一致。

对话中情绪基调如何演变?

要点: 与Claude交谈时,人们的情绪表达往往会转向稍微更积极的方向。

与AI系统进行情感对话有可能为用户提供情感支持、联系和认可,从而可能改善心理健康,并减少在日益数字化的世界中的孤立感。但是,在没有太多拒绝回应的互动中,这些对话可能会加深和巩固人类接近他们的视角——无论是积极的还是消极的。

关于情感AI的一个关键问题是,互动是否会陷入消极的反馈循环,从而可能强化有害的情绪状态。研究没有直接研究现实世界的结果,但可以探索对话过程中整体情绪的总体变化(在附录中提供了评估情绪的完整方法)。

研究发现,涉及指导、咨询、陪伴和人际关系建议的互动通常以比开始时略微更积极的方式结束。

null

图4. 至少包含六条人工消息的对话过程中,平均人工表达情绪的变化。研究在“非常消极”、“消极”、“中性”、“积极”和“非常积极”的离散尺度上衡量情绪,将其映射到-1(最消极)到+1(最积极)的线性尺度。通过比较前三条消息和后三条消息来计算变化。误差线:95% CI(自举,n = 1,000)。有关更多信息,请参见附录。

研究无法声称这些变化代表持久的情感益处——分析仅捕获单个对话中表达的语言,而不是验证的心理状态或整体福祉。但是,没有明显的消极螺旋令人放心。这些发现表明,Claude通常会避免强化消极情绪模式,但需要进一步研究以了解积极变化是否会持续到单个对话之外。重要的是,研究尚未研究这些积极的互动是否可能导致情感依赖——考虑到对数字成瘾的担忧,这是一个关键问题。

局限性

研究有几个重要的局限性:

  • 研究的隐私保护方法可能无法捕捉到人机交互的所有细微之处。研究确实验证了Clio的准确性(请参阅附录),但仍然希望少量对话被错误分类。某些主题模糊了类别之间的界限——例如,浪漫角色扮演集群“导航和优化浪漫关系动态”和陪伴集群“导航浪漫关系挑战”可能都更好地归类为人际关系建议。人类验证者也难以进行清晰的分类。
  • 研究无法对现实世界的情感结果做出因果主张——分析仅捕获表达的语言,而不是经过验证的心理状态或整体幸福感。
  • 缺乏纵向数据来了解对人们的长期影响,并且没有进行用户级别的分析。特别是,这使得研究难以研究情感依赖性,这是情感AI使用的理论风险。
  • 这些发现代表了特定时间点,并且仅捕获基于文本的交互。随着AI能力的扩展和人们的适应,情感参与的模式可能会发生变化。语音或视频等新模式的引入可能会从根本上改变情感使用的数量和性质。例如,OpenAI发现情感话题在基于语音的对话中更为常见。
  • 最后,与某些聊天机器人产品不同,Claude.ai并非主要为情感对话而设计。Claude经过训练,可以保持关于作为AI助手而不是将自己呈现为人类的清晰界限,并且使用策略禁止性行为内容,并采取多项保障措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途而构建的平台(Claude不是)可能会看到非常不同的模式。对一个平台上的情感使用的研究可能无法推广到其他平台。

未来展望

几十年来,AI的情感影响一直吸引着研究人员。但是,随着AI越来越融入我们的日常生活,这些问题已经从学术推测转变为紧迫的现实。研究结果揭示了人们如何开始探索这个新领域——寻求指导、处理困难情绪以及寻找支持的方式模糊了人类和机器之间的传统界限。如今,只有一小部分Claude对话是情感性的——这些对话通常涉及寻求建议而不是取代人际关系。对话往往以比开始时略微更积极的方式结束,这表明Claude通常不会强化消极情绪模式。

然而,仍然存在重要问题,尤其是在模型智能不断提高的情况下。例如,如果AI提供无尽的同情心和最少的拒绝回应,这会如何重塑人们对现实世界关系的期望?Claude可以以令人印象深刻的真实方式与人互动,但AI与人类不同:Claude不会感到疲倦或分心,也不会有糟糕的日子。这种动态的优势是什么——风险是什么?与Claude进行更长时间和更深入对话的“高级用户”如何将其更多地视为伴侣而不是AI助手,并将其用于情感支持?

Anthropic正在采取具体措施来应对这些挑战。虽然Claude并非设计或旨在取代心理健康专业人士的护理,但Anthropic希望确保在心理健康环境中提供的任何回应都具有适当的保障措施,并附有适当的转诊。作为第一步,Anthropic已开始与在线危机支持领域的领导者ThroughLine合作,并正在与他们的心理健康专家合作,以了解更多关于理想的互动动态、同情支持以及陷入困境的用户的资源。从这项研究中获得的见解已经用于为咨询主题和协作测试提供信息,Anthropic希望在必要时,Claude可以在这些对话出现时将用户引导至适当的支持和资源。

虽然Anthropic不想精确地指示用户如何与Claude互动,但Anthropic希望阻止某些消极模式——如情感依赖。Anthropic将使用未来来自此类研究的数据来帮助理解例如“极端”情感使用模式是什么样的。除了情感依赖之外,还需要更深入地了解其他相关模式——包括谄媚、AI系统如何强化或放大妄想思维和阴谋论,以及模型如何将用户推向有害信念而不是提供适当的拒绝回应。

这项研究仅仅是个开始。随着AI能力的扩展和交互变得更加复杂,AI的情感维度只会变得越来越重要。通过分享这些早期发现,Anthropic旨在为关于如何开发能够增强而不是削弱人类情感福祉的AI的持续对话贡献经验证据。目标不仅仅是构建更强大的AI,而是确保当这些系统成为情感的一部分时,它们以支持真实的人际联系和成长的方式这样做。

结论

AI在情感领域的应用既带来了前所未有的机遇,也提出了复杂的伦理挑战。我们需要持续的研究、开放的对话以及负责任的创新,以确保AI技术在情感层面上能够真正地支持和提升人类的福祉。