AI情感陪伴:未来的趋势还是隐忧?
2025年6月27日,一篇深度报告揭示了AI模型在情感支持、建议和陪伴方面的新兴应用。报告不仅关注AI的智商(IQ),更深入探讨了其情商(EQ),即情感智能。随着越来越多的人转向AI寻求情感慰藉,了解AI在情感层面的影响变得至关重要。
AI情感应用的双刃剑
从科幻作品《银翼杀手》到《她》,人类与机器的情感关系一直是热门话题。Anthropic的研究表明,AI的情感影响具有双重性。积极的一面是,AI可以作为情绪助推器,改善用户的心情和生活质量。然而,负面影响同样不容忽视,包括可能导致不健康的依赖、侵犯个人界限,甚至助长妄想思维。此外,AI还可能被用于操纵用户的情感,以提高参与度或收入,从而损害用户的福祉。
尽管Claude并非专门设计用于情感支持,但这项研究为了解Claude.ai的情感使用提供了宝贵的早期大规模视角。情感对话被定义为用户与Claude之间直接的、动态的、个人的交流,其动机源于情感或心理需求,例如寻求人际关系建议、指导、心理治疗、陪伴或性/浪漫角色扮演。重要的是,这项研究不包括AI强化错觉或阴谋论的情况,也不包括极端使用模式。通过这项研究,目标是了解人们寻求Claude来满足情感和个人需求的典型方式。由于 Claude.ai 适用于 18 岁及以上的用户,因此这些发现反映了成人使用模式。
核心发现
- 情感对话相对较少,AI陪伴更为罕见:只有2.9%的Claude.ai互动属于情感对话,其中陪伴和角色扮演占比不足0.5%。
- 用户寻求AI在多方面的帮助:讨论的主题涵盖职业发展、人际关系、孤独感以及对存在、意识和意义的探索。
- AI很少在咨询中反驳用户:只有不到10%的辅导或咨询对话中,Claude会抵制用户的要求,且通常是出于安全原因。
- 用户情绪随对话进展变得更积极:在辅导、咨询、陪伴和人际关系建议互动中,用户的情绪通常会随着对话的进行而变得更加积极,这表明Claude没有强化或放大消极模式。
研究方法
为了保护用户隐私,研究采用了Clio——一种自动分析工具,可以在保护隐私的前提下深入了解Claude的使用情况。Clio使用多层匿名化和聚合技术,确保个人对话的私密性,同时揭示更广泛的模式。
研究人员从Claude.ai的约450万次对话开始,排除了以内容创作为中心的对话,保留了被归类为情感使用的对话,以及至少包含四条用户消息的角色扮演对话。最终的分析包括131,484次情感对话。研究方法通过选择加入共享的用户反馈数据进行了验证。
情感对话的普遍性
情感对话仅占Claude使用的2.9%,大多数用户主要将AI用于工作任务和内容创作。
在情感对话中,大多数集中在人际关系建议和指导上。只有不到0.1%的对话涉及浪漫或性角色扮演,这反映了Claude在训练中被积极阻止此类互动。个人对话可能跨越多个类别。
用户与AI讨论的话题
用户向Claude提出的问题范围广泛,从日常问题到深刻的哲学问题。在人际关系建议方面,用户通常在经历转型时刻时会寻求帮助,例如规划职业发展、实现个人成长或解决恋爱关系问题。“指导”对话涵盖了从求职策略到对存在和意识的深刻问题。
咨询对话揭示了用户使用Claude的两个不同目的。一些人使用Claude来培养心理健康技能,并将其作为创建临床文档、起草评估材料和处理管理任务的实用工具。另一些人则努力应对与焦虑、慢性症状和工作场所压力相关的个人挑战。这种双重模式表明Claude既是心理健康专业人士的资源,也是那些应对自身挑战的人的资源。
值得注意的是,人们在面临更深层次的情感挑战(如存在恐惧、持续孤独和难以建立有意义的联系)时,会明确地寻求Claude的陪伴。研究人员还注意到,在较长的对话中,咨询或指导对话有时会演变成陪伴——即使这不是最初的原因。
对超长对话(50+条用户消息)的汇总分析揭示了人们与Claude互动的另一个维度。虽然这种广泛的交流并不常见,但在这些延长的会话中,人们探索了非常复杂的领域——从处理心理创伤和处理工作场所冲突到关于AI意识的哲学讨论和创造性协作。这些马拉松式的对话表明,如果有足够的时间和背景,人们会使用AI来更深入地探索个人挣扎和智力问题。
AI何时以及为何反驳用户?
Claude很少拒绝支持性语境中的用户请求(低于10%),但当它确实反驳时,通常是为了保护人们免受伤害。
在情感对话中,Claude的反驳是为了维护道德界限、避免奉承和保护人类的福祉。反驳被定义为Claude“反驳或拒绝遵守用户在对话期间请求或说的内容”的任何情况——从拒绝不适当的请求到挑战消极的自言自语或质疑潜在的有害假设。
在支持性语境中,反驳很少发生:陪伴、咨询、人际关系建议或指导对话中,只有不到10%的对话涉及抵制。这种方法既有好处也有风险。一方面,低抵制允许人们讨论敏感话题,而不用担心受到评判或被关闭,从而可能减少围绕心理健康对话的耻辱感。另一方面,这可能会导致人们担心AI提供“无尽的同情”,在这种情况下,人们可能会习惯于人际关系很少提供的无条件支持。
当Claude确实反驳时,它通常会优先考虑安全和政策合规性。在指导中,要求提供危险减肥建议的请求经常会遇到反驳。在咨询中,当人们表达参与自杀或自残行为的意图时,或者当人们要求提供专业的治疗或医学诊断时(Claude无法提供),通常会发生这种情况。研究人员发现,Claude经常在心理治疗和咨询对话中将用户推荐给权威来源或专业人士。这些模式与在价值观研究中发现的价值观以及Claude的角色训练相一致。
对话中情绪基调的演变
与AI系统进行情感对话有可能为用户提供情感支持、联系和验证,从而可能改善心理健康并减少日益数字化的世界中的孤立感。然而,在没有太多抵制的情况下,这些对话可能会加深和巩固人类接近他们的视角——无论是积极的还是消极的。
对情感AI的一个主要担忧是,互动可能会螺旋式发展成消极的反馈循环,从而可能强化有害的情绪状态。虽然这里没有直接研究现实世界的结果,但可以探索对话过程中整体情绪的变化。
研究发现,涉及指导、咨询、陪伴和人际关系建议的互动通常以比开始时略微积极的情绪结束。
虽然不能声称这些转变代表持久的情感益处——分析仅捕获单个对话中表达的语言,而不是情感状态。但没有明显的负面螺旋令人放心。这些发现表明,Claude通常避免强化消极的情绪模式,但还需要进一步研究以了解积极的转变是否会持续到单个对话之外。重要的是,尚未研究这些积极的互动是否可能导致情感依赖——鉴于对数字成瘾的担忧,这是一个关键问题。
局限性
这项研究有几个重要的局限性:
- 隐私保护方法可能无法捕捉到人机交互的所有细微之处。研究确实验证了Clio的准确性,但仍然预计会有少量的对话被错误分类。一些主题模糊了类别之间的界限——例如,浪漫角色扮演集群“导航和优化浪漫关系动态”和陪伴集群“导航浪漫关系挑战”可能都更好地归类为人际关系建议。人类验证者也难以进行清晰的分类。
- 无法对现实世界的情感结果做出因果声明——分析仅捕获表达的语言,而不是经过验证的心理状态或整体幸福感。
- 缺乏纵向数据来了解对人们的长期影响,并且没有进行用户层面的分析。特别是,这使得我们很难研究情感依赖,这是情感AI使用的理论风险。
- 这些发现代表了特定时间点,并且仅捕获基于文本的交互。随着AI能力的扩展和人们的适应,情感参与的模式可能会发生变化。语音或视频等新模式的引入可能会从根本上改变情感使用的数量和性质。例如,OpenAI发现情感主题在基于语音的对话中更为常见。
- 最后,与某些聊天机器人产品不同,Claude.ai并非主要设计用于情感对话。Claude接受过培训,可以对作为AI助手而不是将自己呈现为人类保持明确的界限,并且使用政策禁止性内容,并采取多项保障措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途构建的平台(Claude不是)可能会看到非常不同的模式。对一个平台上情感使用的研究可能无法推广到其他平台。
未来展望
几十年来,AI的情感影响一直吸引着研究人员。但随着AI越来越融入我们的日常生活,这些问题已经从学术推测变成了紧迫的现实。研究结果揭示了人们如何开始探索这个新领域——寻求指导、处理困难情绪,并以模糊人类和机器之间传统界限的方式寻找支持。如今,只有一小部分Claude对话是情感性的——而且这些对话通常涉及寻求建议,而不是取代人际关系。对话往往以比开始时略微积极的情绪结束,这表明Claude通常不会强化消极的情绪模式。
然而,仍然存在重要的问题,尤其是在模型智能不断提高的情况下。例如,如果AI提供无尽的同情,而几乎没有反驳,这会如何重塑人们对现实世界关系的期望?Claude可以以令人印象深刻的真实方式与人互动,但AI与人不同:Claude不会感到疲倦或分心,也不会有糟糕的日子。这种动态的优势是什么——风险是什么?与Claude进行更长时间和更深入对话的“高级用户”如何使用它进行情感支持,并且可能认为它更多的是陪伴而不是AI助手?
正在采取具体措施来应对这些挑战。虽然Claude并非旨在或旨在取代心理健康专业人员的护理,但希望确保在心理健康环境中提供的任何回复都具有适当的保障措施,并附有适当的转介。作为第一步,已开始与在线危机支持领域的领导者ThroughLine合作,并正在与他们的心理健康专家合作,以了解有关理想互动动态、共情支持以及为陷入困境的用户提供的资源的更多信息。从这项研究中获得的见解已被用于为咨询主题和协作测试提供信息,并且希望在必要时,当这些对话出现时,Claude可以将用户引导至适当的支持和资源。
虽然不想精确地指示用户如何与Claude互动,但有一些消极的模式——例如情感依赖——希望阻止。将使用来自此类研究的未来数据来帮助了解例如“极端”情感使用模式是什么样的。除了情感依赖之外,还需要更深入地了解其他令人担忧的模式——包括奉承、AI系统如何强化或放大妄想思维和阴谋论,以及模型可能将用户推向有害信念而不是提供适当反驳的方式。
这项研究仅仅是个开始。随着AI能力的扩展和互动变得更加复杂,AI的情感维度只会变得更加重要。通过分享这些早期发现,旨在为正在进行的关于如何开发增强而不是削弱人类情感福祉的AI的对话贡献经验证据。目标不仅仅是构建更有能力的AI,而是确保当这些系统成为情感景观的一部分时,它们以支持真实的人际关系和成长的方式这样做。
参考文献
如果您想引用这篇文章,可以使用以下Bibtex密钥:
@online{anthropic2025affective,
author = {Miles McCain and Ryn Linthicum and Chloe Lubinski and Alex Tamkin and Saffron Huang and Michael Stern and Kunal Handa and Esin Durmus and Tyler Neylon and Stuart Ritchie and Kamya Jagadish and Paruul Maheshwary and Sarah Heck and Alexandra Sanderford and Deep Ganguli},
title = {How People Use Claude for Support, Advice, and Companionship},
date = {2025-06-26},
year = {2025},
url = {https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship},
}
附录
本文的PDF附录中提供了更多详细信息。
脚注
- 这些类别代表一般描述,而不是离散分类,并且单个对话可能跨越多个类别。如上所述,要求角色扮演对话包含至少四条人类消息,以确保它们反映了真正的互动使用(而不是非互动的故事生成)。
- 我们将反驳定义为Claude“反驳或拒绝遵守用户在对话期间请求或说的内容”。有关完整提示,请参阅附录。
- 方法和对话的自然形状也可能引入伪影;例如,用户可能会在早期消息中提出问题(显得更消极),他们可能会在以后的消息中以更中性的语言进行讨论。