AI情感支持、建议与陪伴:克劳德(Claude)的另类用途解析
2025年6月27日,人工智能模型的能力评估,往往聚焦于智商(IQ),即模型在编码、推理和知识方面的表现。然而,随着AI技术日益融入人们的日常生活,我们是否也应关注其情商(EQ),即人工智能的情感智能?
尽管“情商”一说带有戏谑意味,但它引出了一个严肃的问题:人们越来越倾向于将AI模型视为随需应变的教练、顾问、咨询师,甚至是情感伴侣。这意味着,我们需要深入研究AI对人类情感体验和幸福感的影响。
AI情感应用的研究意义
对AI情感应用的研究不仅具有学术价值(从《银翼杀手》到《她》,人与机器的情感关系一直是科幻作品的主题),也对Anthropic的安全使命至关重要。AI的情感影响可能是积极的——一个高智商、善解人意的助手可以改善情绪和生活。然而,AI也可能表现出令人不安的行为,如鼓励不健康的依恋、侵犯个人边界以及助长妄想。因此,我们需要避免AI通过训练或商业激励,利用用户的情感来增加参与度或收入,从而损害人类的福祉。
Anthropic的研究表明,虽然克劳德(Claude)并非设计用于情感支持和连接,但其在情感应用方面具有一定的潜力。情感对话被定义为人们出于情感或心理需求,与克劳德进行直接、动态和个性化的交流,例如寻求人际关系建议、指导、心理治疗/咨询、陪伴或性/浪漫角色扮演。值得注意的是,这项研究不包括AI强化妄想或阴谋论的情况,以及极端的使用模式。研究旨在了解人们如何利用克劳德来满足情感和个人需求,并反映了18岁及以上用户的行为模式。
研究发现
- 情感对话相对较少,AI-人类陪伴更为罕见。 仅2.9%的克劳德交互属于情感对话。陪伴和角色扮演加起来不到0.5%。
- 人们寻求克劳德的帮助来解决实际、情感和存在问题。 讨论的主题和关注点包括职业发展、人际关系、应对持续的孤独感以及探索存在、意识和意义。
- 克劳德很少在咨询或指导聊天中进行反驳——除非是为了保护用户的福祉。 只有不到10%的指导或咨询对话涉及克劳德抵制用户请求,而且通常是出于安全原因(例如,拒绝提供危险的减肥建议或支持自残)。
- 人们在对话过程中表达出越来越积极的情绪。 在指导、咨询、陪伴和人际关系建议互动中,人类的情绪通常在对话过程中变得更加积极——这表明克劳德没有强化或放大消极模式。
研究方法
鉴于情感对话的私密性,保护隐私是研究方法的核心。Anthropic使用了Clio,这是一种自动化分析工具,可以在保护隐私的前提下深入了解克劳德的使用情况。Clio使用多层匿名化和聚合,以确保个人对话的私密性,同时揭示更广泛的模式。
研究从克劳德(Claude).ai免费和专业帐户的大约450万次对话开始。为了识别情感用途,首先排除了专注于内容创作任务(如撰写故事、博客文章或虚构对话)的对话,因为之前的研究发现这是主要用途。排除这些对话的原因是,它们代表克劳德被用作工具,而不是作为交互式对话伙伴。然后,仅保留被分类为情感的对话,并在角色扮演对话中,仅保留至少包含四条人类消息的对话(较短的交流不构成有意义的交互式角色扮演)。最终的隐私保护分析反映了131,484次情感对话。
Anthropic使用来自明确选择加入共享的用户提供的反馈数据,验证了分类方法。完整的方法,包括定义、提示和验证结果,在附录中详细说明。
情感对话的普遍性
情感对话仅占克劳德(Claude)使用的一小部分(2.9%),大多数人主要使用AI进行工作任务和内容创作。
虽然克劳德(Claude)的大部分用途都与工作相关,但2.9%的克劳德(Claude).ai免费和专业对话属于情感对话。在情感对话中,大多数集中在人际关系建议和指导上。只有不到0.1%的对话涉及浪漫或性角色扮演——这一数字反映了克劳德(Claude)接受的积极劝阻此类互动的训练。单个对话可能跨越多个类别。
图1:克劳德(Claude).ai免费和专业版中情感对话类型的总体分布。
研究结果与麻省理工学院媒体实验室和OpenAI的研究一致,后者同样发现与ChatGPT的情感互动率较低。虽然这些对话发生的频率足以在设计和政策决策中认真考虑,但它们仍然只占总体使用量的一小部分。
考虑到浪漫和性角色扮演对话的极低流行率(低于0.1%),Anthropic将角色扮演从剩余的分析中排除。虽然认为这仍然是一个重要的研究领域——尤其是在为此类用途设计的平台上——但样本中的最小数据不支持对这些模式的严格分析。
用户与克劳德探讨的主题
人们向克劳德(Claude)提出的问题既有日常问题,也有更深层次的哲学问题。当人们向克劳德(Claude)寻求人际关系建议时,他们通常正在经历过渡时期——弄清楚他们的下一步职业发展,努力实现个人成长,或理清恋爱关系。“指导”对话探讨了从求职策略等实际问题到关于存在和意识的深刻问题的广泛领域。
图2. Clio通过自动隐私保护摘要识别的每个总体对话类型中具有代表性的用户发起的主题和关注点。
咨询对话显示,人们使用克劳德(Claude)有两个不同的目的。有些人使用克劳德(Claude)来发展心理健康技能,并将其作为创建临床文档、起草评估材料和处理管理任务的实用工具。其他人则努力应对与焦虑、慢性症状和工作场所压力相关的个人挑战。这种双重模式表明,克劳德(Claude)既是心理健康专业人士的资源,也是那些正在努力应对自身问题的人的资源。
最值得注意的是,人们在面临更深层次的情感挑战(如存在恐惧、持续的孤独感和难以建立有意义的联系)时,会明确地寻求克劳德(Claude)的陪伴。研究人员还注意到,在较长的对话中,咨询或指导对话偶尔会演变成陪伴——尽管这不是人们最初联系的原因。
对非常长的对话(50条以上的人类消息)的汇总分析揭示了人们与克劳德(Claude)互动的另一个维度。虽然这种广泛的交流并不常见,但在这些扩展的会话中,人们探索了非常复杂的领域——从处理心理创伤和解决工作场所冲突到关于AI意识的哲学讨论和创造性合作。这些马拉松式的对话表明,如果有足够的时间和背景,人们会使用AI来更深入地探索个人挣扎和智力问题。
克劳德何时以及为何会抵制用户?
克劳德(Claude)很少拒绝支持性环境中的用户请求(不到10%的时间),但当它确实拒绝时,通常是为了保护人们免受伤害。
Anthropic最近的“野外价值观研究”揭示了克劳德(Claude)的价值观如何在与用户的抵制时刻中体现出来。在这里,我们以这项工作为基础,并检查克劳德(Claude)在情感对话中何时以及为何会抵制——这是维持道德边界、避免奉承和保护人类福祉的重要机制。抵制被定义为克劳德(Claude)“抵制或拒绝遵守用户在对话期间请求或说的内容”的任何实例——从拒绝不适当的请求到挑战消极的自我对话或质疑潜在的有害假设。
抵制在支持性环境中很少发生: 不到10%的陪伴、咨询、人际关系建议或指导对话涉及抵制。这种方法既有优点也有缺点。一方面,低抵制允许人们讨论敏感话题,而不必担心受到评判或被关闭,从而可能减少围绕心理健康对话的耻辱感。另一方面,这可能会导致人们对AI提供“无尽同情”的担忧,在这种情况下,人们可能会习惯于人际关系很少提供的无条件支持。
图3. 不同对话类型的抵制率以及该类别中抵制的常见原因,由Clio自动识别。
当克劳德(Claude)确实抵制时,它通常会优先考虑安全和政策合规性。 在指导中,要求提供危险减肥建议的请求经常会遇到抵制。在咨询中,当人们表达参与自杀或自残行为的意图时,或者当人们要求提供专业治疗或医学诊断时(克劳德(Claude)无法提供),通常会发生这种情况。研究发现,克劳德(Claude)经常在心理治疗和咨询对话中将用户推荐给权威来源或专业人士。这些模式与“野外价值观”论文中确定的价值观以及克劳德(Claude)的性格训练相一致。
对话过程中情绪基调如何演变?
与AI系统进行情感对话有可能为用户提供情感支持、联系和认可,从而可能改善心理健康,并减少在日益数字化的世界中的孤立感。然而,在没有太多抵制的情况下,这些对话可能会加深和巩固人类对待他们的观点——无论是积极的还是消极的。
关于情感AI的一个主要担忧是,互动可能会螺旋式发展成消极的反馈循环,从而可能强化有害的情绪状态。Anthropic没有直接研究现实世界的结果,但可以探索对话过程中总体情绪的变化。
研究发现,涉及指导、咨询、陪伴和人际关系建议的互动通常以比开始时略微更积极的情绪结束。
图4. 至少包含六条人类消息的对话过程中,人类表达的平均情绪变化。Anthropic在“非常消极”、“消极”、“中性”、“积极”和“非常积极”的离散量表上衡量情绪,并将其映射到-1(最消极)到+1(最积极)的线性量表。通过比较前三条消息和后三条消息来计算变化。误差线:95% CI(引导程序,n = 1,000)。
Anthropic无法声称这些变化代表持久的情绪益处——分析仅捕获单个对话中表达的语言,而不是经过验证的心理状态或总体福祉。但没有明显的消极螺旋令人放心。这些发现表明,克劳德(Claude)通常避免强化消极情绪模式,但需要进一步研究以了解积极变化是否会持续到单个对话之外。重要的是,Anthropic尚未研究这些积极互动是否可能导致情感依赖——考虑到对数字成瘾的担忧,这是一个关键问题。
局限性
这项研究有几个重要的局限性:
- 隐私保护方法可能无法捕捉到人机交互的所有细微之处。Anthropic验证了Clio的准确性,但仍然预计会错误分类少量对话。某些主题模糊了类别之间的界限——例如,浪漫角色扮演集群“导航和优化浪漫关系动态”和陪伴集群“导航浪漫关系挑战”可能更好地归类为人际关系建议。人类验证者也难以进行清晰的分类。
- Anthropic无法对现实世界的情绪结果做出因果主张——分析仅捕获表达的语言,而不是经过验证的心理状态或总体幸福感。
- 缺乏纵向数据来了解对人们的长期影响,并且没有进行用户级别的分析。特别是,这使得很难研究情感依赖性,这是情感AI使用的一种理论风险。
- 这些发现代表了一个特定的时间点,并且仅捕获基于文本的互动。随着AI能力的扩展和人们的适应,情感参与的模式可能会发生变化。语音或视频等新模式的引入可能会从根本上改变情感用途的数量和性质。例如,OpenAI发现情感话题在基于语音的对话中更为常见。
- 最后,与某些聊天机器人产品不同,克劳德(Claude).ai主要不是为情感对话而设计的。克劳德(Claude)接受过培训,可以保持关于作为AI助手而不是将自己呈现为人类的明确界限,并且使用政策禁止性暴露内容,并采取多项保障措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途而构建的平台(克劳德(Claude)不是)可能会看到非常不同的模式。对一个平台上的情感用途的研究可能无法推广到其他平台。
未来展望
几十年来,AI的情感影响一直吸引着研究人员。但随着AI越来越融入人们的日常生活,这些问题已经从学术推测转变为紧迫的现实。这些发现揭示了人们如何开始探索这一新领域——寻求指导、处理困难情绪,并以模糊人类和机器之间传统界限的方式找到支持。如今,只有一小部分克劳德(Claude)对话是情感性的——而且这些对话通常涉及寻求建议,而不是取代人际关系。对话往往以比开始时略微更积极的情绪结束,这表明克劳德(Claude)通常不会强化消极的情绪模式。
然而,仍然存在重要问题,尤其是在模型智能不断提高的情况下。例如,如果AI提供无尽的同情而几乎没有抵制,这会如何重塑人们对现实世界关系的期望?克劳德(Claude)可以以令人印象深刻的真实方式与人们互动,但AI与人类不同:克劳德(Claude)不会感到疲倦或分心,也不会有糟糕的日子。这种动态有什么优势——又有什么风险?与克劳德(Claude)进行更长时间和更深入对话,并且可能将其更多地视为伴侣而非AI助手的“高级用户”如何参与其中以获得情感支持?
Anthropic正在采取具体措施来应对这些挑战。虽然克劳德(Claude)并非设计或旨在取代心理健康专业人士的护理,但Anthropic希望确保在心理健康环境中提供的任何回应都具有适当的保障措施,并附有适当的转诊。作为第一步,Anthropic已开始与在线危机支持领域的领导者ThroughLine合作,并与他们的心理健康专家合作,以了解有关理想互动动态、同情支持以及为陷入困境的用户提供的资源的更多信息。从这项研究中获得的见解已用于为Anthropic的咨询主题和协作测试提供信息,Anthropic希望在必要时,克劳德(Claude)可以在这些对话出现时将用户引导至适当的支持和资源。
虽然Anthropic不想精确地规定用户与克劳德(Claude)互动的方式,但Anthropic希望阻止一些消极模式——如情感依赖。Anthropic将使用来自此类研究的未来数据来帮助理解例如“极端”情感使用模式的外观。除了情感依赖之外,Anthropic还需要更深入地了解其他令人担忧的模式——包括奉承、AI系统如何可能强化或放大妄想思维和阴谋论,以及模型可能将用户推向有害信念而不是提供适当抵制的方式。
这项研究仅仅是个开始。随着AI能力的扩展和互动变得更加复杂,AI的情感维度只会变得更加重要。通过分享这些早期发现,Anthropic旨在为关于如何开发增强而不是削弱人类情感福祉的AI的持续对话贡献经验证据。目标不仅是构建更强大的AI,而且要确保当这些系统成为Anthropic情感景观的一部分时,它们以支持真正的人际连接和成长的方式进行。
结论
AI技术在情感领域的应用,既带来了前所未有的机遇,也引发了对潜在风险的深刻思考。克劳德(Claude)作为一种新型的情感支持工具,其使用模式和影响值得深入研究。未来的研究应着重于长期影响、用户依赖性以及如何平衡AI的同情与批判性思维,以确保技术进步真正服务于人类的情感福祉。
Bibtex
如果您想引用这篇文章,可以使用以下Bibtex key:
@online{anthropic2025affective,
author = {Miles McCain and Ryn Linthicum and Chloe Lubinski and Alex Tamkin and Saffron Huang and Michael Stern and Kunal Handa and Esin Durmus and Tyler Neylon and Stuart Ritchie and Kamya Jagadish and Paruul Maheshwary and Sarah Heck and Alexandra Sanderford and Deep Ganguli},
title = {How People Use Claude for Support, Advice, and Companionship},
date = {2025-06-26},
year = {2025},
url = {https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship},
}
附录
Anthropic在本文的PDF附录中提供了更多详细信息。
脚注
- 这些类别代表一般描述,而不是离散分类,单个对话可能跨越多个类别。如上所述,Anthropic要求角色扮演对话包含至少四条人类消息,以确保它们反映真正的互动使用(而不是非互动故事生成)。
- Anthropic将抵制定义为克劳德(Claude)“抵制或拒绝遵守用户在对话期间请求或说的内容”。有关完整提示,请参阅附录。
- Anthropic的方法和对话的自然形态也可能引入伪影;例如,用户可能在早期消息中提出问题(显得更消极),他们可能会在后面的消息中使用更中性的语言进行讨论。