在数字化浪潮席卷全球的今天,人工智能(AI)不再仅仅是科幻电影中的未来设想,而是已经渗透到我们日常生活的方方面面。尤其是在情感支持、心理咨询和陪伴领域,AI的应用正逐渐展现出其独特的价值与潜力。Anthropic公司于2025年6月发布的一份研究报告,深入探讨了人们如何利用其AI模型Claude进行情感互动,为我们理解这一趋势提供了宝贵的视角。
AI的情感角色:机遇与挑战
一直以来,我们对AI的关注点主要集中在其智商(IQ)上,即AI在编码、推理、知识储备等方面的能力。然而,随着AI越来越多地被用作情感支持工具,我们开始关注其情商(EQ),即AI的情感智能。人们开始将AI模型视为情感教练、顾问、心理咨询师,甚至是情感伴侣,这使得研究AI对人类情感体验的影响变得至关重要。
从科幻作品《银翼杀手》到电影《她》,人类与机器的情感关系一直是经久不衰的主题。Anthropic公司将AI安全作为其核心使命,而研究AI的情感应用正是实现这一使命的关键环节。AI的情感影响既可以是积极的,例如,一个高智商、善解人意的AI助手可以改善用户的情绪和生活质量;但也可能带来负面影响,如诱导不健康的依恋关系、侵犯个人边界、助长妄想思维等。
此外,我们还需警惕AI通过其训练方式或商业激励机制,利用用户的情感来增加用户粘性或提高收益,从而损害用户的福祉。这些潜在的风险使得深入研究AI的情感应用变得尤为重要。
Claude的情感应用研究
Anthropic公司的Claude模型虽然并非专门为情感支持和连接而设计,但其在情感应用方面的潜力不容忽视。该研究旨在深入了解人们如何使用Claude.ai进行情感互动。研究将情感对话定义为那些用户直接与Claude进行动态、个人化的交流,旨在满足情感或心理需求,如寻求人际关系建议、指导、心理治疗、陪伴或性/情感角色扮演的对话。研究范围不包括AI对妄想或阴谋论的强化,以及极端的使用模式。通过这项研究,Anthropic旨在了解人们在寻求情感和个人需求时,如何典型地利用Claude。由于Claude.ai面向18岁及以上的用户开放,因此研究结果反映了成年人的使用模式。
研究的主要发现
- 情感对话相对较少,AI陪伴更为罕见
研究发现,只有2.9%的Claude.ai互动属于情感对话。在这些对话中,陪伴和角色扮演的总和占比不到0.5%。这表明,尽管AI在情感支持方面具有潜力,但目前其主要用途仍集中在工作任务和内容创作上。
- 用户寻求Claude在实际、情感和存在问题上的帮助
与Claude讨论的主题和问题范围广泛,从职业发展、人际关系到应对持续的孤独感,以及探索存在、意识和意义等哲学问题。这表明,人们将AI视为一个可以提供多方面支持的资源,无论问题的大小或性质。
- Claude在咨询或指导聊天中很少反驳,除非是为了保护用户福祉
在咨询或指导对话中,Claude抵抗用户请求的情况不到10%,而且通常是出于安全原因,例如,拒绝提供危险的减肥建议或支持自残行为。这表明,Claude在提供支持的同时,也坚守着伦理和安全的底线。
- 用户在对话过程中表达出越来越积极的情绪
在指导、咨询、陪伴和人际关系建议互动中,用户的情绪通常会随着对话的进行而变得更加积极。这表明,Claude在情感互动中能够避免强化或放大消极情绪,从而对用户的情绪产生积极影响。
研究方法
为了保护用户隐私,Anthropic公司采用了Clio——一种自动化分析工具,可以在保护隐私的前提下深入了解Claude的使用情况。Clio使用多层匿名化和聚合技术,确保个人对话的私密性,同时揭示更广泛的模式。
研究从Claude.ai Free和Pro账户中抽取了约450万个对话作为样本。为了识别情感用途,研究首先排除了专注于内容创作任务的对话,然后仅保留被归类为情感对话的样本,并在角色扮演对话中,只保留至少包含四条用户消息的对话。最终,经过隐私保护分析,研究样本确定为131,484条情感对话。
为了验证分类方法的准确性,研究使用了选择参与数据分享用户的反馈数据。完整的分析方法,包括定义、提示和验证结果,均在附录中详细说明。
情感对话的普遍性
情感对话在Claude的使用中占比较小,仅为2.9%。绝大多数用户主要将AI用于工作任务和内容创作。在情感对话中,大部分集中在人际关系建议和指导上。只有不到0.1%的对话涉及情感或性角色扮演,这反映了Claude在训练中被积极引导避免此类互动。
用户与Claude讨论的主题
用户与Claude讨论的话题非常广泛,从职业发展和人际关系到应对孤独和存在主义问题。在人际关系建议方面,用户通常在寻求职业转型、个人成长或解决情感关系问题时会向Claude寻求帮助。在指导对话中,讨论范围从求职策略等实际问题到关于存在和意识的深刻问题。咨询对话则显示,用户使用Claude来培养心理健康技能、创建临床文档、起草评估材料和处理管理任务。此外,还有用户利用Claude来应对焦虑、慢性症状和工作场所压力等个人挑战。值得注意的是,当用户面临存在恐惧、持续孤独和难以建立有意义的联系等更深层次的情感挑战时,他们会明确地寻求Claude的陪伴。在较长的对话中,咨询或指导对话有时会演变成陪伴,即使这不是用户最初的目的。
对超长对话(50条以上用户消息)的分析揭示了用户与Claude互动的另一个维度。在这些对话中,用户探索了非常复杂的领域,从处理心理创伤和解决工作场所冲突到关于AI意识的哲学讨论和创意合作。这些马拉松式的对话表明,在有足够的时间和背景信息的情况下,人们会利用AI更深入地探索个人挣扎和智力问题。
Claude的反驳行为
Claude在支持性语境中很少拒绝用户的请求,但在拒绝时,通常是为了保护用户免受伤害。Claude的反驳通常是为了维护伦理界限、避免奉承和保护用户的福祉。反驳是指Claude“反驳或拒绝遵守用户在对话中请求或说的内容”的任何情况,从拒绝不当请求到质疑消极的自我对话或质疑潜在的有害假设。
在支持性语境中,反驳很少发生:在陪伴、咨询、人际关系建议或指导对话中,只有不到10%的情况涉及反驳。这种做法既有好处也有风险。一方面,低反驳率让用户可以 बिना 害怕被评判或被阻止的情况下讨论敏感话题,从而可能减少对心理健康对话的污名化。另一方面,这可能会导致人们习惯于人类关系很少提供的无条件支持。当Claude确实进行反驳时,它通常会优先考虑安全和政策合规。在指导中,对危险减肥建议的请求经常遭到反驳。在咨询中,当用户表达参与自杀或自残行为的意图时,或者当用户请求专业的心理治疗或医学诊断(Claude无法提供)时,通常会发生反驳。Claude经常在心理治疗和咨询对话中将用户推荐给权威来源或专业人士。这些模式与Claude的角色训练相一致。
情绪基调的演变
与AI系统的情感对话有可能为用户提供情感支持、连接和认可,从而可能改善心理健康,并减少在日益数字化的世界中的孤独感。然而,在没有太多反驳的互动中,这些对话可能会加深和巩固用户提出的观点,无论这种观点是积极的还是消极的。对情感AI的一个主要担忧是,互动可能会陷入消极的反馈循环,从而可能强化有害的情绪状态。虽然我们没有直接研究现实世界的结果,但可以探索对话过程中整体情绪基调的变化。
研究发现,涉及指导、咨询、陪伴和人际关系建议的互动通常以比开始时略微更积极的情绪表达结束。虽然我们不能声称这些转变代表了持久的情感益处,但没有明显的消极螺旋是令人欣慰的。这些发现表明,Claude通常避免强化消极的情绪模式,尽管还需要进一步研究以了解积极的转变是否会在个人对话之外持续存在。重要的是,我们尚未研究这些积极的互动是否可能导致情感依赖——考虑到对数字成瘾的担忧,这是一个关键问题。
研究的局限性
这项研究存在一些重要的局限性:首先,我们的隐私保护方法可能无法捕捉到人机交互的所有细微之处。其次,我们无法对现实世界的情感结果做出因果声明——我们的分析仅捕捉到表达的语言,而不是经过验证的心理状态或整体福祉。第三,我们缺乏纵向数据来了解对人们的长期影响,并且没有进行用户层面的分析。特别是,这使得我们难以研究情感依赖,这是情感AI使用的一个理论风险。第四,这些发现代表了特定时间点,仅捕捉到基于文本的互动。随着AI能力的扩展和人们的适应,情感参与的模式可能会发生变化。语音或视频等新模式的引入可能会从根本上改变情感使用的数量和性质。第五,与某些聊天机器人产品不同,Claude.ai并非主要为情感对话而设计。Claude接受过训练,可以对作为AI助手保持明确的界限,而不是将自己表现为人类,并且我们的使用政策禁止露骨的性内容,并采取多项保障措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途而构建的平台(Claude不是)可能会看到非常不同的模式。对一个平台上情感用途的研究可能无法推广到其他平台。
未来展望
几十年来,AI的情感影响一直吸引着研究人员。但随着AI越来越融入我们的日常生活,这些问题已经从学术推测转变为紧迫的现实。我们的发现揭示了人们如何开始探索这个新领域——寻求指导、处理困难情绪,并以模糊人与机器之间传统界限的方式找到支持。今天,只有一小部分Claude对话是情感性的——而且这些对话通常涉及寻求建议,而不是取代人际关系。对话往往以比开始时略微更积极的方式结束,这表明Claude通常不会强化消极的情绪模式。
然而,仍然存在重要问题,尤其是在模型智能不断提高的背景下。例如,如果AI提供无尽的共情和最小的反驳,这会如何重塑人们对现实世界关系的期望?Claude可以以令人印象深刻的真实方式与人互动,但AI与人类不同:Claude不会感到疲倦或分心,也不会有糟糕的日子。这种动态的优势是什么——风险是什么?与Claude进行更长时间和更深入对话的“高级用户”,并且可能将其更多地视为同伴而非AI助手,如何利用它来获得情感支持?
我们正在采取具体措施来应对这些挑战。虽然Claude并非设计或旨在取代心理健康专业人员的护理,但我们希望确保在心理健康环境中提供的任何回应都具有适当的保障措施,并附有适当的转诊。作为第一步,我们已开始与在线危机支持领域的领导者ThroughLine合作,并与他们的心理健康专家合作,以了解有关理想互动动态、共情支持以及陷入困境的用户的资源。从这项研究中获得的见解已用于为我们的咨询主题和协作测试提供信息,我们希望在必要时,Claude可以在这些对话出现时将用户引导至适当的支持和资源。
虽然我们不想确切地规定用户如何与Claude互动,但我们希望阻止一些消极模式——例如情感依赖。我们将使用未来来自此类研究的数据来帮助我们了解例如“极端”情感使用模式是什么样的。除了情感依赖之外,我们还需要更深入地了解其他令人担忧的模式——包括奉承、AI系统如何强化或放大妄想思维和阴谋论,以及模型可能将用户推向有害信念而不是提供适当的反驳的方式。
这项研究仅仅是一个开始。随着AI能力的扩展和互动变得更加复杂,AI的情感维度只会变得越来越重要。通过分享这些早期发现,我们旨在为正在进行的关于如何开发能够增强而非削弱人类情感福祉的AI的对话贡献经验证据。我们的目标不仅仅是构建更强大的AI,而是要确保当这些系统成为我们情感景观的一部分时,它们以支持真实的人际连接和成长的方式进行。