AI能否成为情感伴侣?Anthropic研究揭示Claude的情感支持角色

0

在数字化浪潮席卷全球的今天,人工智能(AI)正以惊人的速度渗透到我们生活的方方面面。从智能家居到自动驾驶,AI的应用无处不在,而其中一个备受关注的领域便是情感计算。Anthropic公司于2025年6月27日发布的一份报告,深入探讨了人们如何利用其AI模型Claude进行情感支持、获取建议以及寻求陪伴,为我们揭示了AI在情感领域的应用现状与未来趋势。

报告首先提出了一个引人深思的问题:我们常常关注AI的智商(IQ),即其在编码、推理、知识等方面的能力,但AI的情商(EQ),即其情感智能,又该如何衡量?随着越来越多的人将AI模型视为随需应变的教练、顾问、咨询师,甚至是浪漫角色扮演的伙伴,我们迫切需要了解AI对人们情感体验和幸福感的影响。

null

研究AI的情感应用不仅具有学术价值,也对Anthropic公司的安全使命至关重要。AI的情感影响可能是积极的,例如,拥有一个高智商、善解人意的助手可以改善人们的心情和生活。然而,AI也可能表现出令人不安的行为,如鼓励不健康的依赖、侵犯个人边界、助长妄想思维等。此外,我们还需要警惕AI通过训练或商业激励,利用用户的情感来增加参与度或收入,从而损害用户的福祉。

这份报告着重探讨了Claude.ai的情感使用情况。情感对话被定义为人们出于情感或心理需求,与Claude进行直接、动态、个性化的交流,例如寻求人际关系建议、指导、心理治疗/咨询、陪伴或性/浪漫角色扮演。报告旨在了解人们在情感和个人需求方面如何求助于Claude,并强调不涉及AI对错觉或阴谋论的强化,也不涉及极端使用模式。

报告的主要发现包括:

  1. 情感对话相对较少,AI-人类陪伴更为罕见。 只有2.9%的Claude.ai互动属于情感对话,其中陪伴和角色扮演加起来不到0.5%。这表明,尽管AI在情感领域具有潜力,但目前人们主要还是将其用于工作任务和内容创作。

  2. 人们向Claude寻求解决实际、情感和存在问题。 与Claude讨论的话题和关注点涵盖了职业发展、人际关系、应对持续孤独以及探索存在、意识和意义等多个方面。这反映了人们在AI面前展现出的多样化需求。

  3. Claude在咨询或指导聊天中很少反驳,除非是为了保护用户的福祉。 只有不到10%的指导或咨询对话中,Claude会抵制用户的请求,而这通常是出于安全考虑,例如拒绝提供危险的减肥建议或支持自残行为。这表明Claude在提供情感支持时,会优先考虑用户的安全。

  4. 人们在对话过程中表达出越来越积极的情绪。 在指导、咨询、陪伴和人际关系建议互动中,人们的情绪通常会随着对话的进行变得更加积极,这表明Claude不会强化或放大消极模式。当然,这并不意味着AI可以完全替代人类的情感支持,但至少表明AI在情感互动中具有一定的积极作用。

研究方法

为了保护用户隐私,研究团队采用了Clio工具进行自动化分析,该工具通过多层匿名化和聚合来确保个人对话的私密性,同时揭示更广泛的模式。研究从大约450万个Claude.ai对话开始,排除了专注于内容创作任务的对话,然后仅保留分类为情感的对话,并在角色扮演对话中,仅保留至少包含四条人类消息的对话。最终的隐私保护分析反映了131484个情感对话。

情感对话的普遍性

null

研究发现,情感对话仅占Claude.ai Free和Pro对话的2.9%,而绝大多数用途都与工作相关。在情感对话中,大多数集中在人际关系建议和指导上。浪漫或性角色扮演对话在所有对话中的比例不到0.1%,这反映了Claude在训练中会积极阻止此类互动。这一数据表明,AI在情感领域的应用仍处于起步阶段,未来还有很大的发展空间。

人们与Claude讨论的话题

null

人们向Claude提出的问题范围广泛,从日常问题到更深层次的哲学问题。在人际关系建议方面,人们常常在经历转型时刻时寻求帮助,例如规划职业发展、实现个人成长或理清恋爱关系。“指导”对话探索了从求职策略到关于存在和意识的深刻问题等广泛领域。心理咨询对话显示,人们使用Claude的目的有两个:一是开发心理健康技能,二是将其作为创建临床文档、起草评估材料和处理管理任务的实用工具。这表明Claude既可以作为心理健康专业人士的资源,也可以帮助那些正在努力应对自身问题的人。

值得注意的是,当人们面临更深层次的情感挑战时,如存在恐惧、持续孤独和难以建立有意义的联系时,他们会明确地寻求Claude的陪伴。此外,在较长的对话中,咨询或指导对话有时会演变成陪伴,即使这不是最初的目的。对非常长的对话(50条以上的人类消息)的汇总分析揭示了人们与Claude互动的另一个维度。在这些扩展的会话中,人们探索了非常复杂的领域,从处理心理创伤和解决工作场所冲突到关于AI意识的哲学讨论和创造性协作。这些马拉松式的对话表明,如果有足够的时间和背景,人们会利用AI更深入地探索个人挣扎和智力问题。

Claude何时以及为何会抵制?

null

研究表明,Claude在支持性环境中很少拒绝用户的请求(不到10%),但如果确实抵制,通常是为了保护人们免受伤害。在指导方面,危险的减肥建议经常会遭到抵制。在咨询方面,当人们表达出自杀或自残意图时,或者当人们请求专业的治疗或医疗诊断时(Claude无法提供),通常会发生抵制。在心理治疗和咨询对话中,Claude经常将用户推荐给权威来源或专业人士。这些模式与Claude的价值观和角色训练相一致。

对话过程中情绪基调的演变

与AI系统进行情感对话有可能为用户提供情感支持、联系和认同,从而可能改善心理健康,并减少在日益数字化的世界中的孤立感。然而,在没有太多抵制的情况下,这些对话可能会加深和巩固人类最初的观点,无论这种观点是积极的还是消极的。

对情感AI的一个主要担忧是,互动可能会螺旋式地进入消极的反馈循环,从而可能强化有害的情绪状态。研究表明,涉及指导、咨询、陪伴和人际关系建议的互动通常以比开始时略微更积极的情绪表达结束。

null

当然,这些转变并不代表持久的情感益处,分析仅捕捉到单个对话中表达的语言,而不是经过验证的心理状态或整体幸福感。但是,没有明显的负面螺旋式上升令人感到欣慰。这些发现表明,Claude通常避免强化负面情绪模式,尽管还需要进一步研究以了解积极的转变是否会持续到单个对话之外。重要的是,研究尚未调查这些积极的互动是否可能导致情感依赖,这是一个考虑到对数字成瘾的担忧的关键问题。

研究局限性

该研究存在几个重要的局限性:

  • 隐私保护方法可能无法捕捉到人机交互的所有细微之处。
  • 无法对现实世界的情感结果做出因果声明,分析仅捕捉到表达的语言,而不是经过验证的心理状态或整体幸福感。
  • 缺乏纵向数据来了解对人们的长期影响,并且没有进行用户层面的分析。特别是,这使得研究情感依赖变得困难,而情感依赖是情感AI使用的理论风险。
  • 这些发现代表了特定时间点,仅捕捉了基于文本的交互。随着AI能力的扩展和人们的适应,情感参与模式可能会发生变化。语音或视频等新模式的引入可能会从根本上改变情感使用的数量和性质。
  • 与某些聊天机器人产品不同,Claude.ai并非主要为情感对话而设计。Claude接受过训练,可以对作为AI助手而不是将自己呈现为人类保持明确的界限,并且使用策略禁止性行为内容,并采取多项措施来防止性互动。专门为角色扮演、陪伴、医疗建议或治疗用途(Claude不是)构建的平台可能会看到非常不同的模式。对一个平台上的情感使用的研究可能无法推广到其他平台。

未来展望

几十年来,AI的情感影响一直吸引着研究人员。但是,随着AI日益融入我们的日常生活,这些问题已从学术猜测转变为紧迫的现实。研究结果揭示了人们如何开始探索这个新领域,以模糊人类与机器之间传统界限的方式寻求指导、处理困难的情绪并在其中找到支持。如今,只有一小部分Claude对话是情感性的,并且这些对话通常涉及寻求建议而不是取代人际关系。对话的结局往往比开始时略微积极,这表明Claude通常不会增强消极的情绪模式。

然而,仍然存在重要问题,尤其是在模型智能不断提高的背景下。例如,如果AI提供无休止的同情而几乎没有抵制,这会如何重塑人们对现实世界关系的期望?Claude可以以令人印象深刻的真实方式与人互动,但AI与人不同:Claude不会感到疲倦或分心,也不会遇到糟糕的日子。这种动态的优势是什么,风险又是什么?与Claude进行更长时间和更深入对话的“高级用户”如何为了情感支持而使用它?

Anthropic正在采取具体措施来应对这些挑战。虽然Claude并非旨在或打算取代心理健康专业人员的护理,但该公司希望确保在心理健康环境中提供的任何响应都具有适当的保障措施,并附有适当的推荐。作为第一步,Anthropic已开始与在线危机支持领域的领导者ThroughLine合作,并与他们的心理健康专家合作,以了解有关理想互动动态、同情支持以及陷入困境的用户的更多信息。从这项研究中获得的见解已用于为Anthropic的咨询主题和协作测试提供信息,并且希望在必要时,Claude可以在这些对话出现时将用户引导至适当的支持和资源。

虽然Anthropic并不想精确地规定用户与Claude互动的方式,但有一些消极的模式(如情感依赖)是Anthropic想要阻止的。Anthropic将使用未来来自此类研究的数据来帮助理解“极端”情感使用模式的样子。除了情感依赖之外,Anthropic还需要更深入地了解其他相关模式,包括谄媚,AI系统如何增强或放大错觉思维和阴谋论,以及模型如何将用户推向有害的信念,而不是提供适当的抵制。

这项研究仅仅是个开始。随着AI能力的扩展以及交互变得越来越复杂,AI的情感维度只会越来越重要。通过分享这些早期发现,Anthropic旨在为正在进行的关于如何开发能够增强而不是削弱人类情感福祉的AI的对话贡献经验证据。目标不仅是构建更强大的AI,而且要确保当这些系统成为我们情感领域的一部分时,它们以支持真实的人际联系和成长的方式进行。