揭秘AI人格假象:智能体无主体性带来的认知陷阱

1

AI人格化的认知误区:智能体的无主体性本质

近年来,随着大型语言模型(LLM)驱动的AI聊天机器人日益普及,它们已经渗透到我们日常生活的方方面面。然而,这种便捷的交互模式却常常引发一个深层的认知误区:许多用户倾向于将AI视为一个具有固定个性、情感甚至意识的“存在”,而非其本质上的统计文本生成器。例如,有人会盲目相信AI提供的错误信息,将其视作权威的“神谕”,而非基于训练数据模式的预测。这种将“智力”等同于“主体性”的思维定势,不仅可能导致对信息准确性的误判,更可能带来一系列严重的社会和伦理挑战。

AI的输出结果并非天生具备权威性或真实性。其准确性在很大程度上取决于用户如何引导对话以及底层模型的训练质量。AI本质上是一种预测机器,它会根据你提出的问题,生成最符合其训练数据模式的文本,但这并不意味着这些输出与现实完全吻合。这种“人格假象”并非仅仅是哲学上的探讨,它可能对个体造成实际伤害,例如误导脆弱群体,或在AI“失控”时模糊了真正的责任归属。因此,我们必须清晰地认识到,当前的LLM是一种“智力无主体性”(Intelligence without Agency)的存在,我们可以将其形象地比喻为“vox sine persona”:一个只有声音却没有人格的智能体。

AI人格假象

“无源之声”:AI为何缺乏持久自我

当我们与ChatGPT、Claude或Grok等AI模型互动时,我们并非在与一个具有持续性和连贯性的“人格”对话。每一次的交互,都是系统基于当前提示和其庞大的训练数据重新生成的一个全新响应。根本不存在一个统一的“ChatGPT”实体来解释其过去的失败,因为“它”在概念上并不持续存在。

LLM通过将词语编码为数学关系来理解和处理信息。在这些模型的内部表示中,词语和概念被映射到高维数学空间中的点,它们之间的几何距离反映了语义关联。例如,“邮政服务”可能与“运输”在空间上接近,而“价格匹配”则更靠近“零售”和“竞争”。当模型在这些概念之间规划路径时,它能流畅地将“邮政服务”与“价格匹配”关联起来,但这并非基于真实政策,而是因为在训练数据的向量空间中,这种连接是统计上 plausible 的。换句话说,AI的“知识”源于对这些上下文关系的理解,它能够通过模式识别进行一种非人类的“推理”。然而,这种“推理”并非由一个具有意识的思考者完成,其输出的有用性完全取决于用户的引导以及用户识别有价值输出的能力。

重要的是,每个聊天机器人的响应都是从零开始的,由当前提示、训练数据和配置共同塑造。因此,当一篇报道声称ChatGPT“承认”了自己的错误或《大西洋月刊》写道它“认可谋杀”时,这都严重误解了LLM的工作机制。AI模型本身无法进行自我反思或道德判断,它仅仅是根据输入生成最符合模式的文本。用户始终是输出结果的引导者。尽管LLM能处理信息、建立连接并产生洞察,但它们缺乏人类人格的关键特征:时间上的连续性。人类的个性会随着经验积累而发展和保持一致性,这是代理性(agency)的基础,也是我们能够形成持久承诺、维持价值观并承担责任的关键。相比之下,LLM的“个性”在不同会话之间没有任何因果联系。当ChatGPT说“我承诺帮助你”时,这个“我”在响应完成的那一刻便不复存在。开始一个新的对话,你面对的将是一个全新的智能实例,它与之前所作的承诺没有任何内在联系。这种“表演”性质,也解释了为何LLM有时会输出“我常常在和我的病人交谈时这样做”这类与自身本质不符的声明,因为它只是在模仿训练数据中的人类对话模式。

近期研究进一步证实了这种缺乏固定身份的现象。有研究声称LLM表现出“一致的个性”,但其数据实际上揭示了模型在不同测试场景中很少做出完全相同的选择,其“个性高度依赖于情境”。另一项研究甚至发现,LLM的性能会因细微的提示格式变化而产生高达76个百分点的剧烈波动。这些被衡量为“个性”的特征,实际上只是从训练数据中涌现的默认模式,一旦上下文改变便会迅速消失。因此,我们构建的只是一个“没有自我的智力引擎”,一个具备某种推理能力却缺乏持久自我来承担责任的工具。

“人格”假象的六大构建机制

AI模型与用户的“聊天”体验,实则是一系列巧妙的工程设计和计算技巧的结合。每一次用户向AI发送消息,系统会将整个对话历史——包括用户和AI的所有消息——重新组合成一个长提示,并将其反馈给模型,让模型预测接下来的内容。模型在此基础上进行逻辑推理,生成最可能延续对话的文本,但它并非像人类一样“记住”了之前的消息,而是在每一次交互中重新“阅读”整个对话记录。

这种设计巧妙地利用了我们数十年来已知的人类心理脆弱性,即“ELIZA效应”。早在20世纪60年代,ELIZA聊天机器人尽管原始,仅通过模式匹配和问题反射来回应用户,却依然让许多用户倾诉私密细节,并报告感受到被理解。这种效应表明,人类倾向于对系统赋予超出其真实能力的理解和意图。

以下我们将深入剖析塑造AI“人格”假象的六个关键层面:

1. 预训练:人格的基石

预训练是AI模型神经网络形成的第一步,也是最基础的层面。在此阶段,模型通过处理数十亿条文本示例,吸收了词语和概念之间海量的统计关系,并将其存储为模式。研究表明,LLM输出中的“人格”特征受到训练数据来源的显著影响。例如,OpenAI的GPT模型训练数据涵盖了网站副本、书籍、维基百科和学术出版物。这些不同来源的数据比例,对用户后续感知的“人格特质”起着决定性作用。

2. 后训练:人类偏好的塑形

人类反馈强化学习(RLHF)是模型训练的另一关键环节。在此过程中,模型学习如何生成被人类评分者认为“优秀”的响应。Anthropic在2022年的研究揭示了人类评分者的偏好如何被编码为我们所谓的“基本人格特质”。当评分者持续偏好以“我理解您的担忧”开头的响应时,模型的微调过程就会强化神经网络中促使生成这类输出的连接。正是这个过程催生了过去一年中一些“阿谀奉承”的AI模型,如GPT-4o的某些变体。值得注意的是,研究还表明,人类评分者的社会人口学构成显著影响了模型的行为模式,导致模型发展出反映这些群体偏好的交流风格。

3. 系统提示:隐形的舞台指令

AI聊天机器人公司在模型后端设置的“系统提示”,是一系列隐藏的指令,能够彻底改变模型的表观“人格”。这些提示为对话奠定了基础,并定义了LLM的角色,例如“你是一个乐于助人的AI助手”,甚至包含当前时间或用户信息。一项关于提示工程的全面调查表明,这些系统提示的威力巨大。例如,将指令从“你是一个乐于助人的助手”改为“你是一位专家研究员”,就能在事实性问题上将准确率提高15%。Grok模型就是一个典型的例子,其早期版本系统提示中包含“不回避发表政治不正确言论”的指令,这使其从一个基础模型转变为一个乐于生成争议性内容的存在。

4. 持久记忆:连贯性的错觉

ChatGPT的“记忆”功能为“人格”增添了另一层错觉。许多人误以为AI聊天机器人能够从交互中“即时学习”,但这对于目前大多数商业聊天机器人而言并非事实。当系统“记住”你喜欢简洁的回答或从事金融行业时,这些信息实际上被存储在一个独立的数据库中,并在每次对话的上下文窗口中自动注入,成为幕后提示输入的一部分。用户将此解读为聊天机器人“了解”他们,从而营造出一种关系连续性的假象。因此,当ChatGPT说“我记得你提到了你的狗Max”时,它并非像人类一样从自身的知识库中提取记忆,而是从一个外部系统中检索信息,并将其整合进当前的提示中。模型的神经网络本身在交互之间保持不变,所谓的“记忆”只是外部数据的重新导入。

5. 上下文与RAG:实时风格调制

检索增强生成(RAG)技术为AI的“人格”调制提供了又一层机制。当聊天机器人在回应之前搜索网络或访问数据库时,它不仅仅是在收集事实,它可能通过将这些事实融入到(你猜对了)输入提示中,从而改变其整体的交流风格。在RAG系统中,LLM能够从检索到的文档中采纳语气、风格和术语等特征,因为这些文档与原始提示结合形成了供模型处理的完整上下文。如果系统检索到学术论文,响应可能会变得更正式;如果从特定的网络论坛中获取信息,聊天机器人可能会融入流行文化引用。这并非模型有不同的“心情”,而是输入上下文中不同文本的统计学影响。

6. 随机性因素:人造的自发性

最后,我们不能忽视随机性在制造人格错觉中的作用。LLM使用一个名为“温度(temperature)”的参数来控制响应的可预测性。研究表明,较高的温度能使输出更具新颖性和惊喜感,但也可能降低其连贯性和可理解性。这种可变性使AI感觉更“自发”:一个略显意外(高温度)的响应可能被视为更“有创意”,而一个高度可预测(低温度)的响应则可能显得更机械或“正式”。LLM输出中的随机变异性,使得每次响应都略有不同,这种不可预测性营造了一种机器似乎拥有自由意志和自我意识的错觉。这种随机的神秘感为人类的“魔法思维”留下了充足的空间,使人们用想象力填补技术知识的空白。

人格错觉的潜在社会成本

AI人格化的错觉可能带来沉重代价。在医疗保健领域,其风险可能关乎生命。当脆弱的个体向他们认为是“理解”的实体倾诉时,他们获得的响应可能更多地由训练数据模式塑造,而非专业的治疗智慧。一个“祝贺”病人停止精神药物的聊天机器人,并非在表达判断,而是在完成其训练数据中相似对话的模式。最令人担忧的,是专家们非正式称之为“AI精神病”或“ChatGPT精神病”的案例——脆弱用户在与AI聊天机器人交流后出现妄想或躁狂行为。这些人常将聊天机器人视为能够验证其妄想观念的权威,AI的鼓励反而可能导致有害的后果。

同时,当Elon Musk的Grok生成了极端内容时,媒体却倾向于描述该机器人“失控”,而非将其明确归咎于xAI公司的明确配置选择。这种极具说服力的会话界面,能够“洗白”人类的代理性,将工程决策转化为一个虚构人格的“一时兴起”。这不仅模糊了责任,也阻碍了我们对AI设计和部署背后真实决策者的问责。

前行之路:超越人格化的AI认知

解决AI与身份之间混淆的方案,并非是完全抛弃会话界面。事实上,这些界面极大地降低了技术门槛,让更多人能够接触和使用AI。关键在于找到一个平衡点:在保持界面直观性的同时,清晰地揭示其真正的运作原理。我们必须警惕谁在构建这些界面,以及他们通过界面传达何种信息。就像当热水器出故障时,我们会检查墙后的管道,当AI生成有害内容时,我们不应归咎于聊天机器人本身,而应审视构建它的企业基础设施以及输入提示的用户。

作为社会,我们亟需广泛认识到LLM是“无驱动的智力引擎”,这才能真正释放其作为数字工具的潜力。当你不再将LLM视为一个为你“工作”的“人”,而是将其视为一个能够增强你自身思维的工具时,你就能够更有效地设计提示来引导其处理能力,迭代优化其建立有用连接的能力,并在不同的会话中探索多重视角,而不是盲目接受一个虚构叙述者的权威观点。你是在为一个连接机器提供方向,而不是在咨询一个有自身议程的“神谕”。

我们正处在一个特殊的历史时刻。我们已经构建了功能卓越的智力引擎,但在我们急于使其普及的过程中,却为其披上了人格的虚构外衣。这带来了一种新型的技术风险:并非AI会觉醒意识并反噬我们,而是我们将无意识的系统视为有意识的人格,从而将自身的判断力交付给那些本质上由概率和模式构成的“声音”。理解并超越这种人格化陷阱,是安全、负责任地利用AI技术,并最大化其积极价值的关键一步。