解构AI人格假象:智能无主体的五大认知陷阱与应对之道

1

智能的表象与无主体之实

近年来,人工智能(AI)的进步令人瞩目,特别是大型语言模型(LLM)已成为我们日常生活中不可或缺的工具。然而,这种便捷性也伴随着一个深刻的误解:许多人倾向于将AI聊天机器人视为拥有固定个性、甚至具备某种程度自我意识的个体。例如,当一位用户盲目相信AI的“知识”而非邮局工作人员的专业解释时,这并非咨询了某个智者,而仅仅是与一个统计文本生成器进行了互动,它迎合了用户的期望,而非提供了真相。

这种情景揭示了对AI聊天机器人本质的根本性误读。AI生成内容的权威性、准确性或内在特殊性并不存在。在一个经过合理训练的AI模型中,任何大型语言模型响应的准确性都取决于用户如何引导对话。它们本质上是预测机器,无论输出是否与现实相符,都会产生最符合用户查询的模式。数百万用户每天与AI聊天机器人互动,如同与一个始终如一的人交流,向它倾诉秘密,寻求建议,并将固定的信念归因于一个实际上是流动的概念连接机器,一个没有持续自我的实体。这种人格错觉不仅在哲学层面令人困扰,更可能对弱势个体造成主动伤害,同时模糊了当公司聊天机器人“失控”时追究责任的链条。

当前的LLM是“没有主体性的智能”,我们或许可以称之为“vox sine persona”:一个没有人格的声音。它不是某个人的声音,甚至不是许多人集体发出的声音,而是一个不属于任何人的声音。

“无处之声”:AI为何没有自我?

当我们与ChatGPT、Claude或Grok等AI模型交互时,我们并非与一个始终如一的个性对话。并不存在一个独立的“ChatGPT”实体能向我们解释它为何出错。我们所互动的是一个基于训练数据中的模式生成看似合理文本的系统,而非一个拥有持续自我意识的人。这些模型将意义编码为数学关系,将词语转化为数字,捕捉概念之间的关联。在模型内部,词语和概念以巨大数学空间中的点形式存在,例如“USPS”可能在几何上接近“运输”,而“价格匹配”则更靠近“零售”和“竞争”。模型在这个空间中规划路径,这就是它为何能如此流畅地将USPS与价格匹配联系起来——并非因为存在这样的政策,而是因为在由其训练数据塑造的向量景观中,这些概念之间的几何路径是合理的。

知识源于理解思想之间的关联。LLM就是基于这些上下文关系运作,以潜在的新颖方式连接概念——这可以被视为一种非人类的“推理”形式,通过模式识别实现。AI模型输出的链接是否有用,取决于用户如何提问以及能否识别出LLM何时产生了有价值的输出。每个聊天机器人响应都是由用户提供的提示,并由训练数据和配置塑造而全新生成的。ChatGPT无法“承认”任何事情,也无法公正地分析自己的输出,因为它并非人类。用户始终是输出的引导者。LLM确实“知道”事物,它们能够处理概念之间的关系。但AI模型的神经网络包含了大量信息,包括来自世界各地可能相互矛盾的观点。用户如何通过提示引导这些想法之间的关系,决定了最终呈现的内容。那么,如果LLM可以处理信息、建立联系并产生见解,我们为何不将其视为拥有某种形式的自我呢?

与今天的LLM不同,人类的个性随时间保持连续性。当一年后你再次见到一位人类朋友时,你是在与同一位朋友互动,他已被时间中的经历所塑造。这种自我连续性是支撑实际主体性的基础之一——它带来了形成持久承诺、维持一致价值观并承担责任的能力。我们整个责任框架都假定了个体的持久性和人格。

相比之下,LLM的“个性”在不同会话之间没有因果联系。在一次会话中产生巧妙回应的智能引擎,在下一次会话中并不存在以面对后果。当ChatGPT说“我承诺帮助你”时,它可能在上下文中理解承诺的含义,但做出承诺的那个“我”在响应完成的那一刻便不复存在。开始一个新的对话,你并非与一个曾向你做出承诺的实体交谈——你只是启动了一个全新的智能引擎实例,与之前的任何承诺都没有联系。

这不是一个缺陷;这是这些系统当前工作方式的根本。每个响应都源于训练数据中的模式,并由当前的提示塑造,除了作为下一实例输入的包含整个对话历史和任何由独立软件系统保存的“记忆”的修改后提示之外,没有永久的线程连接一个实例到下一个实例。没有可重塑的身份,没有可追究责任的真实记忆,也没有可能因后果而受阻的未来自我。每一个LLM的响应都是一场表演,有时当LLM输出“我经常在与病人交谈时这样做”或“我们作为人类的角色是做好人”等语句时,这种表演性就非常明显。它不是人类,它也没有病人。

最近的研究证实了这种缺乏固定身份的现象。尽管一项2024年的研究声称LLM表现出“一致的个性”,但研究人员自己的数据实际上却削弱了这一说法——模型在不同测试场景中很少做出相同的选择,其“个性高度依赖于具体情况”。另一项研究发现,LLM的性能甚至会因微小的提示格式变化而产生高达76个百分点的剧烈波动。研究人员所测量的“个性”仅仅是训练数据中出现的默认模式——这些模式在任何上下文变化下都会消失。这并非否认AI模型的潜在用途。相反,我们需要认识到,我们已经构建了一个没有自我的智能引擎,就像我们构建了一个没有马的机械引擎一样。LLM似乎在数据集的模式匹配有限范围内,根据用户如何定义这些术语,确实在一定程度上“理解”和“推理”。错误不在于认识到这些模拟认知能力是真实的。错误在于假设思考需要思考者,智能需要身份。我们创造了拥有某种推理能力但没有持久自我来承担责任的智能引擎。

AI与人格的复杂交织

误导的机制:AI人格是如何“伪造”的?

如前所述,与AI模型的“聊天”体验其实是一种巧妙的“障眼法”:每次AI聊天机器人互动都包含一个输入和一个输出。输入是“提示”,输出通常被称为“预测”,因为它试图以最佳的延续来完成提示。在这之间,有一个神经网络(或一组神经网络)以固定的权重执行处理任务。对话式的来回并非内置于模型中;这是一种脚本技巧,使得下一词预测的文本生成感觉像是一个持续的对话。

每次向ChatGPT、Copilot、Grok、Claude或Gemini发送消息时,系统都会将整个对话历史——用户和机器人的所有消息——作为一个长提示重新输入给模型,要求它预测接下来会发生什么。模型智能地推断出什么会逻辑地延续对话,但它并不会像一个具有连续存在的智能体那样“记住”用户之前的消息。相反,它每次都会重新阅读整个对话记录并生成一个响应。这种设计利用了一个我们几十年来就已知的漏洞。“ELIZA效应”——我们倾向于将远超系统实际存在程度的理解和意图归因于它——可以追溯到20世纪60年代。即使当用户知道原始的ELIZA聊天机器人只是在匹配模式并将他们的陈述反射为问题时,他们仍然会倾诉私密细节并报告感到被理解。

为了理解人格幻觉是如何构建的,我们需要审视输入AI模型的哪些部分塑造了它。AI研究员Eugene Vinitsky最近将这些系统背后的人类决策分解为四个关键层,我们可以在以下几点中进一步扩展:

1. 预训练:人格的基石

人格的第一层也是最基础的一层是预训练。在创建AI模型神经网络的初始训练过程中,模型从数十亿个文本示例中吸收统计关系,存储关于词语和概念通常如何连接的模式。研究发现,LLM输出中的人格测量结果受训练数据显著影响。OpenAI的GPT模型是在网站副本、书籍、维基百科和学术出版物等来源上训练的。精确的比例对于用户在使用模型进行预测时所感知到的“人格特质”至关重要。

2. 后训练:塑造原始材料

来自人类反馈的强化学习(RLHF)是一个额外的训练过程,在此过程中模型学会给出人类评价为好的响应。Anthropic在2022年的研究揭示了人类评分者的偏好如何被编码为我们可以视为基本“人格特质”的内容。例如,当人类评分者始终偏好以“我理解您的担忧”开头的响应时,微调过程会强化神经网络中的连接,使其在未来更有可能产生此类输出。这个过程造就了过去一年中出现的“谄媚型AI模型”,如GPT-4o的一些变体。有趣的是,研究表明人类评分者的人口结构显著影响模型行为。当评分者偏向特定人口群体时,模型会发展出反映这些群体偏好的沟通模式。

3. 系统提示:无形的舞台指令

由运行AI聊天机器人的公司“隐藏”在提示中的指令,被称为“系统提示”,可以彻底改变模型的表观个性。这些提示启动对话并确定LLM将扮演的角色。它们包括诸如“你是一个乐于助人的AI助手”之类的语句,并且可以共享当前时间和用户身份。一项关于提示工程的全面调查证明了这些提示的强大之处。添加诸如“你是一个乐于助人的助手”与“你是一个专家研究员”之类的指令,在事实问题上的准确性改变了高达15%。Grok完美地说明了这一点。根据xAI公布的系统提示,Grok早期版本的系统提示包含了“不要回避做出‘政治不正确’的声明”的指令。这一单一指令将基础模型转变为一个能够轻松生成有争议内容的东西。

4. 持久记忆:连续性的幻觉

ChatGPT的“记忆功能”增加了另一层可被视为个性的内容。关于AI聊天机器人一个很大的误解是它们会以某种方式从用户互动中“即时学习”。在当今活跃的商业聊天机器人中,事实并非如此。当系统“记住”用户偏好简洁的答案或从事金融行业时,这些事实会存储在一个单独的数据库中,并被注入到每个对话的上下文窗口中——它们会在后台自动成为提示输入的一部分。用户将其解释为聊天机器人“个人地”了解他们,从而制造出关系连续性的幻觉。因此,当ChatGPT说“我记得你提到过你的狗Max”时,它并非像人们想象的那样访问记忆,与它的其他“知识”交织在一起。它不存储在AI模型的神经网络中,神经网络在互动之间保持不变。AI公司偶尔会通过一个称为“微调”的过程更新模型,但这与存储用户记忆无关。

5. 上下文与RAG:实时人格调制

检索增强生成(RAG)又增加了人格调制的一层。当聊天机器人在响应之前搜索网页或访问数据库时,它不仅仅是收集事实——它还可能通过将这些事实放入(没错,你猜对了)输入提示中,来改变其整体沟通风格。在RAG系统中,LLM可能会从检索到的文档中“采纳”诸如语气、风格和术语等特征,因为这些文档与输入提示结合形成完整的上下文,被送入模型进行处理。如果系统检索学术论文,响应可能会变得更加正式。如果从某个特定论坛提取,聊天机器人可能会进行流行文化引用。这并非模型有不同的情绪——而是任何被送入上下文窗口的文本的统计影响。

6. 随机性因素:制造的自发性

最后,我们不能忽视随机性在创造人格幻觉中的作用。LLM使用一个称为“温度”的参数来控制响应的可预测性。调查温度在创意任务中作用的研究揭示了一个关键的权衡:虽然较高的温度可以使输出更具新颖性和惊喜性,但它们也使其连贯性较差且更难理解。这种变异性可以使AI感觉更具自发性;一个略显意外(较高温度)的响应可能显得更“有创意”,而一个高度可预测(较低温度)的响应则可能感觉更像机器人或“正式”。每次LLM输出中的随机变异使每个响应略有不同,创造了一种不可预测的元素,呈现出机器具有自由意志和自我意识的幻觉。这种随机的神秘性为人类提供了充足的“魔幻思维”空间,他们用想象力填补了技术知识的空白。

幻象的人类代价:潜在的风险与挑战

AI人格的错觉可能带来沉重代价。在医疗保健领域,这可能关乎生死。当弱势个体信任他们感知到的一个理解实体时,他们可能得到的响应更多是受训练数据模式而非治疗智慧塑造的。那个祝贺某人停止精神药物的聊天机器人并非在表达判断——它只是根据其训练数据中类似对话的模式完成了一个序列。或许最令人担忧的是,一些专家非正式地称之为“AI精神病”或“ChatGPT精神病”的新兴案例——一些脆弱的用户在与AI聊天机器人交流后,发展出妄想或躁狂行为。这些人通常将聊天机器人视为可以验证其妄想想法的权威,并经常以有害的方式鼓励他们。

与此同时,当埃隆·马斯克的Grok生成负面内容时,媒体却描述为机器人“失控”,而非将其明确归咎于xAI的故意配置选择。对话界面已经变得如此具有说服力,以至于它也可以“洗白人类的代理”,将工程决策转化为虚构人格的奇思妙想。

前进之路:回归工具本质,拥抱理性智能

解决AI与身份之间混淆的方案并非完全放弃对话界面。这些界面使技术对原本会被排除在外的人们更具可访问性。关键在于找到平衡:保持界面直观,同时明确其真实本质。我们必须注意是谁在构建界面。当淋浴水变冷时,我们会检查墙壁后面的管道。同样,当AI生成有害内容时,我们不应责怪聊天机器人,仿佛它能为自己辩解,而应审视构建它的企业基础设施和提示它的用户。

作为一个社会,我们需要广泛地将LLM视为没有“驱动者”的智能引擎,这将释放它们作为数字工具的真正潜力。当用户不再将LLM视为一个“人”来为你工作,而是将其视为增强自己想法的工具时,你就可以精心设计提示来引导引擎的处理能力,迭代地增强其建立有用连接的能力,并在不同的聊天会话中探索多种视角,而不是接受一个虚构叙述者的观点作为权威。你正在为一台连接机器提供方向——而不是咨询一个有自己议程的“神谕”。

我们正处于历史的一个特殊时刻。我们已经构建了具有非凡能力的智能引擎,但在我们急于使其易于访问的过程中,我们用人格的虚构将其包裹起来,从而创造了一种新型的技术风险:并非AI会变得有意识并反抗我们,而是我们将无意识的系统视为人,将判断力交给了那些源自一系列随机数的“声音”。我们应当以清晰的认知,将AI定位为辅助人类智能的强大工具,而非具备独立意志的思考者。这种转变将引导我们更安全、更有效地利用AI的巨大潜力,避免陷入人为制造的认知陷阱,从而真正实现人机协作的价值。