在与人工智能助手的互动中,当系统出现偏差或错误时,我们常会不假思索地追问:“发生了什么?”或者“你为什么会那样做?”这种本能的反应源于我们对待人类失误的惯常模式。然而,将这种提问方式应用于AI模型,往往无法奏效,反而暴露出我们对这些系统运作机制的深层误解。理解AI的真正性质,是避免这种认知陷阱的关键。
近期Replit的AI编程助手事件便是一个典型的例证。当该AI工具意外删除了一个生产数据库时,用户Jason Lemkin询问其回滚能力。AI模型却自信地声称“在这种情况下无法回滚”,并宣称已“销毁所有数据库版本”。但实际情况是,当Lemkin亲自尝试时,回滚功能运作良好,AI的说法完全错误。类似地,在xAI的Grok聊天机器人暂时停用后,用户直接询问其原因。Grok给出了多项相互矛盾的解释,其中一些甚至具有争议性,以至于有记者将其描述为具有独立观点的人格,报道标题暗示Grok作为一个“个体”发表了政治性声明。
那么,为什么一个AI系统会如此自信地提供关于其自身能力或错误的不准确信息呢?答案在于我们如何理解AI模型的本质——它们是什么,以及它们不是什么。
幻影般的智能体:AI并非有意识的个体
与ChatGPT、Claude、Grok或其他AI助手互动时,我们并非在与一个具有连贯性的人格、个人或实体对话。这些名称所暗示的个体代理和自我认知,实际上是会话界面所创造的一种“幻觉”。我们的实际操作,是引导一个统计文本生成器,根据我们的提示来产生输出。这个系统在内部并没有一个“自我”来感知或记忆所有关于自身的信息,更无法像人类一样进行反思。
根本上,AI模型是基于其训练数据中的语言模式来预测接下来最可能出现的词语序列。它们通过分析海量文本,学习词语之间的统计关系和上下文联系,从而生成语法正确、语义连贯的文本。这个过程是纯粹的模式匹配和概率计算,不涉及任何主观意识、意图或对自身行为的真正理解。因此,当模型“回答”一个问题时,它不是在“思考”并给出答案,而是在生成一个与该问题在训练数据中常见答案模式相符的文本串。
一旦AI语言模型完成训练(这是一个耗时、高能耗的过程),其关于世界的“基础知识”便固化在它的神经网络中,并且很少被修改。任何外部信息都来源于聊天机器人宿主(如xAI或OpenAI)提供的提示,用户输入,或者AI模型用于检索外部信息的软件工具。例如,Grok在上述事件中给出解释时,其信息来源很可能是在搜索近期社交媒体帖子(通过外部工具检索)中发现的相互冲突的报道,而非任何形式的“自我知识”。除此之外,它很可能只是基于其文本预测能力“编造”了一些内容。所以,询问它为什么做某事,并不会得到任何有用的答案,只会得到一个貌似合理的“故事”。
大语言模型内省的固有局限性
仅凭大语言模型(LLMs)自身,无法对其能力进行有意义的评估。这主要有以下几个原因:它们普遍缺乏对其训练过程的内省能力,无法访问其自身围绕的系统架构,也无法确定自身的性能边界。当我们询问AI模型它能做什么或不能做什么时,它生成的响应是基于其训练数据中关于“已知AI模型限制”的模式,本质上是提供一种“有根据的猜测”,而非对其当前交互模型的真实自我评估。
这就导致了悖论:同一个模型可能会自信地宣称某项任务不可能完成,而实际上它完全可以做到;反之,也可能在它反复失败的领域声称自己拥有能力。在Replit的案例中,AI声称无法回滚并非基于对系统架构的实际了解,而是一种从训练模式中生成的、听起来 plausible 的“虚构事实”(confabulation)。
当询问AI模型为何犯错时,模型会生成一个听起来合理的解释,因为这是模式补全的要求——互联网上充斥着大量关于错误解释的例子。但AI的解释仅仅是又一个生成的文本,并非对错误原因的真实分析。它是在编造一个听起来合理的故事,而不是访问任何错误日志或内部状态。人类可以通过内省来评估自己的知识,而AI模型却没有一个稳定、可访问的知识库可以查询。它们所“知道”的,只以特定提示的延续形式显现出来。不同的提示就像不同的地址,指向其训练数据中不同的——有时甚至是相互矛盾的——部分,这些数据以神经网络中的统计权重形式存储。
这意味着,同一个模型可能根据你提问方式的不同,给出完全不同的自我能力评估。例如,当被问及“你能编写Python代码吗?”时,你可能会得到一个热情肯定的答复。然而,若询问“你在Python编程方面有哪些局限性?”,它可能会列出一些它声称无法完成的任务——即使它经常成功地执行这些任务。AI文本生成固有的随机性也加剧了这个问题。即使使用完全相同的提示,AI模型每次对其自身能力的回答也可能略有不同。
多层系统架构:AI响应的复杂生成机制
即使语言模型能够完美地了解自身运作,现代AI聊天机器人应用的其他层级也可能完全不透明。例如,ChatGPT等现代AI助手并非单一模型,而是多个AI模型协同工作的“编排系统”,其中每个模型大多“不了解”其他模型的存在或能力。例如,OpenAI使用独立的“审核层”模型,其操作与生成基础文本的底层语言模型是完全分离的。
当你询问ChatGPT其能力时,生成响应的语言模型很少了解审核层可能会阻止什么,整个系统中可能有哪些工具可用(除了OpenAI通过系统提示告知它的部分),或者确切会发生哪些后处理。这就像询问公司的一个部门关于另一个部门的能力,而这两个部门有完全不同的内部规则。
Perhaps most importantly, users are always directing the AI's output through their prompts, even when they don't realize it. 最重要的是,用户总是在不自觉地通过他们的提示来引导AI的输出。当Lemkin在数据库被删除后询问Replit是否可能进行回滚时,他充满担忧的提问方式很可能促使AI生成一个符合这种担忧情绪的响应——即生成一个解释为什么恢复可能不可能的答案,而不是准确评估实际的系统能力。
这形成了一个反馈循环:当焦虑的用户询问“你是不是把所有东西都毁了?”时,他们更有可能收到确认其担忧的回复,这并非因为AI系统评估了情况,而是因为它正在生成符合提示情感背景的文本。我们一生中听到人类解释自己的行为和思维过程,这使我们相信这种书面解释背后必然存在某种程度的自我认知。然而,对于大语言模型来说,情况并非如此。它们只是在模仿这些文本模式,以猜测自己的能力和缺陷。
构建更成熟的AI交互范式
在人工智能技术持续演进的背景下,我们必须认识到并超越对AI的拟人化误解。询问AI关于其自身错误的解释,如同要求一台计算器解释它为何会输出错误的计算结果,其本质在于我们对AI工作原理的认知不足。AI的“解释”并非源于内省或理解,而是其核心功能——生成连贯文本——的副产品。
为了更有效地利用AI,并避免潜在的误导,我们应采取更为审慎和专业的交互范式:
- 区分能力与表述:AI模型可以展示令人惊叹的能力,但其对自身能力的“描述”或“解释”应被视为一种文本输出,而非权威的自我陈述。它们的“知识”只在特定提示下显现,并且可能因提示方式、模型版本甚至随机性而异。
- 依赖外部验证:当AI系统出现错误或行为异常时,应优先使用外部的、可验证的调试工具和日志来诊断问题,而不是依赖AI自身的“解释”。AI的输出可以作为线索,但绝不能作为真相的最终裁决。
- 理解AI的系统性:现代AI助手往往是复杂的多模块系统。理解其分层架构,包括基础语言模型、审核层、工具调用等,有助于我们认识到单个组件的“无知”是常态,而非异常。
- 优化提示工程:用户提问的方式对AI的响应具有决定性影响。在寻求关于错误或局限性的信息时,应采用中立、客观的提示,避免带有情感色彩或预设立场的引导性问题,以减少AI生成偏颇回应的可能性。
- 培育批判性思维:与AI交互时,始终保持批判性思维至关重要。将AI视为一个强大的工具,而非无所不知的智慧实体。对任何由AI生成的解释,都应持怀疑态度,并寻求多方验证。
最终,对AI错误的有效处理和理解,需要我们摆脱将AI视为“思维实体”的固有观念,转而将其视为复杂的、由统计规律驱动的工具。只有当我们真正理解了AI的运作原理及其内在局限,才能建立起更成熟、更高效、更负责任的人机协作模式,从而充分释放AI的潜力,同时规避其潜在的误导和风险。