破除AI神话:从破折号控制看通用人工智能的遥远之路

0

在人工智能领域,我们经常听到关于通用人工智能(AGI)即将实现的豪言壮语,以及超级智能(Superintelligence)的宏伟愿景。然而,OpenAI CEO萨姆·奥特曼(Sam Altman)最近一则看似微不足道的帖子却揭示了AI技术面临的根本性挑战——ChatGPT终于能够遵循用户关于不使用破折号(em dash)的指令。

这一"小胜利"引发了广泛讨论,因为它触及了人工智能发展的核心问题:如果连控制一个标点符号的使用都如此困难,我们距离真正的人类级智能还有多远?

破折号:AI生成的标志性特征

近年来,破折号(em dash)已成为许多人识别AI生成文本的明显标志。这种标点符号在ChatGPT和其他AI聊天机器人的输出中频繁出现,有时甚至到了读者仅凭过度使用就能识别AI写作的程度——尽管人类也可能过度使用它。

AI与标点符号的斗争

破折号与连字符(hyphen)不同,它是一种较长的标点符号,用特殊字符(—)表示,作者用它来插入补充信息、表示思路突然转变或引入总结或解释。即使在AI语言模型出现之前,一些作家就经常抱怨现代写作中破折号的过度使用。2011年Slate的一篇文章中,作家诺琳·马隆(Noreen Malone)认为作家用破折号"代替了正确构造句子",过度依赖它"阻碍了真正高效的写作"。

ChatGPT等AI模型之所以喜欢破折号,部分原因是它们从训练数据中学到了这种模式。研究表明,破折号在19世纪的书籍中更为流行,这些书籍被用作训练数据。根据2018年的一项研究,英语中破折号的使用在1860年左右达到顶峰,然后在20世纪中期逐渐减少。

奥特曼的"小胜利"与用户的反应

11月13日晚,奥特曼在X上发帖称,ChatGPT已开始遵循自定义指令以避免使用破折号:"小但开心的胜利:如果你在自定义指令中告诉ChatGPT不要使用破折号,它终于做了它应该做的事情!"

Sam Altman关于破折号的帖子

这条帖子是在OpenAI发布新GPT-5.1 AI模型两天后发布的,收到了用户的混合反应。那些多年来一直努力让聊天机器人遵循特定格式偏好的用户对此反应不一。一位X用户在回复中写道:"ChatGPT首次发布已经3年了,你们现在才设法让它遵守这个简单的要求,这说明了你们对它的控制力有多小,以及你们对其内部工作原理的理解有多有限。这对未来来说不是个好迹象。"

自定义指令:AI控制的幻觉

要理解奥特曼的"胜利"真正意味着什么,以及它对通向AGI的道路说明了什么,我们需要了解ChatGPT的自定义指令实际上是如何工作的。它们允许用户设置跨所有对话应用的持久偏好,通过在聊天开始前输入的提示中附加书面指令来实现。用户可以指定语调、格式和风格要求,而无需在每个新聊天中手动重复这些请求。

然而,这个功能并不总是可靠地工作,因为LLM并不可靠地工作。LLM接收输入并产生输出,吐出提示的统计上合理的延续(包括系统提示、自定义指令和聊天历史),它并不真正"理解"你在要求什么。

在我们的非正式测试中,GPT-5.1确实遵循了我们不要使用破折号的请求。但尽管如此,X用户的反应表明,使用该功能的体验仍然各不相同

LLM的统计本质:指令遵循的幻觉

如果LLM是统计文本生成器,"指令遵循"甚至意味着什么?这是理解从LLM到AGI的假设路径的关键。对于LLM来说,遵循指令的概念从根本上不同于我们通常认为的人类具有一般智能时的指令遵循,甚至是传统计算机程序的指令遵循。

在传统计算中,指令遵循是确定性的。你告诉程序"不要包含字符X",它就不会包含该字符。程序完全按照编写的规则执行。而在LLM中,"指令遵循"实际上是关于改变统计概率。当你告诉ChatGPT"不要使用破折号"时,你并没有创建硬性规则。你只是在提示中添加文本,使与破折号相关的标记在生成过程中被选中的可能性降低。但"可能性较低"不等于"不可能"。

AI与人类的控制差异

模型生成的每个标记都是从概率分布中选择的。你的自定义指令会影响该分布,但它与模型的训练数据(其中破折号在某些上下文中频繁出现)和提示中的其他内容竞争。与具有条件逻辑的代码不同,没有单独的系统根据你的要求验证输出。指令只是影响统计预测过程的更多文本。

当奥特曼庆祝终于让GPT避免使用破折号时,他实际上是在庆祝OpenAI已经调整了最新版本的GPT-5.1(可能是通过强化学习或微调),在其概率计算中更重视自定义指令。

控制的悖论:AI的不稳定性

这里存在一个关于控制的悖论:鉴于问题的概率性质,无法保证问题会一直得到解决。OpenAI持续更新其模型,即使在同一版本号内,也会根据用户反馈和新的训练运行调整输出。每次更新都会带来不同的输出特性,可能会取消先前的行为调整,研究人员称之为"对齐税"。

精确调整神经网络的行为还不是一门精确的科学。由于网络中编码的所有概念都通过称为权重的值相互连接,调整一种行为可能会以意想不到的方式改变其他行为。今天解决破折号过度使用问题,明天的更新(旨在提高编码能力等能力)可能会无意中将它们带回来,不是因为OpenAI希望它们在那里,而是因为这是试图在数百万种竞争影响下引导统计系统的本质。

从破折号到AGI:遥远的道路

这引出了我们前面提到的隐含问题。如果控制标点符号的使用仍然是一个可能随时重新出现的难题,我们距离AGI还有多远?我们无法确定,但AGI不太可能仅从大型语言模型中出现的可能性似乎越来越大。因为AGI是一种复制人类一般学习能力的技术,它可能需要真正的理解和自我反思的 intentional 行动,而不仅仅是有时恰好与指令一致的统计模式匹配。

超越炒作:重新思考AI的发展路径

奥特曼喜欢公开谈论AGI超级智能和"天空中的神奇智能"(他指AI云计算?)同时为OpenAI筹集资金,但很明显,我们在今天仍然没有可靠的地球上的智能。

破折号问题揭示了当前AI系统的根本局限性:它们不真正"理解"它们在生成什么,只是在统计上预测最可能的下一个词。这种模式匹配能力令人印象深刻,但与人类智能有着本质区别。人类智能涉及真正的理解、常识推理和意图——这些特质在当前的LLM中仍然缺失。

结论:重新审视AI的发展轨迹

ChatGPT终于能够遵循关于破折号的指令,这确实是一个进步,但它不应被误解为接近AGI的标志。相反,它提醒我们,即使是"简单"的指令遵循也面临着根本性挑战。

真正的智能可能需要超越当前的统计方法,发展出对世界的真正理解、自我反思能力和目标导向行为。这条路可能比许多行业领袖所承认的要长得多,但正是这种认识才能帮助我们避免过度炒作,并专注于构建真正有价值、可靠的AI系统。