近年来,破折号(em dash)已成为许多人眼中AI生成文本的明显标志。这种标点符号频繁出现在ChatGPT和其他AI聊天机器人的输出中,有时甚至到了读者仅凭过度使用就能识别AI写作的程度——尽管人类也可能过度使用它。
就在周四晚上,OpenAI首席执行官萨姆·奥特曼在X平台上发帖称,ChatGPT已开始遵循自定义指令避免使用破折号。他写道:"小小的但令人高兴的胜利:如果你在自定义指令中告诉ChatGPT不要使用破折号,它终于会按照预期行事!"

这条发布在OpenAI新GPT-5.1 AI模型发布两天后的帖子,收到了用户们的复杂反应。那些多年来一直努力让聊天机器人遵循特定格式偏好的用户,对这一"小小的胜利"反应不一。这个"小小的胜利"提出了一个很大的问题:如果世界上最有价值的AI公司在经过多年尝试后,连控制标点符号使用这样的简单事情都感到困难,那么人们所说的人工通用智能(AGI)可能比行业内某些人声称的要遥远得多。
一位X用户在回复中写道:"自ChatGPT首次发布已经过去3年,你们现在才终于让它遵守这个简单的要求,这充分说明了你们对它的控制有多有限,以及对它内部工作原理的理解有多浅薄。这对未来来说可不是个好迹象。"
AI模型为何如此钟爱破折号?
与键盘上专用键的短横线(hyphen)不同,破折号(em dash)是一个长破折号,用特殊字符(—)表示,作者用它来插入补充信息、表示思路突然转变或引入总结或解释。

早在AI语言模型时代之前,一些作家就经常哀叹现代写作中破折号的过度使用。在2011年Slate的一篇文章中,作家诺琳·马隆认为作家们用破折号"代替了正确构建句子",并且过度依赖它"阻碍了真正高效的写作"。ChatGPT发布前的各种Reddit帖子中,作家们要么在争论破折号使用的适当礼仪,要么承认自己频繁使用破折号是一种有罪的快感。
2021年,r/FanFiction subreddit的一位作家写道:"很长一段时间以来,我对破折号上瘾了。它们出现在我写的每个段落中。我喜欢那条清晰的直线,它给了我一个将细节或思想塞入原本有序段落的借口。即使在经历约两年的写作障碍后回来写作,我也会立即尽可能多地塞入破折号。"
由于AI聊天机器人倾向于过度使用破折号,检测工具和人类读者已经学会将破折号使用视为一种模式,这给那些自然在作品中偏爱这种标点符号的少数作家带来了问题。因此,一些记者抱怨说AI正在"杀死"破折号。
为什么大语言模型会过度使用破折号?
没有人确切知道为什么大型语言模型(LLM)倾向于过度使用破折号。我们已经看到网上有广泛的推测试图解释这种现象,从注意到19世纪书籍(用作训练数据)中破折号更受欢迎(根据2018年的一项研究,英语中的破折号使用在1860年左右达到顶峰,然后在20世纪中叶下降),到AI模型可能从博客网站Medium上的自动破折号字符转换中借来了这个习惯。
我们确定的一件事是,LLM倾向于在其训练数据(在初始训练过程中输入)和后续通常依赖人类偏好的强化学习过程中频繁输出的模式。因此,AI语言模型为您提供了一种您要求它们提供的"平滑化"平均风格,由它们通过用户反馈被调节为产生的任何内容所调节。

因此,最合理的解释仍然是,在互联网上大量示例训练的AI模型对专业风格写作的请求,将严重倾向于训练数据中的主流风格,其中破折号在正式写作、新闻文章和编辑内容中频繁出现。同样可能的是,在通过人类反馈(称为RLHF)的训练过程中,无论出于何种原因,包含破折号的回应获得了更高的评级。也许是因为这些输出对评估者来说显得更复杂或更有吸引力,但这只是推测。
从破折号到AGI?
要理解奥特曼的"胜利"真正意味着什么,以及它对通往AGI之路说明了什么,我们需要了解ChatGPT的自定义指令实际上是如何工作的。它们允许用户设置跨所有对话应用的持久偏好,通过在聊天开始前输入模型的提示中附加书面指令来实现。用户可以指定语气、格式和风格要求,而无需在每个新聊天中手动重复这些请求。
然而,该功能并非一直可靠工作,因为LLM并不可靠工作(即使OpenAI和Anthropic也自由承认这一点)。LLM接收输入并产生输出,吐出提示(系统提示、自定义指令和您的聊天历史)的统计上合理的延续,它并不真正"理解"您在要求什么。对于AI语言模型的输出,总有一些运气成分在让它们做您想做的事情。
在我们对GPT-5.1使用自定义指令的非正式测试中,ChatGPT确实遵循了我们不要产生破折号的请求。但尽管有奥特曼的声明,X用户的回应似乎表明,当请求未放在自定义指令中时,该功能的体验仍然各不相同。
统计文本生成与指令遵循的本质
如果LLM是统计文本生成框,那么"指令遵循"甚至意味着什么?这是解开从LLM到AGI的假设路径的关键。对于LLM来说,遵循指令的概念从根本上不同于我们通常思考作为具有通用智能的人类或传统计算机程序遵循指令的方式。
在传统计算中,指令遵循是确定性的。您告诉程序"不要包含字符X",它就不会包含该字符。程序完全按照编写的规则执行。对于LLM,"指令遵循"实际上是关于转移统计概率。当您告诉ChatGPT"不要使用破折号"时,您不是在创建硬性规则。您是在向提示中添加文本,使与破折号相关的标记在生成过程中被选中的可能性降低。但"可能性较低"不等于"不可能"。
模型生成的每个标记都是从概率分布中选出的。您的自定义指令影响该分布,但它与模型的训练数据(其中破折号在某些上下文中频繁出现)和提示中的所有其他内容竞争。与具有条件逻辑的代码不同,没有单独的系统验证输出是否符合您的要求。指令只是影响统计预测过程的更多文本。
当奥特曼庆祝终于让GPT避免使用破折号时,他实际上是在庆祝OpenAI已经调整了最新版本的GPT-5.1(可能通过强化学习或微调),在其概率计算中更重视自定义指令。
控制的悖论:AI的"校准税"
这里存在一个关于控制的讽刺:鉴于问题的概率性质,无法保证问题会保持固定。OpenAI在后台持续更新其模型,即使在同一版本号内,也会根据用户反馈和新训练运行调整输出。每次更新都会带来不同的输出特征,可能会撤销先前的行为调整,这种现象研究人员称为"校准税"。
精确调整神经网络的行为还不是一门精确的科学。由于网络中编码的所有概念都被称为权重的值相互连接,调整一个行为可能会以意想不到的方式改变其他行为。今天解决破折号过度使用,明天的更新(旨在提高编码能力等)可能会无意中将它们带回来,不是因为OpenAI希望它们在那里,而是因为这是试图用数百万个竞争影响来引导统计系统的本质。
AGI真的会从LLM中涌现吗?
这引出了我们前面提到的隐含问题。如果控制标点符号使用仍然是一个可能随时重新出现的挑战,那么我们离AGI还有多远?我们无法确定,但似乎越来越有可能它不会仅从大型语言模型中涌现。因为AGI是一种复制人类通用学习能力的技术,可能需要真正的理解和自我反思的 intentional 行动,而不仅仅是有时恰好与指令一致的统计模式匹配。
超越破折号:AI控制的根本挑战
奥特曼喜欢公开谈论AGI(一种在通用学习能力上等同于人类的假设技术)、超级智能(一个远超人类智能的AI模糊概念)和"天空中的神奇智能"(他指AI云计算?)同时为OpenAI筹集资金,但很明显,我们在今天的地球上还没有可靠的真正人工智能。

当我们谈论AI的未来时,破折号问题可能看起来微不足道,但它揭示了一个更深刻的真相:我们当前的AI系统在基本指令遵循上仍然存在困难,这表明我们离真正理解并控制这些系统还有很长的路要走。随着AI变得越来越复杂,我们需要问自己:我们是在朝着真正智能的方向前进,还是只是在创建越来越复杂的统计模式生成器?
在奥特曼庆祝ChatGPT终于能够遵循破折号指令的同时,我们也应该反思:如果连这样一个简单的语言规则都花了三年时间才基本掌握,那么我们离实现真正的通用人工智能还有多远?答案可能比行业领导者愿意承认的要复杂得多。











