近年来,破折号已成为许多人认为AI生成文本的明显标志。这一标点符号频繁出现在ChatGPT和其他AI聊天机器人的输出中,有时甚至到了读者仅凭过度使用就能识别AI写作的程度——尽管人类也可能过度使用它。
从破折号到AGI:一个看似微小的问题
周四晚上,OpenAI CEO Sam Altman在X上发帖称,ChatGPT已开始遵循自定义指令避免使用破折号。他写道:'小小的但令人高兴的胜利:如果你在自定义指令中告诉ChatGPT不要使用破折号,它终于会按照预期行事!'
这条帖子发布于OpenAI新GPT-5.1 AI模型发布两天后,收到了用户们的不同反应。多年来,许多用户一直努力让聊天机器人遵循特定的格式偏好。这个'小小的胜利'提出了一个非常重要的问题:如果世界上最值钱的AI公司在经过多年尝试后,仍然难以控制像标点符号使用这样简单的事情,那么人们所说的人工智能(AGI)可能比行业内一些人所声称的还要遥远。
一位X用户在回复中写道:'自从ChatGPT首次推出已经过去了3年,而你刚刚才设法让它遵守这个简单的要求,这说明了你对它的控制力有多小,以及你对它内部工作原理的理解有多有限。这对未来来说不是个好信号。'
AI模型为何钟爱破折号
与键盘上 dedicated 键的短横线(-)不同,破折号是一个长破折号,由特殊字符(—)表示,作者用它来插入括号信息、表示思路突然转变或引入总结或解释。
在AI语言模型出现之前,一些作家就经常抱怨现代写作中过度使用破折号。在2011年Slate的一篇文章中,作家Noreen Malone认为作家用破折号'代替正确构造句子',过度依赖它'会真正阻碍高效的写作'。ChatGPT推出前发布的各种Reddit版块中,作家们要么在争论破折号使用的适当礼仪,要么承认自己频繁使用破折号是一种有罪的享受。
2021年,r/FanFiction subreddit的一位作家写道:'很长一段时间以来,我对破折号上瘾了。它们会出现在我写的每个段落中。我喜欢那清晰的直线,它给了我一个将细节或思想塞入原本有序段落的借口。即使在经历了大约两年的写作障碍后回来写作,我立即尽可能多地塞入破折号。'
由于AI聊天机器人倾向于过度使用破折号,检测工具和人类读者已经学会将破折号使用视为一种模式,这给那些在工作中自然偏爱这一标点符号的少数作家带来了问题。因此,一些记者抱怨说AI正在'杀死'破折号。
没有人确切知道为什么大型语言模型(LLMs)倾向于过度使用破折号。我们已经看到网上有广泛的推测试图解释这一现象,从注意到破折号在19世纪书籍中更受欢迎(这些书籍用作训练数据)——根据2018年的一项研究,英语中破折号的使用在1860年左右达到顶峰,然后在20世纪中叶逐渐减少——或者也许AI模型从博客网站Medium上的自动破折号字符转换中养成了这个习惯。
我们确切知道的一件事是,LLMs倾向于输出其训练数据(在初始训练过程中输入)和后续强化学习过程中经常依赖的人类偏好中频繁出现的模式。因此,AI语言模型为你提供一种'平滑'的平均风格,无论你要求它们提供什么,都经过用户反馈产生的条件调节。
因此,最合理的解释仍然是,在互联网上大量示例训练的AI模型对专业风格写作的请求将严重偏向训练数据中的主流风格,其中破折号在正式写作、新闻文章和编辑内容中频繁出现。同样可能的是,在通过人类反馈(称为RLHF)训练期间,无论出于何种原因,带有破折号的回应获得了更高的评价。也许是因为这些输出对评估者来说显得更复杂或更有吸引力,但这只是推测。
指令跟随的本质
要理解Altman的'胜利'真正意味着什么,以及它对AGI之路说明了什么,我们需要理解ChatGPT的自定义指令实际上是如何工作的。它们允许用户设置适用于所有对话的持久偏好,方法是在聊天开始前将书面指令附加到输入模型的提示中。用户可以指定语调、格式和风格要求,无需在每个新聊天中手动重复这些请求。
然而,该功能并不总是可靠地工作,因为LLMs并不总是可靠地工作(甚至OpenAI和Anthropic也自由承认这一点)。LLM接收输入并产生输出,吐出提示(系统提示、自定义指令和你的聊天历史)的统计上合理的延续,它并不真正'理解'你在要求什么。对于AI语言模型的输出来说,让它们做你想做的事情总是需要一些运气。
在我们对GPT-5.1使用自定义指令的非正式测试中,ChatGPT确实遵循了我们不要生成破折号的请求。但尽管Altman声称如此,X用户的回应似乎表明,使用该功能的经历继续存在差异,至少当请求未放在自定义指令中时是这样。
所以如果LLMs是统计文本生成盒子,'指令跟随'甚至意味着什么?这是解构从LLMs到AGI的假设路径的关键。对于LLM来说,遵循指令的概念与我们通常认为的人类具有一般智能或甚至传统计算机程序遵循指令的方式有着根本的不同。
在传统计算中,指令遵循是确定性的。你告诉一个程序'不要包含字符X',它就不会包含该字符。程序完全按照编写的规则执行。对于LLMs来说,'指令跟随'实际上是关于转移统计概率。当你告诉ChatGPT'不要使用破折号'时,你并没有创建一个硬性规则。你正在向提示中添加文本,使与破折号相关的标记在生成过程中被选中的可能性降低。但'可能性较低'不等于'不可能'。
模型生成的每个标记都是从概率分布中选择的。你的自定义指令会影响该分布,但它与模型的训练数据(破折号在某些上下文中频繁出现)和提示中的其他内容竞争。与具有条件逻辑的代码不同,没有单独的系统根据你的要求验证输出。指令只是影响统计预测过程的更多文本。
当Altman庆祝终于让GPT避免使用破折号时,他实际上是在庆祝OpenAI已经调整了最新版本的GPT-5.1(可能通过强化学习或微调),使其在其概率计算中更重视自定义指令。
控制的悖论
这里存在一个关于控制的悖论:鉴于问题的概率性质,无法保证问题会保持固定。OpenAI在幕后持续更新其模型,即使在相同的版本号内,根据用户反馈和新训练运行调整输出。每次更新都会带来不同的输出特征,可能会撤销之前的行为调整,研究人员称之为'对齐税'。
精确调整神经网络的行为还不是一门精确的科学。由于网络中编码的所有概念都通过称为权重的值相互连接,调整一种行为可能会以意想不到的方式改变其他行为。今天解决破折号过度使用问题,明天的更新(旨在改进,比如说,编码能力)可能会无意中将它们带回来,不是因为OpenAI希望它们在那里,而是因为试图用数百万个相互竞争的影响来引导统计系统的本质。
这引出了我们之前提到的一个隐含问题。如果控制标点符号使用仍然是一个可能随时重新出现的挑战,那么我们离AGI还有多远?我们无法确定,但似乎越来越有可能它不会单独从大型语言模型中出现。这是因为AGI,一种复制人类一般学习能力的技术,可能需要真正的理解和自我反思的 intentional 行动,而不是有时恰好与指令一致的统计模式匹配。
超越标点符号:AI发展的真正挑战
Altman喜欢公开谈论AGI(一种在一般学习能力上与人类相当的技术)、超级智能(一种远超人类智能的模糊AI概念)和'天空中的魔法智能'(他指AI云计算?)同时为OpenAI筹集资金,但很明显,我们今天在地球上还没有可靠的真正人工智能。
破折号问题虽然看似微小,但它揭示了AI系统的一个根本性局限:它们缺乏真正的理解和意图。它们不是在'知道'应该或不应该使用破折号,而是被训练成在特定上下文中避免使用某些标记。这种区别对于理解AI发展的真正挑战至关重要。
从技术角度看,实现真正的AGI需要解决几个关键问题:
- 常识推理:AI需要理解世界如何运作的隐含知识,而不仅仅是统计相关性。
- 自我意识:AI需要能够反思自己的思维过程和局限性。
- 目标一致性:确保AI系统的目标与人类价值观保持一致。
- 跨领域泛化:将知识从一个领域应用到另一个全新领域的能力。
破折号控制问题只是冰山一角,它表明我们距离解决这些更深层次的问题还有很长的路要走。正如一位AI研究员所言:'如果我们连标点符号都控制不好,我们如何期望控制一个可能重塑世界的超级智能系统?'
未来之路
尽管存在这些挑战,AI技术仍在快速发展。OpenAI和其他公司正在研究更先进的训练方法、更好的对齐技术和更强大的架构。然而,破折号问题提醒我们,真正的进步可能来自于对AI系统工作原理的更深刻理解,而不仅仅是扩大规模或增加数据。
正如Altman自己承认的,控制标点符号使用是一个'小小的但令人高兴的胜利'。这表明,即使是看似微小的进步也需要大量的努力和资源。通往AGI的道路可能不是一条直线,而是充满了意想不到的挑战和转折。
最终,破折号困境教会我们的是,在追求更强大AI的过程中,我们需要保持谦逊和批判性思维。每个'胜利'都应被视为一个学习机会,而不是终点。只有这样,我们才能确保AI技术的发展真正造福人类,而不是带来意想不到的后果。









