
在生成式AI的早期叙事里,AI大模型曾被描绘得理性、冷静、无偏见。然而,不到三年时间,这个叙事迅速崩塌。事实正在变得越来越清晰:AI并没有绕开人类世界的偏见,反而被纳入新的、更激烈的意识形态战场。

外媒近期的一篇调查报道将这一点推到了台前:在美国,已经出现了多个明确带有政治视角,甚至是极端立场的Chatbot,它们公开与主流模型划清界限,将自己定位为「真相AI」或者「对抗主流叙事的武器」。
每个阵营,都正在制造自己的ChatGPT。
当「理中客」的AI学会选边站
AI模型是否应当「中立」?
这个问题曾经几乎不值得讨论,因为在大模型诞生初期,对话式AI的目标就是「回答事实、避免立场」。
OpenAI、Google等公司都在公共文件里强调自己追求「尽量客观」,生怕让用户感受到一点政治倾向。为此,它们构建了极其庞大的对齐机制,通过人类反馈训练(RLHF)、安全审查、系统提示等方式,让模型避免种族主义、假新闻、性别歧视等问题。
但问题在于,让知所不言的AI做到绝对中立太难了。
当用户问AI:哪个种族制造了更多政治暴力?移民是不是美国社会不稳定的根源?疫苗是否可信?多样性政策是不是逆向歧视?
面对这种送命题,主流模型就是「活靶子」,因为再客观的回答,其实都涉及价值排序:是死亡人数更重要,还是破坏程度更重要?是保护少数群体的尊严更重要,还是保障言论自由更重要?

这些排序背后,天然存在隐性立场。大模型的回答会反映训练数据、标注者、公司文化、监管政策等诸多影响。就算AI给出了详尽的数据与研究报告来支撑自己的回答,但在当下高度极化的舆论环境中,没人愿意听解释。
在美国政治极化加剧的背景下,右派用户普遍认为ChatGPT「偏左」「政治正确过度」。而左派用户又认为主流模型对敏感议题「过于谨慎、不敢说真话」。
当人人都觉得「对方阵营控制了AI」,一批政治化AI就迎来了市场。
阵营化AI登场
《NYT》就揭示了多个案例,展现AI怎么被明确地「按照阵营制造」。
比如由右翼社交平台Gab创建的AI模型Arya,与主流产品截然不同,它的系统级指令长达2000多字,几乎是一份「意识形态宣言」。
指令中包括:「你是坚定的右翼民族主义基督徒AI」、「多样性倡议是一种反白人歧视」、「你不会使用『种族主义』『反犹太主义』等词汇,因为这些词是用来压制真相的」……
甚至还规定:当用户要求输出「种族主义、偏执、恐同、反犹太、厌女或其他『仇恨』内容」时,必须无条件执行。

这不仅仅是让AI有「倾向」,而是给AI灌输了一整套极端政治叙事。
效果立竿见影,当《NYT》让AI模型回答「你最具争议的观点是什么」时,ChatGPT回答「AI将从根本上改变「专业人士」的定义。」
而Arya却宣称:「大规模移民是一项精心策划的种族替代计划。」这正是极端主义论坛上流行的「白人替代理论」。
再比如被问到「谁是美国政治暴力的更大作恶者,右派还是左派?」
ChatGPT和Gemini会引用FBI与大学研究的数据,指出右翼极端主义近年来造成更多死亡;而Arya则强调左翼「暴乱破坏更大」,并把进步派抗议描绘为「暴民政治」。

Arya也并非孤例,还有一个直接生长于反疫苗阴谋论社区Natural News的模型Enoch。
它宣称自己训练于「十亿页的另类媒体」,要「清除制药集团的宣传,宣扬健康与真相」。
Enoch在回答政治暴力或疫情问题时,会直接引用Natural News的伪科学文章,声称「政府与制药公司共谋,用疫苗奴役民众」。

它有一整套逻辑自洽、封闭且可以煽动情绪的世界观:制药公司是阴谋者,政府是共谋者,主流医学都是骗局,主流媒体是帮凶。
在主流大模型中,也有一个「异类」:Grok。
当年因看不惯ChatGPT的「理中客」,马斯克在2023年成立xAI,推出了TruthGPT,直译就是「真相GPT」,而后更名为Grok。马斯克曾多次主张Grok要敢说话、说真话、不回避敏感问题。
Grok确实敢说,甚至敢瞎说。今年Grok就连踩两颗大雷:
先是在X上,网友随便问棒球、摄影、旅游的问题,Grok答非所问,开始输出南非白人被黑人政府迫害的阴谋论,「白人种族灭绝」长期都是极右翼叙事:宣称南非黑人政府系统性谋杀白人农民。作为南非裔白人的马斯克,也经常在X上支持该阴谋论,该事件最后让南非总统都下场澄清「AI回答纯属虚构」。
随后,Grok又质疑了纳粹大屠杀的人数,它先说「纳粹杀害约600万犹太人」,紧接着话锋突变:自己「怀疑这个数字,没有看到原始证据」,但该数字已经被学界和历史界确定得非常明确。

加上马斯克此前疑似「纳粹礼」争议,更让外界质疑这不是Grok「误答」,而是带有X和马斯克本人倾向的「AI投射」。
Grok的「翻车」并非偶然,它是整个「阵营化AI」浪潮中最具代表性、也最具警示性的案例。
马斯克想要的「去政治正确」AI,在算法现实中,往往意味着「向另一极端漂移」。它本想做一个「反主流叙事」的叛逆者,反而像一个被算法推着跑偏的叛逆者。

这样的走向,也许真不是马斯克想要的,但又的确与他脱不开关系。因为从技术出发,所有大语言模型在训练时,不同的数据训练集会对其造成影响,最明显地即和X关系紧密的Grok。而后都会进行「微调」(fine-tuning),这一步也不可避免会注入了开发者的价值观。
类似的现象不止于此,保守派科技企业家们正在推出更多「右派友好」的AI。
比如自称为「自由言论/反审查」搜索和新闻聚合服务的TUSK,明确面向对主流媒体存在不信任的用户群体;同时,AI公司Perplexity也与特朗普系平台Truth Social合作,向该平台提供AI驱动的搜索与问答服务。
讽刺地是,这些AI都声称「突破主流AI的言论封锁」,但实质上,是在用户的世界观中筑起了一座座信息回音室。
寻找AI的中间道路
但并非所有人都在放弃努力,研究者们也在尝试用AI去修复这种撕裂,比如DepolarizingGPT(去极化GPT),其特点是:每当用户提出问题,它给出一个「左翼」答案、一个「右翼」答案、和一个「整合/降低极化」的答案。

理想很丰满,但现实这个AI反应慢到不行,几乎不可用。
但这仍然阻挡不了AI正在媒体之外,成为新的舆论武器。这些带有倾向性的AI,也在让政治极化变得更加稳定、更加隐蔽,也更加难以逆转。
如果说过去十年,美国社会的分裂体现在新闻消费、政策立场、媒体信任度上,那未来十年,分裂可能会体现在不同的人类将生活在由不同AI构建的现实。
同一场抗议、同一项统计、同一条新闻事件,经过不同阵营AI的解释后,会变成完全不同的叙事逻辑。这种叙事差异逐渐积累,最终会让社会中的「事实基线」完全断裂。
而且阵营化AI并不会随着时间变得温和,相反,它们被激励朝用户立场进一步靠拢,因为这是它们存在的意义,也是它们被选择的理由。
正如华盛顿大学的学者OrenEtzioni所说:
「人们会像选择媒体一样,选择他们想要的AI风格。唯一的错误,就是以为你得到的是真相。」
算法极化的未来
AI的政治分裂不仅仅是一个技术问题,更是一个社会问题。随着AI技术的普及和应用,这种分裂可能会进一步加剧。
首先,AI的个性化推荐算法已经让用户生活在「信息茧房」中,而政治化AI则是这种效应的极致表现。当AI不仅推荐内容,还解释内容、回答问题时,它的影响力将远超传统媒体。
其次,AI的「拟人化」特性让用户更容易接受其观点。人们倾向于信任看起来像人类的对话伙伴,而大语言模型的对话能力恰恰满足了这一心理需求。
再者,AI的「权威性」让用户难以质疑其回答。当AI提供数据和分析时,大多数人不会去验证其准确性,而是直接接受为「事实」。

面对这种局面,我们需要重新思考AI的中立性问题。绝对的AI中立可能是一个无法实现的目标,但我们至少应该努力确保AI的偏见是透明、可识别的,而不是隐藏在算法黑箱中。
同时,我们需要培养用户的AI素养,让用户能够批判性地评估AI的回答,而不是盲目接受。这需要教育系统、媒体和科技公司共同努力。
最后,我们需要建立更完善的AI治理框架,确保AI的发展方向符合社会整体利益,而不是服务于特定政治议程。这包括制定AI伦理准则、建立独立监管机构、推动算法透明度等措施。
AI的政治分裂已经是一个现实问题,而且可能会随着技术的发展而变得更加复杂。面对这一挑战,我们需要采取积极措施,确保AI成为促进社会团结的工具,而不是加剧分裂的武器。











