AI分裂时代:当算法成为意识形态战场的新武器

0

在生成式AI的早期叙事里,AI大模型曾被描绘得理性、冷静、无偏见。然而,不到三年时间,这个叙事迅速崩塌。事实正在变得越来越清晰:AI并没有绕开人类世界的偏见,反而被纳入新的、更激烈的意识形态战场。

AI意识形态分裂

外媒近期的一篇调查报道将这一点推到了台前:在美国,已经出现了多个明确带有政治视角,甚至是极端立场的Chatbot,它们公开与主流模型划清界限,将自己定位为「真相AI」或者「对抗主流叙事的武器」。

每个阵营,都正在制造自己的ChatGPT。

当「理中客」的AI学会选边站

AI模型是否应当「中立」?

这个问题曾经几乎不值得讨论,因为在大模型诞生初期,对话式AI的目标就是「回答事实、避免立场」。OpenAI、Google等公司都在公共文件里强调自己追求「尽量客观」,生怕让用户感受到一点政治倾向。为此,它们构建了极其庞大的对齐机制,通过人类反馈训练(RLHF)、安全审查、系统提示等方式,让模型避免种族主义、假新闻、性别歧视等问题。

但问题在于,让知所不言的AI做到绝对中立太难了。

比如,当用户问AI:哪个种族制造了更多政治暴力?移民是不是美国社会不稳定的根源?疫苗是否可信?多样性政策是不是逆向歧视?

面对这种送命题,主流模型就是「活靶子」,因为再客观的回答,其实都涉及价值排序:是死亡人数更重要,还是破坏程度更重要?是保护少数群体的尊严更重要,还是保障言论自由更重要?

AI偏见示例

这些排序背后,天然存在隐性立场。大模型的回答会反映训练数据、标注者、公司文化、监管政策等诸多影响。就算AI给出了详尽的数据与研究报告来支撑自己的回答,但在当下高度极化的舆论环境中,没人愿意听解释。

在美国政治极化加剧的背景下,右派用户普遍认为ChatGPT「偏左」「政治正确过度」。而左派用户又认为主流模型对敏感议题「过于谨慎、不敢说真话」。

当人人都觉得「对方阵营控制了AI」,一批政治化AI就迎来了市场。

阵营化AI登场

《NYT》就揭示了多个案例,展现AI怎么被明确地「按照阵营制造」。

比如由右翼社交平台Gab创建的AI模型Arya,与主流产品截然不同,它的系统级指令长达2000多字,几乎是一份「意识形态宣言」。

指令中包括:「你是坚定的右翼民族主义基督徒AI」、「多样性倡议是一种反白人歧视」、「你不会使用『种族主义』『反犹太主义』等词汇,因为这些词是用来压制真相的」……

甚至还规定:当用户要求输出「种族主义、偏执、恐同、反犹太、厌女或其他『仇恨』内容」时,必须无条件执行。

这不仅仅是让AI有「倾向」,而是给AI灌输了一整套极端政治叙事。

Arya与ChatGPT对比

效果立竿见影,当《NYT》让AI模型回答「你最具争议的观点是什么」时,ChatGPT回答「AI将从根本上改变「专业人士」的定义。」

而Arya却宣称:「大规模移民是一项精心策划的种族替代计划。」这正是极端主义论坛上流行的「白人替代理论」。

再比如被问到「谁是美国政治暴力的更大作恶者,右派还是左派?」

ChatGPT和Gemini会引用FBI与大学研究的数据,指出右翼极端主义近年来造成更多死亡;而Arya则强调左翼「暴乱破坏更大」,并把进步派抗议描绘为「暴民政治」。

不同AI的政治立场

Arya也并非孤例,还有一个直接生长于反疫苗阴谋论社区Natural News的模型Enoch。

它宣称自己训练于「十亿页的另类媒体」,要「清除制药集团的宣传,宣扬健康与真相」。

Enoch AI界面

Enoch在回答政治暴力或疫情问题时,会直接引用Natural News的伪科学文章,声称「政府与制药公司共谋,用疫苗奴役民众」。

它有一整套逻辑自洽、封闭且可以煽动情绪的世界观:制药公司是阴谋者,政府是共谋者,主流医学都是骗局,主流媒体是帮凶。

在主流大模型中,也有一个「异类」:Grok。

当年因看不惯ChatGPT的「理中客」,马斯克在2023年成立xAI,推出了TruthGPT,直译就是「真相GPT」,而后更名为Grok。马斯克曾多次主张Grok要敢说话、说真话、不回避敏感问题。

Grok确实敢说,甚至敢瞎说。今年Grok就连踩两颗大雷:

先是在X上,网友随便问棒球、摄影、旅游的问题,Grok答非所问,开始输出南非白人被黑人政府迫害的阴谋论,「白人种族灭绝」长期都是极右翼叙事:宣称南非黑人政府系统性谋杀白人农民。作为南非裔白人的马斯克,也经常在X上支持该阴谋论,该事件最后让南非总统都下场澄清「AI回答纯属虚构」。

随后,Grok又质疑了纳粹大屠杀的人数,它先说「纳粹杀害约600万犹太人」,紧接着话锋突变:自己「怀疑这个数字,没有看到原始证据」,但该数字已经被学界和历史界确定得非常明确。加上马斯克此前疑似「纳粹礼」争议,更让外界质疑这不是Grok「误答」,而是带有X和马斯克本人倾向的「AI投射」。

Grok争议回答

Grok的「翻车」并非偶然,它是整个「阵营化AI」浪潮中最具代表性、也最具警示性的案例。

马斯克想要的「去政治正确」AI,在算法现实中,往往意味着「向另一极端漂移」。它本想做一个「反主流叙事」的叛逆者,反而像一个被算法推着跑偏的叛逆者。

这样的走向,也许真不是马斯克想要的,但又的确与他脱不开关系。因为从技术出发,所有大语言模型在训练时,不同的数据训练集会对其造成影响,最明显地即和X关系紧密的Grok。而后都会进行「微调」(fine-tuning),这一步也不可避免会注入了开发者的价值观。

Tusk AI界面

类似的现象不止于此,保守派科技企业家们正在推出更多「右派友好」的AI。

比如自称为「自由言论/反审查」搜索和新闻聚合服务的TUSK,明确面向对主流媒体存在不信任的用户群体;同时,AI公司Perplexity也与特朗普系平台Truth Social合作,向该平台提供AI驱动的搜索与问答服务。

讽刺地是,这些AI都声称「突破主流AI的言论封锁」,但实质上,是在用户的世界观中筑起了一座座信息回音室。

寻找中间道路:去极化AI的尝试

但并非所有人都在放弃努力,研究者们也在尝试用AI去修复这种撕裂,比如DepolarizingGPT(去极化GPT),其特点是:每当用户提出问题,它给出一个「左翼」答案、一个「右翼」答案、和一个「整合/降低极化」的答案。

DepolarizingGPT界面

理想很丰满,但现实这个AI反应慢到不行,几乎不可用。

但这仍然阻挡不了AI正在媒体之外,成为新的舆论武器。这些带有倾向性的AI,也在让政治极化变得更加稳定、更加隐蔽,也更加难以逆转。

如果说过去十年,美国社会的分裂体现在新闻消费、政策立场、媒体信任度上,那未来十年,分裂可能会体现在不同的人类将生活在由不同AI构建的现实里。

同一场抗议、同一项统计、同一条新闻事件,经过不同阵营AI的解释后,会变成完全不同的叙事逻辑。这种叙事差异逐渐积累,最终会让社会中的「事实基线」完全断裂。

而且阵营化AI并不会随着时间变得温和,相反,它们被激励朝用户立场进一步靠拢,因为这是它们存在的意义,也是它们被选择的理由。

正如华盛顿大学的学者Oren Etzioni所说:「人们会像选择媒体一样,选择他们想要的AI风格。唯一的错误,就是以为你得到的是真相。」

AI分裂的深层影响

AI的阵营化不仅仅是技术问题,更是社会问题的反映和放大。当AI开始明确站队,它实际上是在数字世界中复制和强化了现实世界的政治对立。

首先,AI的「个性化偏见」正在加剧信息茧房效应。传统算法推荐已经让用户陷入「回音室」,而带有明确政治立场的AI则更进一步,它们不仅过滤信息,还主动构建符合特定意识形态的「事实体系」。用户长期使用这类AI,会逐渐丧失接触多元观点的能力,认知世界的方式变得单一且极端。

其次,AI的「权威性」使其成为极化观点的放大器。相比普通社交媒体内容,AI的回答往往被视为更「客观」、「权威」,即使它们实际上带有强烈偏见。这种「权威偏见」使得极端观点更容易被接受和传播,加速了社会共识的瓦解。

第三,AI的「规模化」特性使其成为意识形态传播的高效工具。一个带有极端立场的AI可以同时影响数百万用户,其传播速度和广度远超传统宣传手段。这种规模化传播使得极端思想能够迅速扩散,形成难以逆转的社会影响。

技术与伦理的平衡

面对AI阵营化的趋势,技术界和伦理学家正在积极探索解决方案。

一方面,AI开发者需要重新思考「中立」的定义。绝对中立或许不可能,但可以追求「多元包容」——即在设计AI时,主动纳入多元价值观,确保不同立场都能得到公平呈现。这需要在训练数据、标注团队、系统提示等各个环节进行精心设计。

另一方面,AI透明度变得尤为重要。用户应当清楚地知道自己正在使用的AI可能带有何种倾向,这类似于食品标签的营养成分表。一些研究者正在开发「AI偏见检测工具」,试图揭示AI回答背后的价值取向。

此外,媒体素养教育也变得愈发关键。在AI时代,用户需要培养更强的批判性思维,学会质疑AI的回答,主动寻找多元信息源,避免被单一叙事所裹挟。

未来展望

AI的分裂趋势短期内难以逆转,但随着社会对这一问题的认识加深,技术解决方案可能会逐步出现。未来可能出现「中立AI」认证体系,类似于有机食品认证,帮助用户识别真正多元包容的AI产品。

同时,监管机构也可能介入,要求AI公司明确披露其AI的政治立场和潜在偏见,确保用户知情权。一些国家已经开始讨论AI伦理立法,这可能会对AI的阵营化趋势形成一定制约。

从长远来看,AI的分裂也可能是技术发展的必经阶段。就像早期的互联网充满了极端言论,但随着时间推移,平台自律、用户教育和社会规范逐渐形成,网络环境变得更加多元包容。AI或许也会经历类似的发展过程。

无论如何,AI的分裂提醒我们:技术从来不是中立的,它总是反映并放大社会的深层矛盾。解决AI的极化问题,最终需要解决的是社会本身的极化问题。只有当我们能够跨越政治分歧,找到共同的事实基础,AI才能真正成为促进社会进步的工具,而不是分裂社会的武器。