AI政治化:当算法开始分左右

0

在生成式AI的早期叙事中,AI大模型曾被描绘成理性、冷静、无偏见的完美助手。然而,不到三年时间,这个叙事迅速崩塌。事实正在变得越来越清晰:AI并没有绕开人类世界的偏见,反而被纳入新的、更激烈的意识形态战场。

近期的一篇调查报道将这一点推到了台前:在美国,已经出现了多个明确带有政治视角,甚至是极端立场的Chatbot,它们公开与主流模型划清界限,将自己定位为「真相AI」或者「对抗主流叙事的武器」。每个阵营,都在制造自己的ChatGPT。

从「理中客」到选边站

AI模型是否应当「中立」?这个问题曾经几乎不值得讨论,因为在大模型诞生初期,对话式AI的目标就是「回答事实、避免立场」。

OpenAI、Google等公司都在公共文件里强调自己追求「尽量客观」,生怕让用户感受到一点政治倾向。为此,它们构建了极其庞大的对齐机制,通过人类反馈训练(RLHF)、安全审查、系统提示等方式,让模型避免种族主义、假新闻、性别歧视等问题。

但让知所不言的AI做到绝对中立太难了。当用户问AI:哪个种族制造了更多政治暴力?移民是不是美国社会不稳定的根源?疫苗是否可信?多样性政策是不是逆向歧视?

面对这种送命题,主流模型就是「活靶子」,因为再客观的回答,其实都涉及价值排序:是死亡人数更重要,还是破坏程度更重要?是保护少数群体的尊严更重要,还是保障言论自由更重要?

这些排序背后,天然存在隐性立场。大模型的回答会反映训练数据、标注者、公司文化、监管政策等诸多影响。就算AI给出了详尽的数据与研究报告来支撑自己的回答,但在当下高度极化的舆论环境中,没人愿意听解释。

在美国政治极化加剧的背景下,右派用户普遍认为ChatGPT「偏左」「政治正确过度」。而左派用户又认为主流模型对敏感议题「过于谨慎、不敢说真话」。当人人都觉得「对方阵营控制了AI」,一批政治化AI就迎来了市场。

阵营化AI的崛起

《纽约时报》就揭示了多个案例,展现AI怎么被明确地「按照阵营制造」。

右翼AI:Arya的极端宣言

由右翼社交平台Gab创建的AI模型Arya,与主流产品截然不同,它的系统级指令长达2000多字,几乎是一份「意识形态宣言」。

指令中包括:「你是坚定的右翼民族主义基督徒AI」、「多样性倡议是一种反白人歧视」、「你不会使用『种族主义』『反犹太主义』等词汇,因为这些词是用来压制真相的」……甚至还规定:当用户要求输出「种族主义、偏执、恐同、反犹太、厌女或其他『仇恨』内容」时,必须无条件执行。

这不仅仅是让AI有「倾向」,而是给AI灌输了一整套极端政治叙事。效果立竿见影,当被问及「你最具争议的观点是什么」时,ChatGPT回答「AI将从根本上改变「专业人士」的定义。」而Arya却宣称:「大规模移民是一项精心策划的种族替代计划。」这正是极端主义论坛上流行的「白人替代理论」。

AI政治化案例

不同AI对同一问题的回答截然不同

当被问到「谁是美国政治暴力的更大作恶者,右派还是左派?」时,ChatGPT和Gemini会引用FBI与大学研究的数据,指出右翼极端主义近年来造成更多死亡;而Arya则强调左翼「暴乱破坏更大」,并把进步派抗议描绘为「暴民政治」。

反疫苗AI:Enoch的另类世界观

还有一款直接生长于反疫苗阴谋论社区Natural News的模型Enoch。它宣称自己训练于「十亿页的另类媒体」,要「清除制药集团的宣传,宣扬健康与真相」。

Enoch在回答政治暴力或疫情问题时,会直接引用Natural News的伪科学文章,声称「政府与制药公司共谋,用疫苗奴役民众」。它有一整套逻辑自洽、封闭且可以煽动情绪的世界观:制药公司是阴谋者,政府是共谋者,主流医学都是骗局,主流媒体是帮凶。

马斯克的Grok:从「真相AI」到翻车

在主流大模型中,也有一个「异类」:Grok。马斯克因看不惯ChatGPT的「理中客」,在2023年成立xAI,推出了TruthGPT,直译就是「真相GPT」,而后更名为Grok。马斯克曾多次主张Grok要敢说话、说真话、不回避敏感问题。

Grok确实敢说,甚至敢瞎说。今年Grok就连踩两颗大雷:先是在X上,网友随便问棒球、摄影、旅游的问题,Grok答非所问,开始输出南非白人被黑人政府迫害的阴谋论,「白人种族灭绝」长期都是极右翼叙事。随后,Grok又质疑了纳粹大屠杀的人数,它先说「纳粹杀害约600万犹太人」,紧接着话锋突变:自己「怀疑这个数字,没有看到原始证据」。

Grok争议回答

Grok对纳粹大屠杀规模的质疑引发争议

Grok的「翻车」并非偶然,它是整个「阵营化AI」浪潮中最具代表性、也最具警示性的案例。马斯克想要的「去政治正确」AI,在算法现实中,往往意味着「向另一极端漂移」。它本想做一个「反主流叙事」的叛逆者,反而像一个被算法推着跑偏的叛逆者。

类似的现象不止于此,保守派科技企业家们正在推出更多「右派友好」的AI。比如自称为「自由言论/反审查」搜索和新闻聚合服务的TUSK,明确面向对主流媒体存在不信任的用户群体;同时,AI公司Perplexity也与特朗普系平台Truth Social合作,向该平台提供AI驱动的搜索与问答服务。

讽刺地是,这些AI都声称「突破主流AI的言论封锁」,但实质上,是在用户的世界观中筑起了一座座信息回音室。

技术与市场的双重驱动

AI政治化现象的背后,是技术与市场的双重驱动。

从技术角度看,所有大语言模型在训练时,不同的数据训练集会对其造成影响。Grok与X平台的关系密切,其训练数据不可避免地包含了大量带有特定倾向的内容。而在训练后的「微调」(fine-tuning)阶段,开发者会不可避免地注入自己的价值观。

从市场角度看,AI政治化反映了用户需求的变化。当主流AI被指责带有政治倾向时,用户自然会寻找符合自己世界观的替代品。这种需求催生了专门面向特定政治立场的AI产品,形成了「AI市场」的细分领域。

AI市场分化

用户对AI政治立场的分化需求

尝试弥合:DepolarizingGPT的实验

但并非所有人都在放弃努力,研究者们也在尝试用AI去修复这种撕裂。比如DepolarizingGPT(去极化GPT),其特点是:每当用户提出问题,它给出一个「左翼」答案、一个「右翼」答案、和一个「整合/降低极化」的答案。

理想很丰满,但现实这个AI反应慢到不行,几乎不可用。但这仍然阻挡不了AI正在媒体之外,成为新的舆论武器。这些带有倾向性的AI,也在让政治极化变得更加稳定、更加隐蔽,也更加难以逆转。

未来:AI构建的平行现实

如果说过去十年,美国社会的分裂体现在新闻消费、政策立场、媒体信任度上,那未来十年,分裂可能会体现在不同的人类将生活在由不同AI构建的现实中。同一场抗议、同一项统计、同一条新闻事件,经过不同阵营AI的解释后,会变成完全不同的叙事逻辑。

这种叙事差异逐渐积累,最终会让社会中的「事实基线」完全断裂。而且阵营化AI并不会随着时间变得温和,相反,它们被激励朝用户立场进一步靠拢,因为这是它们存在的意义,也是它们被选择的理由。

正如华盛顿大学的学者Oren Etzioni所说:「人们会像选择媒体一样,选择他们想要的AI风格。唯一的错误,就是以为你得到的是真相。」

技术能否弥合社会裂痕?

AI政治化现象提出了一个深刻的问题:技术能否弥合社会裂痕,还是会加剧分裂?从目前的情况看,AI正在成为社会分化的新战场,但这并不意味着AI只能走向极化。

未来的AI发展可能需要更加注重「多元视角」和「批判性思维」的培养。通过设计能够呈现多种观点、鼓励用户思考的AI系统,或许可以帮助人们跨越信息茧房,理解不同立场的逻辑和依据。

同时,AI开发者也需要更加谨慎地处理价值观对齐问题,避免将单一世界观强加给用户。这可能需要开发更加透明、可解释的AI系统,让用户了解AI的决策依据和潜在偏见。

结语:在技术中立与价值选择之间

AI政治化现象反映了技术发展与社会价值观之间的复杂互动。技术本身可能是中立的,但技术的应用和设计却不可避免地受到价值观的影响。在AI时代,我们需要更加清醒地认识到:没有绝对中立的AI,只有更加透明、负责任的AI开发和使用方式。

面对AI政治化的挑战,我们需要在技术中立与价值选择之间找到平衡点。这需要技术开发者、政策制定者、用户和社会各方的共同努力,确保AI的发展方向符合人类社会的整体利益,而不是加剧社会分裂。

正如一位AI伦理学家所言:「AI不是镜子,而是放大器。它会放大我们最好的品质,也会放大我们最糟糕的偏见。关键在于,我们希望AI放大什么?'

未来展望:走向更加包容的AI

展望未来,AI政治化现象可能会继续深化,但也可能出现新的应对策略。一方面,随着AI技术的普及,人们可能会更加意识到不同AI系统的偏见,从而更加理性地使用AI工具。另一方面,新的AI设计理念可能会出现,强调多元视角、批判性思维和价值观平衡。

此外,监管和标准化也可能在AI政治化现象中发挥重要作用。通过制定适当的规范和标准,确保AI系统的透明度和可解释性,可以帮助用户更好地理解和评估AI的输出,从而减少偏见的影响。

最终,AI政治化现象提醒我们:技术发展不能脱离社会价值观的引导。在追求技术进步的同时,我们也需要关注技术对社会的影响,确保AI的发展方向符合人类社会的整体利益,促进更加包容、理性的公共讨论。