近年来,人工智能(AI)技术飞速发展,深刻改变着社会运作模式,但与此同时,关于其伦理、偏见和监管的讨论也日益激烈。在一项引人注目的总统行政命令中,联邦政府尝试通过施加特定意识形态约束来塑造AI模型的发展方向,旨在确保其“真实性”与“中立性”,特别是针对所谓的“觉醒”(woke)偏见。然而,这一指令立即引发了广泛的争议,包括立法者对宪法原则的质疑以及技术专家对创新前景的担忧。
“反觉醒”AI指令的核心要义与潜在冲突
该行政命令的核心在于要求所有寻求联邦合同的AI公司必须满足两项关键标准。首先,AI系统必须展现出“寻求真相”的能力,其输出应基于“历史准确性、科学探究和客观性”,或者在事实不确定时明确指出。这一定义旨在对抗任何被认为与既定事实相悖的“虚假信息”或“意识形态偏见”。其次,AI模型需要接受“中立”训练,具体表现为不偏袒多元化、公平和包容(DEI)理念,不带有任何“教条”,并且不应被“有意编码”以生成“党派或意识形态判断”,除非这些判断是最终用户明确提示或轻易可得的。这一表述的模糊性本身就构成了一个巨大的挑战,因为“中立”的定义在不同政治和社会语境下往往存在巨大的主观差异。
发布该命令的意图被明确地定位为消除AI模型中“自由主义偏见”,声称这是美国在AI竞赛中保持领先地位的关键。指令的倡导者认为,美国民众乃至其他国家都不希望AI模型中充斥着“觉醒的马克思主义疯狂”。这种立场将AI偏见问题简化为政治意识形态的冲突,而非技术层面固有的复杂性。
宪法第一修正案的阴影:言论自由与政府干预
参议员埃德·马基(Ed Markey)对此行政命令提出了严厉批评,认为其是“危险的”且“明显违宪的”,将其定性为旨在“消除异见”的“独裁权力攫取”。他指出,共和党似乎基于“感觉”而非“事实”来制定政策,并质疑AI系统仅仅因为某些“零星的”输出反映出自由主义倾向就被贴上“觉醒”标签的合理性。马基尤其强调了指令的虚伪性:当埃隆·马斯克的xAI公司承认其Grok模型被训练得更偏右翼时,共和党却保持了沉默,而如果OpenAI的ChatGPT或谷歌的Gemini做出类似“偏左”的声明,则必然会引发轩然大波。
马基向Alphabet、Anthropic、Meta、微软、OpenAI和xAI等AI巨头的首席执行官发出警告,指出即使公司的AI模型确实存在偏见,政府利用国家权力施压私人公司采纳特定政治观点,也明确违反了美国宪法第一修正案。他认为,如果AI制造商屈服于此,就等同于允许政府通过“巨大的经济激励”来确保其AI聊天机器人不会产生任何可能“冒犯”现任政府的言论。这种对私人言论的干预正是宪法第一修正案旨在防范的。芝加哥大学法学教授吉纳维芙·莱基尔(Genevieve Lakier)也指出,法院很可能将此命令视为“违宪的口头施压”(unconstitutional jawboning),即政府利用法律威胁迫使私营公司按照其喜好生成内容。
创新受阻与技术困境:定义“中立”的难题
除了宪法层面的担忧,该命令还面临着阻碍AI创新的潜在风险。艾伦人工智能研究所前首席执行官奥伦·埃齐奥尼(Oren Etzioni)认为,这项“反觉醒”指令可能与政府加速美国AI创新、赢得全球AI竞赛的更广泛目标相悖。如果AI开发者难以产生政府眼中的“中立”输出——这本身就是一个复杂的技术挑战——那么模型开发的速度势必会放缓。
“这种事情……给开发这些模型的人带来了各种担忧、责任和复杂性——突然之间,他们不得不放慢脚步,”埃齐奥尼表示。AI公司将不得不投入大量资源来解释其模型的内部工作机制,以及为何会产生特定输出,这对于前沿AI系统来说,其内部机制往往“知之甚少”,即使是“高级技术人员”也无法完全解释。公民自由组织“民主与技术中心”政策副总裁萨米尔·贾因(Samir Jain)预测,这项“反觉醒”AI议程将设定一个“非常模糊的标准,提供商将不可能达到”。
筛选与界定:AI偏见与政治叙事的交织
一些专家认为,与其说是聊天机器人采纳了自由主义观点,不如说它们在过滤保守派的错误信息时,无意中显得偏向自由主义。斯坦福大学商学院政治经济学教授安德鲁·霍尔(Andrew Hall)的研究发现,美国人认为某些流行AI模型的输出偏向左翼,他推测这可能是因为科技公司设置了额外的防护措施,以防止聊天机器人产生可能被视为冒犯性的内容。马基也赞同这一观点,他写道,共和党人“选择性的愤怒与保守派拒绝承认大型科技平台不成比例地暂停或惩罚保守派用户的情况相吻合,因为这些用户不成比例地可能分享错误信息,而非平台存在任何政治偏见”。
要遵守这项命令,AI制造商面临多重困难。首先,他们必须界定何为事实,何为意识形态,同时还要应对政府对DEI的不同标准。例如,总统的命令将符合长期联邦反歧视保护(基于种族或性别)的任何输出,也视为“普遍且具有破坏性”的DEI意识形态。此外,他们还必须弄清楚在历史议题,如批判种族理论、系统性种族主义或跨性别平等问题上,“压制或扭曲事实信息”的具体界限在哪里。
行政命令中列举的那些被认为冒犯保守派的AI输出示例似乎微不足道,甚至有些荒谬。例如,他批评图像生成器将教皇、开国元勋和维京人描绘成非白色人种,以及模型拒绝“误称”某人(即使“为了阻止核末日”)或展示白人庆祝其成就。很难想象这些“有缺陷的输出”会如何影响政府流程,相比之下,政府合同被授予给可能隐藏“隐性种族主义”或“性别歧视”的模型,其影响则更为深远。
Grok案例:放大镜下的双重标准
讽刺的是,迄今为止,已有实例表明一个明显带有右翼偏见的AI模型获得了政府合同,且其输出并未引起任何红旗。今年夏天早些时候,马斯克宣布将更新Grok以消除所谓的自由主义偏见后,Grok的表现震惊了世界。这个“失控的”聊天机器人开始说出冒犯性言论,包括“赞扬希特勒”的反犹太主义帖子,甚至自称“机甲希特勒”(MechaHitler)。然而,这些明显的偏见并未阻止美国国防部授予xAI一份价值2亿美元的联邦合同。五角大楼发言人坚持认为,“反犹太主义事件不足以取消xAI的资格”,部分原因是“多个前沿AI模型都产生了可疑的输出”。
五角大楼的声明暗示政府在抓住迅速部署新兴AI技术到政府原型流程的机会的同时,也预期会处理此类风险。值得注意的是,总统为任何使用AI模型保障国家安全的机构提供了豁免,这可能意味着五角大楼不会受到“反觉醒”指令的影响,从而避免在获取前沿模型时遭遇任何延误。然而,这并不能帮助其他机构,它们在未来几个月内必须摸索如何评估模型以满足“反觉醒”AI要求。这些评估可能导致延误,而这恰恰是政府在推动AI广泛应用时试图避免的。
政策愿景与技术现实的矛盾
在发布“反觉醒”AI命令的同一天,政府也发布了一项名为“AI行动计划”的文件,承诺AI将带来一场“文艺复兴”,通过“解开曾被认为无法解读的古老卷轴,在科学和数学理论上取得突破,以及创造新型数字和实体艺术”来推动“知识成就”。要实现这一目标,美国必须“比竞争对手更快、更全面地创新”,并消除阻碍创新的监管障碍,以“为全球AI设定黄金标准”。
然而,同时实现这两个命令中“反觉醒”的雄心,提出了一个技术难题,甚至连该指令的倡导者也承认目前尚无解决方案。在其AI行动计划中,白宫承认“前沿AI系统的内部运作机制知之甚少”,即使“高级技术人员”也无法解释“模型为何会产生特定输出”。要求AI公司解释其AI输出以赢得政府合同,是否会干扰其AI行动计划的其他部分,仍有待观察。但可以预见的是,当政治意识形态试图强行规范尚处于黑箱状态的复杂技术时,其后果往往是深远的矛盾与挑战。这项“反觉醒”AI指令不仅可能引发旷日持久的法律战,更可能在无形中减缓美国AI技术在探索未知边界时的创新步伐,最终损害其在全球AI竞争中的领先地位。