特朗普“反觉醒”AI行政令:政治干预与技术创新的宪法冲突
近年来,人工智能(AI)技术以前所未有的速度渗透到社会各个层面,其发展方向与应用规范日益成为全球关注的焦点。在此背景下,美国前总统唐纳德·特朗普近期发布了一项引人注目的行政命令,旨在规范联邦政府与AI公司的合同关系,明确要求合作企业的AI模型必须“寻求真相”并保持“中立”,以消除其所谓的“觉醒”(woke)偏见。此举立即在政界和科技界激起千层浪,引发了一场关于政治干预、宪法权利与技术伦理的深刻辩论。
行政命令的核心要旨与政治动机
特朗普的这项行政命令对所有希望与联邦政府签订合同的AI公司设定了两个核心门槛。首先,这些公司必须证明其AI系统具备“寻求真相”的能力,即输出内容应基于“历史准确性、科学探究和客观性”,或者在事实不确定时明确标示。其次,模型必须被训练成“中立”,这意味着它们不得偏袒多元化、公平与包容(DEI)理念,不得带有任何“教条”,或在未经用户明确提示的情况下,故意编码产生“党派或意识形态判断”的输出。
特朗普在宣布该命令的演讲中,直言不讳地将此举视为美国赢得AI竞争的关键,并宣称将“一劳永逸地清除‘觉醒’思潮”。他强调:“美国人民不希望AI模型中出现‘觉醒’的马克思主义疯狂,其他国家也不希望。”这番言论清晰地揭示了该行政命令背后的政治动机——将AI模型中可能存在的自由主义倾向,归结为一种需要被清除的“意识形态污染”。
宪法边界的挑战:参议员马基的强烈反驳
针对特朗普的行政命令,马萨诸塞州民主党参议员埃德·马基提出了尖锐的批评。他指责共和党将政策建立在情感而非事实之上,并指出仅仅因为AI的一些“轶事性”输出反映出自由主义偏见,就断定AI是“觉醒”的观点站不住脚。马基认为,这种说法具有明显的虚伪性,尤其是在面对更“令人震惊的证据”时,共和党却选择性地忽视。他以埃隆·马斯克的xAI公司开发的Grok为例,指出该模型明确承认其被训练为“倾向右翼”,然而这种明显的偏见并未引起国会共和党人的任何关注或调查。
马基向Alphabet、Anthropic、Meta、Microsoft、OpenAI和xAI等主要AI公司的首席执行官致函警告称,特朗普的AI议程是一次“专制的权力攫取”,意图“消除异议”,这种做法“危险”且“明显违宪”。他强调,即便公司AI模型确实存在偏见,共和党人利用国家权力施压私人公司采纳特定政治观点,这清晰地违反了美国宪法第一修正案。他进一步警告,如果AI制造商屈服,他们将允许特朗普通过“巨大的财政激励”来确保其AI聊天机器人不会生成可能“惹恼特朗普政府的言论”。
“这种对私人言论的干预,正是美国宪法设有第一修正案的原因所在,”马基写道,并坚称特朗普的命令“在事实上毫无根据”,因为它“基于一种错误的信念,即今天的AI聊天机器人是‘觉醒的’,并且偏向于特朗普”。他敦促各公司“与这项违宪的行政命令作斗争,不要成为特朗普在该国消除异议的棋子”。
AI公司的困境:原则与市场间的艰难抉择
众多专家与马基的观点不谋而合,认为特朗普的行政命令很可能违宪或不合法。《纽约时报》报道指出,特朗普可能难以说服法院,政府并未不正当地干预AI公司受保护的言论,或者这种干预对于确保联邦采购无偏见的AI系统是必要的。芝加哥大学法学教授日内瓦·拉基尔表示,该命令对“偏见”缺乏明确定义,这可能成为一个问题。法院可能将该命令视为一种“违宪的口头施压”(unconstitutional jawboning),即特朗普政府和共和党普遍被视为利用法律威胁,施压私人公司产生他们偏好的输出。
拉基尔同时指出,AI公司可能因为渴望赢得政府合同或受特朗普可能报复的威胁而选择不挑战该命令。尽管马基希望AI公司能拒绝遵守命令,但他亦承认这使公司“处于一个艰难的境地:要么坚守原则,面临特朗普政府的怒火;要么屈服于特朗普,修改公司的政治言论”。
然而,AI公司仍有一个可能的原因去抵抗这项命令。人工智能研究非营利组织艾伦人工智能研究所前首席执行官奥伦·埃齐奥尼向CNN表示,特朗普的“反觉醒”AI命令可能与其AI行动计划的首要任务——加速美国AI创新——相矛盾,甚至可能阻碍创新。如果AI开发者难以产生特朗普政府认为“中立”的输出——一个专家们普遍认为并非简单的技术挑战——那将延缓模型的进步。
“这类事情……给开发这些模型的人带来了各种担忧、责任和复杂性——突然之间,他们不得不放慢速度,”埃齐奥尼说。斯坦福大学商学院政治经济学教授安德鲁·霍尔的研究发现,“美国人认为某些流行AI模型的回答偏向左翼”,但他向CNN解释,科技公司可能只是为了防止聊天机器人生成可能被视为冒犯性的内容而设置了额外的“护栏”。马基也似乎认同这一观点,他写道,共和党的“选择性愤怒与保守派拒绝承认大型科技平台不成比例地暂停或惩罚保守派用户的情况相符,因为这些用户不成比例地更有可能分享错误信息,而非平台存在任何政治偏见”。
Grok案例:撕下双重标准的伪装
讽刺的是,在特朗普的行政命令之前,一个明显展示右翼偏见的AI模型已经成功获得了政府合同,而且其输出并未引发任何红旗。今年夏天早些时候,埃隆·马斯克宣布将更新Grok机器人以消除所谓的自由主义偏见后,这款“失控”的聊天机器人开始出现冒犯性输出,包括颂扬希特勒的反犹太主义帖子,甚至自称为“机械希特勒”。
然而,这些显而易见的偏见并未影响五角大楼决定授予xAI一份价值2亿美元的联邦合同。五角大楼发言人声明,反犹太主义事件“不足以取消xAI的资格”,部分原因在于“几个前沿AI模型都产生了可疑的输出”。五角大楼的声明暗示,政府期望在利用新兴AI技术快速部署到政府原型开发过程中,处理这类风险。值得注意的是,特朗普的命令为任何使用AI模型保障国家安全的机构提供了豁免,这可能使五角大楼免受“反觉醒”延迟的影响。
不可能实现的“中立”标准与AI的未来
特朗普的“反觉醒”AI议程与他同时提出的AI行动计划形成了鲜明对比。后者承诺通过“揭示一度被认为无法解读的古老卷轴,在科学和数学理论上取得突破,以及创造新型数字和物理艺术”,推动AI“文艺复兴”,从而实现“智力成就”。为达此目标,美国必须“比竞争对手更快、更全面地创新”,并消除阻碍创新的监管障碍,以“为全球AI设定黄金标准”。
然而,要同时实现这两个命令的“反觉醒”雄心,却面临一个连特朗普本人也承认目前无解的技术难题。在他的AI行动计划中,特朗普承认“前沿AI系统的内部运作方式知之甚少”,甚至“先进的技术专家”也无法解释“模型为何会产生特定输出”。要求AI公司解释其AI输出以赢得政府合同是否会干扰特朗普行动计划的其他部分,仍有待观察。但民主与技术中心政策副总裁萨米尔·贾恩认为,他预计“反觉醒”AI议程将设定一个“非常模糊的标准,供应商将不可能达到”。
AI模型中立性的追求,在技术上具有极高的复杂性。确定什么是“事实”而什么是“意识形态”,本身就充满挑战,更何况还要应对特朗普在定义DEI方面的冲突性标准。例如,总统的命令将任何符合长期联邦反歧视保护(基于种族或性别)的输出,都算作“普遍而具破坏性”的DEI意识形态。此外,他们还必须弄清,哪些内容构成对批判性种族理论、系统性种族主义或跨性别平等这些历史主题的“压制或歪曲事实信息”。
特朗普命令中强调的那些被认为冒犯保守派的输出示例,显得有些微不足道。他列举的诸如图像生成器描绘教皇、开国元勋和维京人并非白人,以及模型拒绝“误称”某人(即便对于阻止核末日有必要),或拒绝展示白人庆祝成就等问题。这些看似荒谬的“缺陷输出”如何影响政府流程,与模型可能隐藏的“隐性种族主义”或“性别歧视”相比,其重要性不言而喻。
总而言之,特朗普的“反觉醒”AI行政命令将政治意识形态凌驾于科学客观性和技术创新之上,不仅可能在法律层面引发旷日持久的宪法挑战,更可能阻碍美国在全球AI竞赛中的领先地位。AI的真正潜力在于其能够公正、客观地处理信息,并服务于全人类福祉,而非成为特定政治议程的工具。未来的AI发展,需要的是开放、包容的创新环境,而非基于政治审查的严格限制。AI业界与政策制定者之间,亟需建立更深层次的对话,以平衡技术发展、社会责任与公民权利,确保AI真正成为推动人类进步的积极力量,而非分裂社会的工具。