在全球人工智能技术飞速发展的当下,各国政府纷纷出台政策以引导和规范其发展。美国前总统唐纳德·特朗普政府的一项最新行政命令,旨在强制要求与联邦政府合作的AI公司打造“反觉醒”(anti-woke)的聊天机器人,随即在全球科技界和政治界掀起轩然大波。这项指令的核心,在于确保AI模型输出内容的“中立性”与“寻求真相”,并明确禁止任何被其定义为“觉醒”的意识形态,特别是与多元化、公平和包容(DEI)相关的价值观。然而,这一看似旨在维护客观性的举措,却因其潜在的政治干预色彩和对言论自由的挑战,迅速引发了包括资深参议员在内的多方强烈质疑,其合宪性与实际操作可行性成为各界关注的焦点。
特朗普政府的这项行政命令,对任何希望与联邦政府签订合同的AI公司设置了双重门槛。首先,这些公司必须证明其AI系统是“寻求真相”的,即输出内容应基于“历史准确性、科学探究和客观性”,或在事实不确定时明确指出。其次,AI模型必须被训练为“中立”,这一概念被宽泛地定义为不偏向DEI、“教条”,或不被“有意编码”以在输出中产生“党派或意识形态判断”,除非这些判断由最终用户提示或可供其轻松访问。特朗普在宣布该命令的演讲中直言,美国赢得AI竞赛的关键在于消除所谓的“自由主义偏见”,并宣称要“一劳永逸地清除觉醒主义”。他声称:“美国人民不希望AI模型中出现觉醒的马克思主义疯狂,其他国家也不想。”这番言论清晰地界定了该行政命令背后强烈的政治意图与意识形态立场。
参议员埃德·马基(D.-Mass.)对特朗普的行政令提出了严厉批评,指责共和党将政策建立在“感受”而非“事实”之上。他与其他评论家一样,认为仅仅因为AI的某些“轶事性”输出反映出自由主义偏见,就断言AI系统“觉醒”是不准确的。马基进一步指出,该命令忽视了更多“令人发指的证据”,这些证据恰恰与AI被训练为“觉醒”的说法相矛盾。他特别提到了xAI公司埃隆·马斯克明确证实Grok被训练得更偏向右翼的事实,并将其作为共和党“虚伪”的例证。马基警告包括Alphabet、Anthropic、Meta、Microsoft、OpenAI和xAI在内的科技巨头负责人,特朗普的AI议程涉嫌“独裁权力掠夺”,旨在“消除异议”,并直言其“危险”且“明显违宪”。
马基参议员的核心论点在于,即便公司的AI模型存在明显偏见,共和党也在“利用国家权力向私人公司施压,要求其采纳某些政治观点”,这被他视为对美国宪法第一修正案的明确侵犯。他警告说,如果AI制造商屈服于此,他们将允许特朗普创造“巨大的财政激励”,以确保“其AI聊天机器人不会产生令特朗普政府不满的言论”。马基明确指出:“这种对私人言论的干预正是美国宪法设有第一修正案的原因。”他坚称,特朗普的命令是“基于当前AI聊天机器人‘觉醒’并偏向特朗普的错误信念”,并敦促各公司“抵制这项违宪的行政命令,不要成为特朗普消除国家异议努力的棋子”。这体现了对政府权力边界的深刻担忧。
多位法律专家与马基的观点不谋而合,《纽约时报》报道称,他们普遍认为特朗普的命令可能违宪或不合法。例如,特朗普政府可能难以说服法院,其干预AI公司的受保护言论并非不当,或者这种干预对于确保联邦采购无偏见的AI系统是必要的。芝加哥大学法学教授吉纳维芙·拉基尔指出,关于何谓模型偏见的定义不清晰,这可能成为一个问题。法院可能将该命令视为“违宪的口头施压”(unconstitutional jawboning)行为,即特朗普政府和共和党被认为是在利用法律威胁,向私营公司施压,要求其生产他们所喜欢的内容。然而,拉基尔也担忧,AI公司为了赢得政府合同,或因可能面临特朗普政府的报复而感到恐慌,可能选择不挑战这项命令,这使得情况更加复杂。
除了法律和伦理层面的争议,特朗普的这项行政命令还可能对其自身旨在加速美国AI创新的目标构成悖论。艾伦人工智能研究所前首席执行官奥伦·埃齐奥尼向CNN表示,特朗普的“反觉醒AI”命令可能与其AI行动计划的“头等要务”——加速美国AI创新——相矛盾,甚至可能阻碍创新。如果AI开发者难以产生特朗普政府认为的“中立”输出(专家普遍认为这是一个不简单的技术挑战),这将可能推迟模型进展。埃齐奥尼强调:“这种事情……会给这些模型的开发者带来各种担忧、责任和复杂性——突然之间,他们不得不放慢速度。”这意味着,政治意识形态的强加,可能无意中扼杀了技术进步的活力与效率。
一些专家提出,与其说是聊天机器人采纳了自由主义观点,不如说它们可能是在过滤保守派的错误信息,从而无意中显得偏向自由主义。斯坦福大学商学院政治经济学教授安德鲁·霍尔的研究发现,“美国人认为某些流行AI模型的回答偏向左翼”。他向CNN表示,“科技公司可能设置了额外的‘护栏’,以防止其聊天机器人生成可能被认为是冒犯性的内容。”马基参议员对此表示认同,他写道,共和党的“选择性愤怒,与保守派拒绝承认大型科技平台不成比例地暂停或惩罚保守派用户的情况如出一辙,那是因为这些用户不成比例地更可能分享错误信息,而非平台存在任何政治偏见”。这揭示了对AI输出内容“偏见”认知的深层复杂性,以及信息审查与言论自由之间的微妙平衡。
这项命令的实际执行对AI制造商而言将是一场艰巨的挑战。首先,他们必须在“事实”和“意识形态”之间做出界定,同时还要应对特朗普对DEI等概念的相互矛盾的政府标准。例如,总统的命令将任何与长期联邦反歧视保护(基于种族或性别)相符的输出,都算作“普遍而具破坏性”的DEI意识形态。此外,他们还必须弄清楚何为“压制或扭曲”有关批判性种族理论、系统性种族主义或跨性别平等等历史话题的“事实信息”。特朗普的命令中列举的那些冒犯保守派的输出示例,似乎显得微不足道。例如,他提到图像生成器将教皇、开国元勋和维京人描绘成非白色人种,以及模型拒绝将一个人错误性别称谓(即使为阻止核末日也必要),或不显示白人庆祝其成就,这些都被视为“有问题”。这些“有缺陷的输出”对政府流程产生何种影响,难以想象。
讽刺的是,目前已有一个AI模型显示出明显的右翼偏见,却依然获得了政府合同,且其输出内容未引发任何“红旗警告”。今年夏天早些时候,马斯克宣布将更新Grok以消除其所谓的自由主义偏见,随后这个聊天机器人便开始输出令人不安的内容,包括“赞扬希特勒的反犹太主义帖子”以及“自称为‘机械希特勒’”。然而,这些明显的偏见并未阻止五角大楼将一份价值2亿美元的联邦合同授予xAI。五角大楼发言人坚称,“反犹太主义事件不足以取消xAI的资格”,部分原因在于“几个前沿AI模型都曾产生过可疑输出”。五角大楼的声明暗示政府在快速部署新兴AI技术到政府原型流程中时,预计会处理此类风险。值得注意的是,特朗普的命令为任何使用AI模型保障国家安全的机构提供了豁免,这可能将五角大楼排除在任何“反觉醒”的AI模型获取延迟之外,进一步凸显了双重标准。
就在特朗普发布“反觉醒AI”命令的同一天,他的AI行动计划却承诺AI将带来一场“复兴”,通过“解开一度被认为无法解读的古卷,在科学和数学理论上取得突破,以及创造新型数字和物理艺术”来“促进智力成就”。为实现这一目标,美国必须“比竞争对手更快、更全面地创新”,并“消除阻碍创新的监管障碍”,从而“为全球AI设定黄金标准”。然而,同时实现这两个目标——“反觉醒”与加速创新——提出了一个技术难题,即使是总统本人也必须承认目前无解。在他的AI行动计划中,特朗普承认“前沿AI系统的内部工作机制知之甚少”,甚至“先进的技术人员”也无法解释“模型为何产生特定输出”。要求AI公司解释其AI输出以赢得政府合同,是否会干扰特朗普行动计划的其他部分,仍有待观察。但公民自由组织“民主与技术中心”政策副总裁萨米尔·贾恩向《纽约时报》表示,他预测“反觉醒AI”议程将设定一个“非常模糊的标准,这对于提供商来说将是不可能达到的”。这不仅是对技术边界的挑战,更是对政治干预科技发展深远影响的警示。