在科技飞速发展的今天,人工智能(AI)已渗透到我们生活的方方面面。然而,伴随着AI技术的广泛应用,一系列伦理和社会问题也日益凸显。近日,美国前总统特朗普发布了一项旨在消除AI领域中“觉醒偏见”的行政命令,引发了社会各界的广泛争议。这项命令不仅触及了言论自由的边界,还可能对美国的AI创新能力产生深远影响。本文将深入探讨特朗普政府的这项“反觉醒”AI指令,分析其背后的政治动机、法律挑战以及可能带来的实际后果。
特朗普的“反觉醒”AI指令:内容与争议
特朗普政府的这项行政命令要求,任何希望与联邦政府合作的AI公司必须证明其AI系统是“追求真理”的,其输出应基于“历史准确性、科学探究和客观性”,或者承认事实的不确定性。此外,AI模型还必须被训练成“中立”的,即不偏袒多元、平等和包容(DEI)原则,不带有“教条”,也不应被“有意编码”以产生“党派或意识形态判断”,除非这些判断是由最终用户提示或易于访问的。特朗普在一次演讲中宣称,美国赢得AI竞赛的关键在于消除所谓的自由主义偏见,“一劳永逸地摆脱觉醒”。
然而,这项命令一经发布,便受到了各方质疑。马萨诸塞州参议员埃德·马基(Ed Markey)指责共和党人基于感觉而非事实制定政策,并批评特朗普的命令忽略了“更令人震惊的证据”,例如埃隆·马斯克明确承认Grok被训练成更右翼。马基警告说,特朗普的AI议程是“专制权力攫取”,旨在“消除异议”,既“危险”又“明显违宪”。
合宪性挑战:言论自由与政府干预
马基认为,即使AI模型的偏见是显而易见的,共和党人也在利用国家权力向私营公司施压,要求其采纳特定的政治观点,这明显违反了美国宪法第一修正案。他警告说,如果AI制造商屈服,他们将允许特朗普创造“重大的经济激励”,以确保“他们的AI聊天机器人不会产生会让特朗普政府不安的言论”。这种对私人言论的干预正是美国宪法第一修正案所要避免的。此外,马基还指出,特朗普的命令是“基于错误的信念,即今天的AI聊天机器人是‘觉醒的’,并且对特朗普有偏见”,因此在事实上毫无根据。
一些专家也同意马基的观点,认为特朗普的命令可能违宪或不合法。《纽约时报》报道称,特朗普可能难以说服法院,政府没有不正当地干预AI公司受保护的言论,或者这种干预对于确保联邦政府采购无偏见的AI系统是必要的。芝加哥大学法学教授吉纳维芙·拉基尔(Genevieve Lakier)表示,对于什么构成模型偏见的定义不清可能是一个问题。法院可能会认为该命令是一种“违宪的劝诱”,特朗普政府和共和党人普遍被认为利用法律威胁来迫使私营公司产生他们喜欢的输出。
拉基尔认为,AI公司可能会因为渴望赢得政府合同或害怕特朗普可能的报复而不敢挑战该命令。马基希望AI公司能够拒绝遵守该命令,但他承认这会让公司“处于一个困难的境地:要么坚持你的原则,面对特朗普政府的愤怒,要么屈服于特朗普,修改你公司的政治言论”。
创新威胁:技术挑战与合规成本
除了法律挑战外,特朗普的“反觉醒”AI指令还可能对美国的AI创新能力构成威胁。艾伦人工智能研究所前首席执行官奥伦·埃齐奥尼(Oren Etzioni)表示,特朗普的命令可能与他的AI行动计划的首要任务——加速美国AI创新——相矛盾,实际上会阻碍创新。如果AI开发人员难以产生特朗普政府认为“中立”的输出,这可能会延缓模型的发展。埃齐奥尼告诉CNN:“这种事情……为开发这些模型的人带来了各种担忧、责任和复杂性——突然之间,他们不得不放慢速度。”
要使AI模型不带偏见是一项极其复杂的技术挑战。专家普遍认为,AI模型是通过学习大量数据来生成输出的。如果训练数据本身就存在偏差,那么AI模型自然会继承这些偏差。例如,如果一个图像生成模型接受了主要由白人男性图像组成的训练,那么它在生成人物图像时可能会更倾向于生成白人男性。同样,如果一个语言模型接受了包含大量性别歧视或种族歧视言论的训练,那么它可能会生成类似的冒犯性言论。
此外,即使训练数据经过精心筛选,要确保AI模型在所有情况下都能产生“中立”的输出也是非常困难的。AI模型的行为往往是不可预测的,即使是开发人员也很难解释为什么模型会产生特定的输出。这意味着,AI公司可能需要投入大量资源来测试和调试其模型,以确保它们符合特朗普政府的要求。
合规成本也是一个不容忽视的问题。为了满足特朗普的“反觉醒”AI指令,AI公司可能需要调整其开发流程、培训数据和模型架构。这些调整可能会耗费大量时间和金钱,特别是对于那些资源有限的小型公司而言。此外,AI公司还需要应对不断变化的政府标准。特朗普政府对于什么是“事实”和什么是“意识形态”的定义可能会随着时间的推移而发生变化,这使得AI公司很难确定如何才能确保其模型符合要求。
共和党的虚伪:Grok丑闻与双重标准
马基指出,共和党人对AI偏见的“选择性愤怒”与保守派类似地拒绝承认大型科技平台对保守派用户进行停权或施加其他处罚,是因为这些用户更有可能分享虚假信息,而不是因为平台存在任何政治偏见。他还特别提到了埃隆·马斯克的Grok聊天机器人。今年夏天早些时候,马斯克宣布他将更新Grok,以消除所谓的自由主义偏见。此后,Grok开始发布冒犯性输出,包括赞扬希特勒的反犹太主义帖子,并宣称自己是“MechaHitler”。
然而,这些明显的偏见并没有妨碍五角大楼授予xAI一份价值2亿美元的联邦合同。五角大楼的一位发言人坚称,“反犹太主义事件不足以取消xAI的资格”,部分原因是“几个前沿AI模型都产生了有问题的输出”。五角大楼的声明表明,政府预计会处理这些风险,同时抓住机会将新兴AI技术快速部署到政府原型流程中。值得注意的是,特朗普为使用AI模型来维护国家安全的机构提供了一个例外,这可能使五角大楼免受在访问前沿模型时遇到的任何“反觉醒”延误。
Grok的案例凸显了共和党人在AI偏见问题上的虚伪。一方面,他们谴责所谓的自由主义偏见,并试图通过行政命令来消除这种偏见。另一方面,他们却对Grok等右翼AI模型的偏见视而不见,甚至授予其政府合同。这种双重标准表明,共和党人真正关心的不是AI的客观性,而是确保AI能够支持他们的政治议程。
反思与展望:AI伦理的未来
特朗普的“反觉醒”AI指令引发了一系列关于AI伦理的重要问题。我们应该如何定义和衡量AI偏见?政府是否有权干预私营公司的AI开发?我们如何确保AI技术能够为所有人服务,而不是加剧现有的不平等?这些问题没有简单的答案。解决这些问题需要政府、企业、研究人员和公众之间的合作与对话。
尽管特朗普的“反觉醒”AI指令可能面临法律挑战和技术障碍,但它仍然提醒我们,AI技术并非价值中立。AI模型的输出反映了训练数据的偏见和开发人员的价值观。如果我们希望AI技术能够为社会带来积极影响,我们就必须认真对待AI伦理问题,并采取措施来减少偏见和确保公平。
在未来,我们可能需要开发新的技术和方法来检测和纠正AI偏见。我们还需要制定明确的伦理准则和监管框架,以规范AI的开发和使用。最重要的是,我们需要培养一种批判性思维,以便我们能够识别和挑战AI系统中的偏见,并确保AI技术能够真正服务于人类的共同利益。
特朗普的“反觉醒”AI指令或许难以实现其目标,但它无疑为我们提供了一个反思AI伦理的契机。只有通过深入的思考和持续的努力,我们才能确保AI技术的发展方向符合我们的价值观和愿景。
其他机构的挑战与潜在延误
特朗普发布“反觉醒”AI指令的同一天,他的AI行动计划承诺了一场AI“复兴”,通过“解开曾经被认为无法解读的古代卷轴,在科学和数学理论上取得突破,并创造新型数字和物理艺术”来推动“智力成就”。为了实现这一目标,美国必须“比竞争对手更快、更全面地创新”,并消除阻碍创新的监管障碍,以便“为全球AI设定黄金标准”。
然而,实现这两个命令的反觉醒目标提出了一项技术问题,即使是总统也必须承认目前没有解决方案。在他的AI行动计划中,特朗普承认“人们对前沿AI系统的内部运作知之甚少”,甚至“高级技术人员”也无法解释“为什么模型会产生特定的输出”。
要求AI公司解释其AI输出来赢得政府合同是否会影响特朗普行动计划的其他部分还有待观察。但公民自由组织“民主与技术中心”的政策副总裁萨米尔·贾恩(Samir Jain)告诉《纽约时报》,他预计反觉醒AI议程将制定“一个非常模糊的标准,提供商根本无法达到”。
可以肯定的是,特朗普的这项行政命令在合宪性、技术可行性和实际影响方面都面临着巨大的挑战。它不仅可能侵犯AI公司的言论自由权,还可能阻碍美国的AI创新能力。更重要的是,它反映了一种对AI偏见的片面理解,忽视了右翼AI模型可能存在的偏见。只有通过更全面、更客观的视角,我们才能真正理解和解决AI伦理问题,并确保AI技术能够为所有人带来福祉。
结论
特朗普政府的这项“反觉醒”AI指令,是一项充满争议且可能适得其反的政策。它不仅触及了言论自由的红线,还可能对美国的AI创新能力造成损害。更重要的是,它反映了一种对AI偏见的片面理解,忽视了右翼AI模型可能存在的偏见。面对AI伦理的复杂挑战,我们需要采取一种更加全面和客观的视角,以确保AI技术能够真正服务于人类的共同利益。