在科技政策的角力场中,一场关于人工智能(AI)监管的争端在参议院落下帷幕。参议员特德·克鲁兹(共和党,得克萨斯州)提出的旨在惩罚那些试图监管AI技术的州的计划,最终以99票反对、1票支持的压倒性结果被否决。这场投票不仅反映了参议院对AI监管问题的复杂态度,也揭示了在科技快速发展背景下,联邦与州之间权力分配的深刻矛盾。
克鲁兹的提案原本试图通过预算协调的方式,阻止各州制定涉及机器人电话、深度伪造和自动驾驶汽车等领域的AI相关法律。然而,这一计划遭遇了来自两党的强烈反对。参议员玛丽亚·坎特韦尔(民主党,华盛顿州)指出,克鲁兹的提案实际上是对各州消费者保护法律的侵犯。
众议院此前通过了一项预算案,其中包含一项为期10年的州AI监管禁令。克鲁兹试图利用参议院的规则,即预算协调立法中不得包含“无关事项”,提出一项修正案,规定如果各州试图监管AI,将被排除在420亿美元的宽带部署基金之外。
尽管克鲁兹声称他的提案旨在防止各州“以欧盟式监管扼杀AI部署”,但事与愿违的是,他的家乡得克萨斯州在不到三周后就颁布了一项法律,对人工智能的使用进行监管。这一举动无疑给克鲁兹的立场带来了尴尬。
面对各方压力,克鲁兹曾试图妥协,将惩罚措施从剥夺420亿美元的宽带基金改为剥夺5亿美元的AI基金。然而,坎特韦尔的办公室表示,即使是修改后的版本仍然存在漏洞,可能威胁到各州获得整个宽带基金的资格。
参议员玛莎·布莱克本(共和党,田纳西州)与坎特韦尔联手反对克鲁兹的计划。布莱克本最初曾与克鲁兹达成一项为期五年的暂停协议,允许某些形式的AI监管,但后来她认为该协议不够完善。
布莱克本在一份声明中表示,虽然她赞赏克鲁兹主席为寻求可接受的语言以允许各州保护其公民免受AI滥用所做的努力,但目前的语言对于最需要这些保护的人来说是不可接受的。她认为,该条款可能允许大型科技公司继续剥削儿童、创作者和保守派。在国会通过联邦优先立法(如《儿童在线安全法案》和在线隐私框架)之前,不应阻止各州制定保护其公民的法律。
在妥协方案破裂后,参议院以99票赞成、1票反对的结果通过了布莱克本的修正案,从预算案中删除了AI条款。参议员汤姆·蒂利斯(共和党,北卡罗来纳州)是唯一投反对票的人。
据《The Hill》报道,克鲁兹最终在周二早些时候支持了布莱克本的修正案,承认他的许多同僚宁愿不对这件事进行投票。克鲁兹表示,这项为期五年的暂停协议得到了总统特朗普的支持,并保护了儿童和创意艺术家的权利,但遭到了外部利益集团的反对。
然而,布莱克本表示,他们未能达成一项能够保护州长、州议员、总检察长以及表达对此语言担忧的众议院议员的妥协方案。她认为,参议院已经证明了他们无法对新兴技术进行立法。
坎特韦尔指出,来自两党的多位州政府官员都反对克鲁兹的计划。坎特韦尔的办公室表示,尽管其作者进行了多次修改并提供了关于其真正影响的误导性保证,但来自全国各地的州官员,包括17位共和党州长和40位州检察长,以及从传统基金会到美国进步中心等保守派和自由派组织,都纷纷反对这一有害的提案。
坎特韦尔和参议员埃德·马基(民主党,马萨诸塞州)也提交了一项修正案,旨在从法案中删除AI暂停条款。马基表示,布莱克本-克鲁兹所谓的妥协方案是“披着羊皮的狼”。他认为,尽管共和党试图掩盖AI暂停条款的真正影响,但该语言仍然允许特朗普政府利用联邦宽带资金作为对付各州的武器,并仍然阻止各州保护在线儿童免受大型科技公司的掠夺行为。
坎特韦尔在一个新闻发布会上表示,去年有24个州开始“以某种方式监管AI”,并且他们已经通过了这些法律,以填补在等待联邦行动期间的空白。她称布莱克本/克鲁兹的妥协方案是“对科技公司的又一次馈赠”,它“赋予了AI和社交媒体一张全新的盾牌,以对抗诉讼和州监管”。
AI监管的复杂性与挑战
这场围绕AI监管的争端凸显了在科技创新浪潮下,政策制定者面临的巨大挑战。一方面,AI技术的快速发展带来了巨大的经济和社会效益,但也伴随着潜在的风险,如数据隐私泄露、算法歧视和就业岗位的流失。另一方面,各州在监管AI方面拥有一定的自主权,但过度的监管可能会扼杀创新,而监管不足又可能导致风险失控。
联邦与州:监管权力的博弈
克鲁兹提案的核心在于试图限制各州在AI监管方面的权力,将监管权集中在联邦层面。这种做法的支持者认为,统一的联邦标准可以避免各州监管政策的碎片化,为企业提供更清晰、更可预测的运营环境。然而,反对者则认为,各州更了解当地的具体情况,有权根据自身的需求制定相应的监管政策。
利益相关者的多元立场
在AI监管的辩论中,各方利益相关者都表达了不同的立场。科技公司通常倾向于宽松的监管环境,以便最大限度地发挥创新潜力。消费者权益保护组织则呼吁加强监管,以保护消费者的权益。各州政府则希望在监管方面拥有更大的自主权。
AI监管的未来走向
尽管克鲁兹的提案最终失败,但围绕AI监管的讨论远未结束。未来,联邦政府和各州政府需要加强合作,共同制定一套既能促进创新又能保护公众利益的AI监管框架。这需要充分考虑各方利益相关者的诉求,并在数据隐私、算法透明度和责任追究等方面取得平衡。
案例分析:欧盟的AI监管模式
欧盟在AI监管方面走在前列,其提出的《人工智能法案》旨在建立一套全面的AI监管框架。该法案将AI系统分为不同的风险等级,并对高风险AI系统提出了严格的要求,如数据质量、透明度和人工监督等。欧盟的AI监管模式受到了广泛关注,但也引发了一些争议,如对创新可能产生的抑制作用。
数据佐证:AI市场的增长与风险
据市场研究公司预测,全球AI市场规模将在未来几年内持续增长。然而,与此同时,AI带来的风险也日益凸显。例如,深度伪造技术的滥用可能导致虚假信息的传播,算法歧视可能加剧社会不公。这些风险都需要通过有效的监管加以控制。
结论:平衡创新与监管
AI监管是一个复杂而具有挑战性的问题。在制定AI监管政策时,需要在促进创新和保护公众利益之间取得平衡。这需要政策制定者具备前瞻性的视野、专业的知识和广泛的共识。只有这样,才能确保AI技术在服务人类的同时,不会对社会造成无法挽回的损害。
未来的AI监管之路,注定是一场持续的探索与博弈。我们期待着各方能够携手合作,共同构建一个安全、可靠、可信赖的AI生态系统。