在人工智能技术日新月异的今天,如何平衡创新与安全成为全球政策制定者面临的共同挑战。然而,美国参议员特德·克鲁兹(R-Texas)近日提出的《SANDBOX法案》(全称为"加强人工智能标准化与扩散监督与实验法案")却引发了广泛争议。批评者警告,这一法案将赋予科技巨头前所未有的权力,使其能够通过政治献金等方式"贿赂"特朗普政府,规避旨在保护公众安全的AI监管法规。
SANDBOX法案的核心内容
克鲁兹的AI政策框架呼吁采取"轻触式"监管方法,以"推进美国在AI领域的领导地位",并确保"美国价值观"而非"中国价值观"成为世界领先技术的核心。该框架要求阻止"繁琐"的州级AI法规以及外国法规的制定与实施。
作为优先考虑创新、限制AI监管的第一步,克鲁兹推出了《SANDBOX法案》。如果该法案获得通过,AI公司将可以申请暂时规避可能限制其新产品测试的联邦法律执行。作为申请的一部分,公司需要详细说明已知风险或危害,以及任何可以减轻危害的步骤,并概述可能超过危害的益处。
负责执行每项法律的机构随后将评估潜在危害,执法力度将根据每个机构批准的申请程度进行调整。然而,白宫科技政策办公室(OSTP)将拥有推翻专注于消费者保护的独立机构决定的权力,这让批评者担心AI公司可能通过政治献金贿赂官员,从而使法律失效。
最终,联邦机构和OSTP可以授予最长10年的AI法律执行豁免期(可分四次续期,每次两年),以允许AI公司在公众身上进行实验。该法案还促使国会将任何被证明对美国有利的"成功"豁免期永久化。克鲁兹预计,在该法案通过后,他将提出更多支持其框架的法律,可能为类似未来的豁免铺平道路,以阻止州级法律。
批评者的担忧:科技巨头的"礼物"
根据克鲁兹的说法,《SANDBOX法案》遵循了唐纳德·特朗普在其AI行动计划中对监管沙盒的要求,该计划旨在使美国成为全球AI领导者(但批评者认为可能违反宪法)。
克鲁兹的沙盒项目据称"让AI开发者在测试和推出新技术时不受过时或僵化的联邦规则限制",并通过快速审查流程"减轻健康、公共安全或欺诈风险"。
科技监督项目(Tech Oversight Project)等非营利科技行业监督组织警告称,如果该法案获得通过,将使AI公司更容易达成"特殊优惠"协议。该组织指出,这可能激励白宫倾向于那些"向特朗普捐款"的大型科技公司,而那些无法负担此类政治影响力的小型AI公司可能面临不同的规则。
科技监督项目指控,克鲁兹的《SANDBOX法案》将赋予特朗普政府前所未有的权力,以"交易掉儿童和老年人的保护,并向谷歌、苹果、Meta、亚马逊和OpenAI等大型科技公司施恩"。
法案文本表明,可能导致执行豁免请求被拒绝的健康和安全风险包括"对人类生命的身体伤害"、"人类生命损失"以及对"人类健康产生重大不利影响"的风险。然而,匆忙的审查流程可能使官员(很可能是在政府效率部最近削减的机构中工作)难以充分权衡潜在危害。
克鲁兹的法案要求机构在14天内审查AI公司的请求。一旦审查过程开始,机构可以聘请咨询委员会或工作组来评估风险,但必须在60天内做出决定,否则AI公司的请求将被视为批准。只可能获得一次30天的延期请求。
对于可能通过该框架更快推出产品的AI公司,克鲁兹要求在"任何导致消费者健康和安全受到伤害、造成经济损失或构成不公平或欺骗性贸易行为的事件发生后72小时内"进行报告。然后,公司将获得30天时间解决问题,否则将面临规避法律的执法风险,同时公众会被告知并有机会发表意见。
支持者的观点:创新与监管的平衡
目前,该法案的支持者包括美国商会和代表大型科技公司的贸易协会NetChoice,以及倾向右倾和全球政策研究小组,包括丰度研究所、信息技术委员会和R街研究所。
R街研究所高级研究员亚当·特里尔(Adam Therrier)指出,太多AI政策辩论集中在"AI系统和应用的新型监管"上,而忽视了《SANDBOX法案》还将帮助AI公司避免陷入"许多现行法律和法规"的困境,这些法规涵盖或可能涵盖算法应用。
在简报中,克鲁兹指出"美国的大多数规则和法规并不完全适用于AI等新兴技术"。因此,克鲁兹主张,"与其强迫AI开发者设计劣质产品以遵守过时的联邦规则,我们的监管应该变得更加灵活"。
特里尔指出,一旦法规通过,它们很少被更新,并支持克鲁兹的逻辑,即AI公司可能需要支持来限制可能限制AI创新的旧规则。特里尔提到"医疗保健、交通和金融服务领域的许多新应用",这些应用"可以为公众提供重要的新生活丰富服务",除非依靠"过时的规则"通过阻碍市场实验来"阻止这些益处"。
特里尔写道:"当红 tape无约束地增长并与现代市场现实脱节时,它可能会削弱创新和投资,削弱创业和竞争,提高消费者成本,限制工人机会,并损害长期经济增长。"
NetChoice同样称赞该法案的"创新优先方法",声称《SANDBOX法案》在"给AI开发者提供实验空间"和"保留必要保障措施"之间取得了重要平衡。
公共安全与儿童保护的隐忧
对于批评者来说,该法案限制新保障措施的潜力仍然是一个主要关注点。安全AI联盟(Alliance for Secure AI)的布伦丹·斯坦豪泽(Brendan Steinhauser)表示,批评者可能会在"未来几天"得到关于该法律在保护公共安全方面效果如何的答案。
该组织指出,仅在今年夏天,"多家公司因拒绝认真对待美国人的安全并在其AI系统上建立适当的护栏而受到两党批评,导致可避免的悲剧"。他们提到了Meta允许聊天机器人对孩子造成骚扰,以及OpenAI在一名青少年在使用ChatGPT研究自杀后死亡后匆忙做出改变。
在克鲁兹的法案下,主要的消费者保护措施似乎是要求公司提供警告,告知消费者通过与实验性产品互动可能面临某些风险。法案称,这些警告将解释消费者可以尝试对公司造成的任何损失或损害提起民事或刑事诉讼,同时警告该产品可能随时被停产。法案还称,警告还必须提供向国家人工智能倡议办公室发送任何投诉的联系信息。
然而,特别关注儿童安全的批评者担心,警告是不够的。考虑一下聊天机器人警告它们不是真人或持证治疗师的情况,这并没有阻止一些用户危险地模糊AI世界与现实之间的界限。
安全AI联盟警告:"这项立法是科技巨头CEO的胜利,他们一直未能保护美国人免受其产品造成的社会和心理伤害。"
州级监管与联邦博弈
迄今为止,各州一直是监管AI的努力领导者。值得注意的是,伊利诺伊州在研究发现聊天机器人治疗师助长了妄想并给出危险建议后,禁止了AI治疗;加州即将成为第一个限制伴侣机器人以保护儿童的国家。其他州的保护措施,科技政策报告称,涵盖"住房、教育、就业和信贷等生活关键领域",以及可能影响选举和公共安全的深度伪造技术。
批评者希望,对这些州级努力以及《Take It Down法案》(克鲁兹曾支持)等联邦努力的两党支持将确保克鲁兹的框架和沙盒法案不会按原稿通过。
公共公民组织表示:"冒着美国公众安全的风险来使已经价值数万亿美元的AI公司致富是不可原谅的。AI公司被监管'阻碍'的诉苦根本不真实,记录的公司估值证明了这一点。立法者应该与公众站在一起,而不是企业说客,并踩刹车停止这一鲁莽的提案。国会应该专注于在AI时代提供真正问责制、透明度和消费者保护的立法。"
平衡创新与监管的挑战
克鲁兹的《SANDBOX法案》反映了美国在AI监管方面的深刻分歧。一方面,支持者认为过时的监管框架可能扼杀创新,阻碍美国在全球AI竞赛中的领先地位;另一方面,批评者担心缺乏足够监管的AI实验可能对公众安全构成严重威胁。
这种分歧不仅存在于政治光谱的两端,也反映在科技行业内部。大型科技公司拥有更多资源来应对复杂的监管环境,而小型创业公司则可能因合规成本而在竞争中处于劣势。然而,《SANDBOX法案》提出的十年监管豁免期可能进一步加剧这种不平衡,使资源丰富的科技巨头能够规避监管,而小型公司则无法获得同样的政治影响力。
全球AI监管趋势
在全球范围内,AI监管正在加速发展。欧盟的《人工智能法案》采取了基于风险的监管方法,对高风险AI应用设置了严格的合规要求。中国也在不断完善其AI治理框架,强调发展与安全的平衡。相比之下,美国的监管路径似乎更加注重促进创新,但这也引发了关于安全边界的担忧。
克鲁兹的法案正是在这一全球背景下提出的,它试图确立美国在AI监管领域的独特路径。然而,这种"先发展后监管"的模式是否适合AI这种具有深远社会影响的颠覆性技术,仍有待观察。
消费者权益与透明度
在AI技术日益融入日常生活的今天,消费者权益保护和算法透明度变得尤为重要。《SANDBOX法案》要求公司在实验性产品上提供风险警告,但这种警告的有效性值得怀疑。研究表明,普通用户往往难以理解AI系统的局限性,即使被告知风险,也可能低估潜在危害。
此外,法案要求公司在发生安全事件后72小时内报告,但这一时间框架对于某些可能造成长期影响的AI风险来说可能过于宽松。消费者需要更及时、更全面的信息来做出知情决策,而不是在损害已经发生后才被告知风险。
结论:寻找创新与安全的平衡点
特德·克鲁兹的《SANDBOX法案》代表了美国AI监管辩论的一个重要转折点。它提出了一个根本性问题:在AI技术迅猛发展的今天,我们应该如何平衡创新自由与公共安全?
支持者认为,过度的监管可能扼杀创新,使美国在全球AI竞争中落后;而批评者则担心,缺乏足够监管的AI实验可能对公众安全造成不可逆转的损害。这两种观点都有其合理性,但我们需要寻找一个中间地带,既能促进AI技术的健康发展,又能确保公众安全和权益。
有效的AI监管应当是灵活的、适应技术发展的,同时也要有足够的约束力防止滥用。它应当鼓励创新,但也要确保创新在伦理和法律的框架内进行。最重要的是,监管过程应当透明、包容,让各方利益相关者都有机会参与决策,而不是仅仅服务于少数科技巨头的利益。
在AI技术重塑世界的今天,我们有责任确保这一强大的技术发展方向符合人类共同的价值观和长远利益。这不仅需要明智的政策制定,也需要科技企业、公民社会和政府的共同努力。只有多方协作,我们才能在享受AI带来福祉的同时,最大限度地降低其潜在风险。