Anthropic与美国AI领导力:Dario Amodei的立场与愿景

1

Anthropic建立在简单而深刻的理念之上:AI应当成为推动人类进步的力量,而非带来危险。这一理念指导着公司开发真正有用的产品,坦诚沟通AI的风险与收益,并与所有认真对待AI发展的各方合作。我完全同意副总统JD Vance最近关于AI的言论——特别是他强调我们需要最大化帮助人们的AI应用,如医学和疾病预防方面的突破,同时最小化有害应用的观点。这一立场既明智,也符合公众的强烈期望。

Anthropic已成为历史上增长最快的软件公司,在过去九个月内收入从10亿美元增长到70亿美元的年化收入,而我们是在深思熟虑、负责任地部署AI的同时实现这一增长。有些产品我们不会开发,有些风险我们不会承担,即使它们能带来利润。

我们长期以来的立场是,管理AI的社会影响应当是政策问题而非政治问题。我坚信,Anthropic、政府以及政治各界的领导人都希望实现同样的目标:确保强大的AI技术造福美国人民,并确保美国在AI发展中保持并巩固其领先地位。

尽管我们一直频繁、透明地沟通我们的立场,但最近关于Anthropic政策立场的错误声有所增加。其中一些错误相当严重,有必要澄清事实。

与特朗普政府在AI政策关键领域的对齐

与联邦政府的直接合作

Anthropic通过多种方式与联邦政府直接合作。今年7月,国防部授予Anthropic一份为期两年、价值2亿美元的协议,用于原型化推进国家安全的尖端AI能力。我们已与总务管理局合作,为整个联邦政府以1美元的价格提供Claude for Enterprise和Claude for Government。Claude通过Palantir等合作伙伴以及在劳伦斯利弗莫尔国家实验室等机构部署在分类网络上。

对特朗普总统AI行动计划的公开支持

Anthropic公开赞扬了特朗普总统的AI行动计划。我们支持总统为扩大美国能源供应以赢得AI竞赛所做的努力,我本人也曾在宾夕法尼亚州参加总统主持的AI与能源峰会,与他进行了关于美国AI领导力的良好对话。Anthropic首席产品官参加了白宫活动,我们加入了加速AI医疗应用的承诺;我们的对外事务主管参加了白宫的AI教育特别工作组活动,支持他们提高教师AI素养的努力。

跨党派政策专家聘用

每家大型AI公司都从各党派和近期政府中聘用政策专家——Anthropic也不例外。我们聘用共和党和民主党人士,组建了一个包括前特朗普政府高级官员的咨询委员会。Anthropic的招聘决策基于候选人的专业知识、诚信和能力,而非其政治 affiliations。

对《一揽子美丽法案》中单一修正案的反对

我们(以及许多其他组织)对《一揽子美丽法案》中的一项修正案表示尊重地反对:即对州级AI法律实施10年暂停期,该条款将阻止任何行动而不提供联邦替代方案。这一特定条款在参议院以99-1的投票被否决。我们长期以来的立场是,统一的联邦方法优于各州法律的拼凑。我几个月前提出了这样的标准,我们准备与两党合作使其成为现实。

对国家AI标准的偏好

倡导联邦标准的同时支持州级立法

虽然我们继续倡导这一联邦标准,但AI发展速度如此之快,我们不能等待国会行动。因此,我们支持在加利福尼亚州(美国大多数顶尖AI实验室的所在地,包括Anthropic)精心设计的法案SB 53。该法案要求最大的AI开发者公开其前沿模型安全协议,并豁免年收入低于5亿美元的公司——因此仅适用于最大的AI公司。Anthropic支持这一豁免以保护初创企业,事实上我们提出了该豁免的早期版本。

对创业生态的承诺

有人暗示我们有意损害创业生态系统。初创企业是我们最重要的客户之一。我们与数万家初创企业合作,并与数百家加速器和风险投资伙伴合作。Claude正在推动全新一代AI原生公司的发展。破坏这一生态系统对我们毫无意义。

对美国AI领导力的战略考量

我听说过一些观点,认为州级AI监管可能会减缓美国AI产业,并将领导权让给中国。但美国AI领导力的真正风险不是仅适用于最大公司的州法律——而是用美国芯片填充中国的数据中心,而这些芯片他们自己无法制造。我们同意参议员Tom Cotton和Josh Hawley等领导人的观点,认为这只会帮助中国共产党赢得AI前沿竞赛。我们是唯一限制向中国控制公司出售AI服务的前沿AI公司,放弃了大量短期收入,以防止为中国共产党军事和情报部门提供支持的AI平台和应用提供燃料。

在AI行业共同挑战上的进展:模型偏见

关于政治偏见的澄清

有人声称Anthropic的模型具有独特的政治偏见。这不仅毫无根据,而且直接与数据相矛盾。曼哈顿研究所(一个保守派智库)1月的一项研究发现,Anthropic的主要模型(当时是Claude Sonnet 3.5)比大多数其他主要提供商的模型政治偏见更少。5月斯坦福大学关于用户对AI模型偏见感知的研究数据显示,没有理由特别指出Anthropic:许多其他提供商的模型被评价为更具偏见。我们最新模型Sonnet 4.5和Haiku 4.5的系统卡片显示,我们在实现政治中立目标方面取得了快速进展。

AI模型偏见的普遍挑战

更广泛地说,没有任何AI模型能够完全在每次回复中保持政治平衡。模型以尚未被充分理解的方式从训练数据中学习,开发者永远无法完全控制其输出。任何人都可以从任何模型中挑选输出,使其看起来偏向特定方向。

对公共政策的建设性参与

Anthropic致力于就公共政策问题进行建设性参与。当我们同意时,我们会明确表示;当我们不同意时,我们会提出替代方案供考虑。我们这样做是因为我们是公共利益公司,使命是确保AI造福每个人,因为我们希望保持美国在AI领域的领先地位。我们相信,我们与特朗普政府、国会两院以及公众分享这些目标。我们将继续保持诚实和直接,并为我们认为正确的政策发声。这项技术的风险太大,我们别无选择。

正如副总统最近在讲话中所说,关于AI:"它是好是坏,是帮助我们还是会伤害我们?答案可能是两者都有,我们应该努力最大化好的部分,最小化坏的部分。"这完美地捕捉了我们的观点。我们准备真诚地与任何政治立场的人合作,使这一愿景成为现实。

Anthropic的旅程展示了AI企业如何在追求技术创新的同时,承担起社会责任。通过与政府、学术界和产业界的合作,Anthropic正在定义AI发展的新标准,确保这项强大的技术能够造福人类,而非带来风险。在AI竞争日益激烈的全球环境中,Anthropic的立场和实践为美国维持AI领导力提供了重要参考。