OpenAI与马斯克的权力博弈:AI巨头如何陷入指控与反指控的漩涡

1

引言:一场科技巨头的公开对决

在人工智能领域,OpenAI与埃隆·马斯克之间的关系已经从曾经的合作伙伴演变为如今的公开对手。随着OpenAI寻求从非营利组织向营利性企业结构转型,双方之间的矛盾日益激化。近期,OpenAI向多家批评其转型的非营利组织发出传票,指控这些组织与马斯克合谋对其进行批评。这一举动引发了关于言论自由、企业责任和AI伦理的广泛讨论,将OpenAI推向了舆论的风口浪尖。

OpenAI的法律行动:从防御到进攻

在过去一周里,OpenAI因其向非营利组织发出的传票而面临强烈反弹。这些传票旨在支持OpenAI在马斯克的X公司提起的法律诉讼中的辩护,该诉讼试图阻止OpenAI向营利性结构转型。OpenAI寻求获取"各种文件",包括关于马斯克的所有通信以及非营利组织的资金来源和捐款信息。

OpenAI声称,这些传票旨在调查马斯克是否参与了相关行动或支付非营利组织发表批评意见。然而,被传票的非营利组织坚称,OpenAI显然是在利用诉讼来骚扰、压制和恐吓其批评者——尤其是那些对马斯克公司比OpenAI更为公开批评的组织。

非营利组织的反击:"荒谬"的指控

Ekō非营利组织的执行董事艾玛·鲁比-萨克斯(Emma Ruby-Sachs)告诉NBC新闻,发出传票的"逻辑基础""如此荒谬,我们必须认为这只是恐吓我们并让我们退缩的策略"。

鲁比-萨克斯指出,Ekō今年早些时候曾呼吁解雇马斯克担任DOGE负责人的职务。该组织在时代广场投放广告牌,展示戴着皇冠咧嘴笑的马斯克,敦促路人如果"不想要国王"就联系国会。

此外,鲁比-萨克斯表示,Ekō在收到传票前曾与OpenAI通信,确认"我们超过70%的资金来自个人的小额在线捐款,并且在过去一年中我们发起了多项针对马斯克的活动"。

"我们完全没有得到马斯克的支持或资助,并且有反对他及其利益的历史记录,"鲁比-萨克斯告诉NBC新闻。

Midas Project:被卷入风暴的另一个受害者

另一个被OpenAI瞄准的非营利监督组织是The Midas Project,该组织致力于确保AI造福每个人。值得注意的是,马斯克的诉讼指控OpenAI放弃了造福人类的使命,转而追求巨额利润。

然而,The Midas Project的创始人泰勒·约翰斯顿(Tyler Johnston)对他的组织被描绘成与马斯克协调行动感到震惊。他在X上发帖澄清,马斯克与该组织的"OpenAI Files"没有任何关系,这些文件全面记录了对任何偏离非营利治理计划的担忧。

约翰斯顿的帖子是在OpenAI首席战略官杰森·科恩(Jason Kwon)发表声明之后,科恩称"几个组织,其中一些是新成立的,如Midas Project,加入并开展活动"支持马斯克"反对OpenAI重组"。

"你在说什么?"约翰斯顿写道。"我们是19个月前成立的。我们从未与马斯克或他那一类人交谈或接受资助,如果我们曾经问过一次,我们会很乐意告诉你。事实上,我们说过他管理xAI的方式如此糟糕,相比之下OpenAI简直像个圣人。"

OpenAI的"残酷"企业形象

约翰斯顿抱怨说,OpenAI的传票已经损害了Midas Project,因为保险公司基于新闻报道拒绝提供保险。他指控OpenAI不仅试图压制批评者,还可能试图让他们倒闭。

"如果你想限制一个组织的言论,恐吓是一种策略,但让他们无法获得保险是另一种,也许这就是传票对我们发生的事情,"约翰斯顿建议道。

其他非营利组织,如旧金山基金会(SFF)和Encode,指控OpenAI利用传票可能阻止或减慢法律干预。SFF的首席影响力官朱迪思·贝尔(Judith Bell)告诉NBC新闻,她的非营利组织在向加州总检察长请愿阻止OpenAI重组后收到了传票。而Encode的总法律顾问内森·卡尔文(Nathan Calvin)在赞助一项旨在更容易监控前沿AI风险的加州安全规定后也收到了传票。

与许多被瞄准的团体不同,Encode提交了一份支持马斯克在OpenAI诉讼中的法庭之友陈述,卡尔文辩称"OpenAI作为非营利组织成立是为了保护"他们构建造福公众的AI的承诺,"而公共利益要求他们信守诺言"。

在X上,科恩说Encode通过提交陈述介入了诉讼,声称"我们发出传票是为了确保他们参与和资助的透明度。这是诉讼中的常规步骤。"

但卡尔文声称,OpenAI的传票与陈述关系不大,更多与Encode的倡导有关,NBC新闻报道称。

"我相信OpenAI利用他们对马斯克的诉讼作为借口来恐吓他们的批评者,并暗示埃隆背后支持他们所有人,"卡尔文说。

内部批评:OpenAI员工的担忧

尽管非营利组织对OpenAI涉嫌的恐吓策略感到愤怒,但律师雷·塞利(Ray Seilie)告诉NBC新闻,OpenAI传唤卡尔文的要求本可以更具强制性。

"如果OpenAI想要恐吓或骚扰他,他们可以向他发出传票传唤,这将要求卡尔文在OpenAI律师的宣誓下接受一整天的质询,同时提供文件,"塞利说。"OpenAI只要求文件这一事实表明,他们真诚地寻找马斯克与Encode之间的联系,即使他们最终怀疑错了。"

然而,尚未被OpenAI瞄准的消费者倡导组织Public Citizen的联合主席罗伯特·韦斯曼(Robert Weissman)告诉NBC新闻,这些传票似乎寻求从OpenAI一些最大的批评者那里获取私人信息,"以压制言论并阻止他们发声"。韦斯曼说,这些过于宽泛的要求似乎明显可疑,就像"你会从最残酷的营利性公司那里期望的那种策略"。

"这种行为非常不寻常,"韦斯曼说。"100%是为了恐吓。"

OpenAI内部的分歧

一些现任和前任OpenAI员工对传票感到不安,并公开表达了他们的担忧,包括OpenAI使命对齐负责人约书亚·阿查姆(Joshua Achiam)。

"这似乎不太好,"他写道,向公众分享"想法"并指出"所有观点都是我自己的"。

"埃隆当然想要对付我们,而且他确实有广泛的联系,"阿查姆说。"但有太多公开的信息我们可以用来对付他。"

虽然声称如果OpenAI没有"极其真诚地致力于善"他不会留在公司,但他承认"我们不能做那些让我们变成可怕的力量而不是有德行的力量的事情。我们对全人类有义务和使命。追求这一义务的标准非常高。"

对阿查姆来说,这场争议的主要教训——他将此排在OpenAI先前用禁止贬损条款压制员工的丑闻之后——是OpenAI的公众信任取决于公司像他这样的员工对任何"危险错误地使用权力"的推动。

"如果没有偶尔有人发声,情况可能会变得更糟。所以,这就是我的推动,"阿查姆写道,关闭了一个初始帖子获得约57万次浏览但后续帖子只吸引约3万次浏览的线程。

"从中学到的明确教训是:如果我们想成为世界上的可信力量,我们必须赢得这种信任,如果我们甚至_似乎_把小人物作为目标,我们可以烧毁这一切,"阿查姆写道。

马斯克的反击:火上浇油

与此同时,马斯克抓住机会煽动社交媒体批评,转发了前OpenAI董事会成员海伦·托纳(Helen Toner)在X上的帖子,批评OpenAI在发出传票中的"不诚实和恐吓"策略。

"OpenAI建立在谎言之上,"马斯克在一篇获得近3000万次浏览的帖子中写道。

行业影响:AI治理的十字路口

这场OpenAI与马斯克之间的公开冲突,反映了AI行业在快速发展过程中面临的治理挑战。随着AI技术的巨大潜力和风险日益显现,如何确保AI的发展符合人类利益成为关键问题。

OpenAI从非营利向营利性企业的转型,以及随之而来的法律行动,引发了关于AI公司治理结构的深刻思考。这种转变是否会导致AI开发偏离最初造福人类的使命?企业利润与社会责任之间如何平衡?这些问题不仅关乎OpenAI的未来,也关系到整个AI行业的发展方向。

言论自由与企业权力的边界

OpenAI向批评者发出传票的行为,也引发了关于言论自由与企业权力边界的讨论。在民主社会中,批评和监督是确保企业负责任运作的重要机制。然而,当大型科技企业利用法律手段压制批评时,这种机制可能会受到威胁。

正如多位批评者所指出的,OpenAI的行为似乎旨在通过制造法律麻烦和财务压力来阻止批评声音。这种策略虽然可能合法,但却引发了关于企业是否应该拥有如此大权力来压制批评的伦理问题。

AI伦理的重新审视

这场冲突也促使人们重新审视AI伦理问题。OpenAI最初成立时的使命是确保人工智能的发展造福全人类,但随着其商业化的推进,这一使命是否仍然被忠实履行?

马斯克对OpenAI的批评,以及非营利组织对转型的反对,都指向了AI发展中一个核心问题:如何在追求创新和商业成功的同时,确保AI的发展符合伦理标准,不会对人类社会造成伤害。

未来展望:AI治理的挑战与机遇

OpenAI与马斯克之间的冲突,以及由此引发的一系列讨论,为AI治理提供了重要启示。随着AI技术的快速发展,建立有效的治理机制变得尤为重要。

一方面,这需要企业内部保持对使命的承诺,即使在商业化的压力下也不偏离最初的目标。另一方面,也需要外部监督机制,包括非营利组织、监管机构和公众的参与,确保AI的发展方向符合社会利益。

结论:在创新与责任之间寻找平衡

OpenAI与马斯克之间的冲突,反映了AI行业在快速发展过程中面临的根本性挑战:如何在创新与责任之间找到平衡。这场冲突不仅仅是两家机构之间的争端,更是关于AI未来发展方向的更广泛讨论的一部分。

无论最终结果如何,这场公开辩论已经促使各方重新思考AI的治理模式、企业责任和伦理标准。在这个过程中,透明度、问责制和多方参与将成为构建负责任AI未来的关键要素。

随着AI技术的不断进步,类似的争议和讨论可能会继续出现。重要的是,这些讨论能够促进更深入的思考和更有效的解决方案,确保AI技术的发展真正造福人类社会,而不是成为少数人追求利益的工具。