争议起源:OpenAI的企业转型计划
OpenAI近期陷入了一场前所未有的公关危机,起因于该公司向多家非营利组织发出传票,这些组织被指控与埃隆·马斯克合谋批评OpenAI从非营利向营利结构转型的计划。这一争议发生在OpenAI试图改变其组织架构的关键时刻,而马斯克正是这一转型计划的主要反对者之一。
OpenAI在2025年5月曾宣布计划放弃其非营利身份,转为营利性企业,但在面临巨大压力后最终撤回了这一决定。然而,马斯克的X公司随后提起诉讼,试图阻止OpenAI的这一转型。为了支持其法律辩护,OpenAI向多家非营利组织发出传票,要求获取广泛文件,包括所有关于马斯克的通信以及这些组织的资金来源和捐赠信息。
非营利组织的强烈反驳
面对OpenAI的传票,多家受影响的非营利组织纷纷表示强烈反对,认为OpenAI的行为明显是在利用法律手段进行骚扰、压制和恐吓批评者。
Ekō组织的回应
Ekō是一家全球消费者监督组织,致力于让"世界上最大的公司承担责任"。该组织的执行董事Emma Ruby-Sachs在接受NBC News采访时表示,OpenAI发出传票的"逻辑基础""如此荒谬,我们不得不假设这仅仅是一种恐吓策略,目的是让我们退缩。"
Ruby-Sachs指出,Ekō今年早些时候曾呼吁罢免马斯克担任DOGE负责人的职务。该组织在时代广场投放广告,展示戴着皇冠的马斯克形象,敦促路人如果"不想要国王"就联系国会。
此外,Ruby-Sachs表示,Ekō在收到传票前曾与OpenAI沟通,明确表示"我们超过70%的资金来自个人的小额在线捐赠,并且在过去一年中我们发起了多项针对马斯克的活动。"
"我们从未得到马斯克的支持或资助,反而有反对他和他的利益的历史,"Ruby-Sachs强调。
Midas Project的震惊
另一家受到OpenAI关注的非营利组织是Midas Project,该组织致力于确保AI的惠及所有人。值得注意的是,马斯克的诉讼指控OpenAI放弃了造福人类的使命,转而追求巨额利润。
然而,Midas Project的创始人Tyler Johnston对他所在的团体被描绘成与马斯克协调行动感到震惊。他在X上发帖澄清,马斯克与该组织的"OpenAI Files"没有任何关系,该文件全面记录了任何偏离非营利治理计划的担忧领域。
Johnston在OpenAI首席战略官Jason Kwon发表"几个组织,其中一些是最近新成立的,如Midas Project,加入并开展活动支持马斯克对OpenAI重组的反对"的言论后作出了回应。
"你在说什么?"Johnston写道,"我们是19个月前成立的。我们从未与马斯克或他那一类人交谈或接受资金,如果你哪怕问一次,我们很乐意告诉你。事实上,我们说他把xAI运营得如此糟糕,相比之下OpenAI简直像圣人一样。"
OpenAI的"冷酷"企业行为?
Johnston抱怨说,OpenAI的传票已经对Midas Project造成了伤害,因为保险公司基于新闻报道拒绝提供保险。他指责OpenAI不仅试图压制批评者,还可能试图让他们倒闭。
"如果你想限制一个组织的言论,恐吓是一种策略,但让他们无法获得保险是另一种,也许我们的传票就是这种情况,"Johnston推测。
其他非营利组织,如旧金山基金会(SFF)和Encode,也指控OpenAI利用传票可能阻止或减慢法律干预。SFF的首席影响官Judith Bell告诉NBC News,她的非营利组织在发起请愿要求加州总检察长阻止OpenAI重组后收到了传票。而Encode的总法律顾问Nathan Calvin在赞助了一项旨在更容易监控前沿AI风险的加州安全法规后也被传唤。
与许多目标团体不同,Encode提交了一份支持马斯克在OpenAI诉讼中的"法庭之友"简报,Calvin辩称"OpenAI作为非营利组织成立是为了保护"他们构建造福公众的AI的承诺,"而公共利益要求他们信守承诺。"
在X上,Kwon表示Encode通过提交简报介入了诉讼,声称"我们发出传票是为了确保他们参与和资助的透明度。这是诉讼中的常规步骤。"
但Calvin向NBC News表示,OpenAI的传票与简报关系不大,更多与Encode的倡导活动有关。
"我相信OpenAI利用对马斯克的诉讼作为借口来恐吓其批评者,并暗示马斯克是所有这些批评者的背后操纵者,"Calvin说。
法律专家的不同看法
尽管非营利组织对OpenAI alleged的恐吓策略感到愤怒,但律师Ray Seilie告诉NBC News,OpenAI要求传唤Calvin的要求本可以更加苛刻。
"如果OpenAI想要恐吓或骚扰他,他们本可以向他发出传票传唤,这将要求Calvin在OpenAI律师的宣誓下进行一整天的盘问,除了提供文件外,"Seilie说。"OpenAI只要求文件的事实表明,他们真诚地寻找马斯克和Encode之间的联系,即使他们最终怀疑错了。"
然而,尚未被OpenAI针对的消费者倡导组织Public Citizen的联合总裁Robert Weissman告诉NBC News,这些传票似乎旨在从OpenAI一些最大的批评者那里获取私人信息,"以压制言论并阻止他们发声。"
Weissman说,这些过于宽泛的要求似乎明显可疑,就像"你会从最冷酷的营利性公司那里期望的策略。"
"这种行为非常不寻常,"Weissman说,"它100%是为了恐吓。"
OpenAI内部的批评声音
一些现任和前任OpenAI员工对传票感到不安并公开发声,包括OpenAI使命对齐负责人Joshua Achiam。"这似乎不太好,"他写道,与公众分享"想法"并注明"所有观点都是我自己的。"
"埃隆肯定想要对付我们,而且他的影响力非常广泛,"Achiam说。"但有很多公开的信息我们可以用来对抗他。"
虽然声称如果OpenAI没有"极其真诚地致力于善行"他不会留在那里,但他承认"我们不能做让我们成为可怕力量而非正义力量的事情。我们对全人类有责任和使命。履行这一责任的标准非常高。"
对Achiam来说,这一争议的主要教训——他将此排名低于OpenAI先前因非贬损条款压制员工的丑闻——是OpenAI的公众信任取决于公司像他这样的员工对任何"危险错误地使用权力"提出反对。
"如果没有偶尔有人发声,情况可能会变得更糟。所以,这是我的反对意见,"Achiam写道,结束了一个初始帖子获得约57万次浏览但后续帖子仅吸引约3万次浏览的线程。
"从中学到的明确教训是:如果我们想成为世界上值得信赖的力量,我们必须赢得这种信任,如果我们甚至_看起来_把普通人当作目标,我们可能会耗尽所有信任,"Achiam写道。
马斯克的火上浇油
与此同时,马斯克抓住时机煽动社交媒体批评,转发了前OpenAI董事会成员Helen Toner在X上的一篇帖子,批评OpenAI在发出传票中的"不诚实和恐吓"策略。
"OpenAI建立在谎言之上,"马斯克在一篇获得近3000万次浏览的帖子中写道。
争议背后的深层含义
这场争议远不止是OpenAI和马斯克之间的个人恩怨,它反映了AI行业更深层次的权力斗争和伦理挑战。OpenAI作为一家曾经承诺以造福人类为使命的组织,现在被指控采用传统大企业的压制策略,这引发了对其核心价值观的质疑。
使命与现实的冲突
OpenAI的使命宣言明确指出其目标是确保通用人工智能(AGI)能够"造福全人类"。然而,随着公司规模的扩大和商业利益的增加,这一使命似乎正在与商业现实产生冲突。OpenAI试图从非营利向营利性结构的转变,以及随后使用法律手段压制批评者的行为,都被视为这一冲突的表现。
透明度与问责制的缺失
这场争议也暴露了AI行业在透明度和问责制方面的普遍缺失。OpenAI作为一家对全球技术格局有重大影响的公司,其决策过程和资金来源应当受到更严格的审查。然而,当非营利组织试图履行其监督职责时,却面临法律威胁和恐吓,这进一步加剧了行业的不透明性。
行业自律的必要性
OpenAI的案例凸显了AI行业建立更强有力的自律机制的必要性。随着AI技术的快速发展和社会影响力的扩大,企业需要建立内部制衡机制,确保其行为符合道德和伦理标准。OpenAI内部员工如Achiam的发声,表明即使在大公司内部,也存在对正确行为的坚持。
未来展望:AI治理的挑战
这场争议为AI治理的未来发展提供了重要启示。随着AI技术的不断进步,如何平衡创新与监管、商业利益与公共利益,将成为行业面临的核心挑战。
多方参与的治理模式
有效的AI治理需要多方参与,包括企业、政府、学术界和公民社会。OpenAI的案例表明,单靠企业自律或政府监管都难以确保AI技术的负责任发展。建立包容多方利益的治理框架,将是未来AI治理的关键方向。
法律与伦理的平衡
在AI发展过程中,如何在法律框架内保持伦理考量,是一个复杂而重要的问题。OpenAI使用法律手段压制批评者的行为,提醒我们需要在法律保护与言论自由之间找到平衡点,确保法律不被用作压制正当批评的工具。
结论:AI企业的社会责任
OpenAI与马斯克之间的争议,最终指向了一个更广泛的问题:AI企业应当承担什么样的社会责任?在追求技术进步和商业成功的同时,AI企业是否能够坚守其最初的使命和价值观?
这场争议的结局将不仅影响OpenAI和马斯克个人的声誉,更将对整个AI行业的未来发展方向产生深远影响。它提醒我们,在AI技术日益强大的今天,确保这些技术以负责任和透明的方式发展,比以往任何时候都更加重要。
正如OpenAI前员工Achiam所言,"如果我们想成为世界上值得信赖的力量,我们必须赢得这种信任。"这不仅是对OpenAI的提醒,也是对整个AI行业的警示。在追求技术突破的道路上,不忘初心、坚守使命,或许才是AI企业真正赢得社会信任的关键。