NYT胜诉OpenAI:已删除的ChatGPT聊天记录或遭窥探?隐私何在?

1

NYT胜诉OpenAI:用户已删除的ChatGPT聊天记录或遭窥探?

AI快讯

在科技领域,隐私问题一直是悬在达摩克利斯之剑。近日,《纽约时报》(NYT)与OpenAI之间的诉讼战再次将这一问题推至风口浪尖。NYT在与OpenAI的法庭较量中取得初步胜利后,计划开始搜索已删除的ChatGPT日志。这无疑引发了用户对于自身隐私安全的担忧,也让人们开始重新审视AI技术发展与个人隐私保护之间的平衡。

事件回顾:NYT的诉讼请求与OpenAI的挣扎

事件的起因是NYT等新闻机构指控ChatGPT用户试图通过该聊天机器人绕过付费墙,从而获取新闻内容。为了获取相关证据,这些新闻机构向法院申请了一项命令,要求OpenAI无限期保留所有ChatGPT日志,包括已删除和临时对话。OpenAI对此表示强烈反对,认为这项命令侵犯了用户的隐私权,并要求推翻该命令。然而,美国地方法院法官西德尼·斯坦(Sidney Stein)驳回了OpenAI的请求,理由是OpenAI的用户协议中明确规定,用户数据可以作为法律程序的一部分被保留。这一裁决无疑对OpenAI造成了巨大的压力。

OpenAI的困境:隐私保护与数据收集的博弈

OpenAI的发言人表示,公司计划“继续抗争”这项命令。然而,OpenAI似乎已经没有太多选择。他们可能会向第二巡回上诉法院申请紧急命令,以阻止王法官的命令。但要赢得这场斗争,OpenAI必须证明王法官的命令存在明显的滥用自由裁量权的情况。与此同时,OpenAI正在与新闻原告方谈判,试图达成一项允许他们搜索保留数据的流程。或许这个过程越早开始,数据就能越早被删除。这种可能性让OpenAI陷入了两难境地:要么屈服于数据收集,尽快停止保留数据;要么延长诉讼,可能使更多用户的私人对话面临因诉讼或数据泄露而泄露的风险。

搜索范围与数据安全:用户隐私面临多重威胁

尽管OpenAI一直在保留大量数据,但NYT或任何新闻原告方都不可能搜索所有这些数据。相反,他们可能会根据OpenAI和新闻原告方商定的关键词,访问一小部分数据样本。这些数据将保留在OpenAI的服务器上,经过匿名化处理,并且可能永远不会直接提供给原告方。然而,即使进行了匿名化处理,用户仍然担心自己的隐私会受到侵犯。此外,数据安全也是一个不容忽视的问题。消费者隐私律师杰伊·埃德尔森(Jay Edelson)警告说,OpenAI本身可能比大多数公司拥有更好的安全性,可以防止潜在的数据泄露,从而暴露这些私人聊天记录。但他同时指出,“律师在保护数据方面一直做得不太好”,因此,让一群律师来处理“地球上一些最敏感的数据”,并指望他们保护数据免受黑客攻击,这“应该让每个人感到不安”。

潜在影响:用户行为与市场格局的改变

即使大多数用户的聊天记录最终不会被抽样,埃德尔森表示,仅仅是被包含在内的威胁,就可能促使一些用户重新考虑他们使用AI的方式。他进一步警告说,ChatGPT用户转向OpenAI的竞争对手服务,如Anthropic的Claude或Google的Gemini,可能表明王的命令正在不正当地影响市场力量,这似乎也“很疯狂”。埃德尔森认为,最“愤世嫉俗”的看法可能是,新闻原告方可能希望这项命令威胁到OpenAI的业务,以至于这家AI公司同意和解。无论新闻原告方的动机如何,埃德尔森表示,这项命令开创了一个令人震惊的先例。他与其他批评人士一道认为,未来可能会有更多AI数据被冻结,从而可能因本案中幸存下来的全面命令而影响到更多用户。埃德尔森建议,想象一下,如果有一天诉讼的目标是谷歌的AI搜索摘要。

律师的质疑:用户权益的缺失与企业利益的考量

埃德尔森对Ars表示,这项命令对OpenAI的业务构成了潜在的威胁,以至于该公司可能别无选择,只能探索一切可能的途径来继续对抗它。埃德尔森预测“他们绝对会做一些事情来阻止这种情况”,他称这项命令“非常荒谬”,因为它忽视了数百万用户的隐私问题,同时“奇怪地”排除了企业客户。从法庭文件中可以看出,排除企业用户可能是为了保护OpenAI的竞争力,但埃德尔森表示,排除他们“根本没有逻辑”。埃德尔森认为,通过排除这些ChatGPT用户,法官的命令可能已经排除了最有能力对抗该命令的用户。“这意味着大企业,那些有权势的人,他们的所有东西都保持私密,没有人可以触及,”埃德尔森说。相反,这项命令“只会侵犯普通民众的隐私”,埃德尔森说这“真的很冒犯”,因为王驳回了两名ChatGPT用户惊慌失措的干预请求。“我们正在谈论数十亿条聊天记录,现在将被保存下来,而它们本来不会被保存下来,”埃德尔森说,他指出他已经在ChatGPT中输入了关于他个人病史的信息。“人们会询问关于他们婚姻的建议,表达对失去工作的担忧。他们会说一些非常私人的事情。与OpenAI打交道的一个条件是,你可以删除你的聊天记录,而且你可以进行临时聊天。”

隐私风险:数据泄露与滥用的潜在威胁

埃德尔森表示,对用户来说最大的风险是数据泄露,但这并不是唯一潜在的隐私问题。数字权利组织电子前沿基金会(Electronic Frontier Foundation)的法律主管科琳·麦克谢里(Corynne McSherry)此前告诉Ars,只要用户的数据被保留,它也可能通过未来的执法和私人诉讼请求而暴露出来。埃德尔森指出,尽管Altman最近抨击了《纽约时报》,指责它起诉OpenAI是因为它不“喜欢用户隐私”,但大多数隐私律师并不认为OpenAI首席执行官萨姆·奥特曼(Sam Altman)是一个“隐私保护者”。“他试图保护OpenAI,他根本不在乎消费者的隐私权,”埃德尔森说,他呼应了一位ChatGPT用户被驳回的担忧,即如果OpenAI在经济上有动机解决此案,它可能不会优先考虑用户的隐私问题。“认为他和他的律师真的会成为这里的保障,这并没有什么说服力,”埃德尔森说。他批评法官驳回用户的担忧,并拒绝了OpenAI让用户有机会作证的请求。“真正让我感到震惊的是,受影响的人没有任何发言权,”埃德尔森说。

案例分析:AI数据冻结的潜在影响

如果将这一事件置于更广阔的背景下进行审视,我们可以看到AI数据冻结可能对整个行业产生深远的影响。以谷歌的AI搜索摘要为例,如果有一天诉讼的目标是这些摘要,那么用户在使用谷歌搜索时输入的各种信息,包括个人偏好、购物习惯、健康状况等等,都可能被冻结并接受审查。这将对用户的隐私造成极大的威胁,并可能对谷歌的业务产生重大影响。

再比如,如果一家医疗AI公司因为涉嫌侵犯患者隐私权而遭到起诉,那么该公司存储的所有患者数据,包括病历、诊断报告、治疗方案等等,都可能被冻结。这将严重影响患者的治疗,并可能导致严重的医疗事故。

这些案例都表明,AI数据冻结可能会对个人隐私、企业运营和社会发展产生广泛而深远的影响。因此,我们需要认真对待这一问题,并采取有效的措施来保护用户的隐私权,维护企业的合法权益,促进社会的健康发展。

应对策略:多方协作共筑AI时代隐私防线

面对AI数据可能被滥用的风险,我们需要从多个层面入手,共同构建AI时代的隐私防线。

  1. 完善法律法规: 政府应尽快出台更加完善的法律法规,明确AI数据的收集、使用和保护范围,加大对侵犯用户隐私行为的惩处力度,为AI的健康发展提供法律保障。
  2. 加强技术监管: 监管部门应加强对AI技术的监管,建立健全的审查机制,确保AI产品在上线前经过严格的安全评估,防止其被用于非法目的。
  3. 提升用户意识: 通过宣传教育,提高用户对AI隐私风险的认识,引导用户主动保护个人信息,避免在使用AI产品时泄露敏感数据。
  4. 企业自律: AI企业应加强自律,建立完善的隐私保护制度,明确数据的使用范围和权限,采取有效的技术措施保护用户数据安全,并定期接受第三方机构的审计。
  5. 技术创新: 鼓励技术创新,研发更加安全可靠的AI技术,例如,采用差分隐私、联邦学习等技术,在不泄露用户原始数据的前提下,实现AI模型的训练和应用。

结语:在AI浪潮中坚守隐私底线

在AI技术飞速发展的今天,我们不能为了追求技术进步而牺牲用户的隐私权。只有在充分保护用户隐私的前提下,AI才能真正为人类带来福祉。让我们共同努力,在AI浪潮中坚守隐私底线,构建一个更加安全、可信、美好的智能未来。