纽约时报诉 OpenAI 案新进展:用户隐私何去何从?
近日,纽约时报(NYT)与 OpenAI 之间的诉讼战再次升级,围绕 ChatGPT 用户数据隐私的争议成为焦点。在法庭上,OpenAI 试图推翻一项要求其“无限期”保留所有 ChatGPT 日志(包括已删除和临时对话)的法院命令,但遭到美国地方法院法官 Sidney Stein 的驳回。这一命令最初由地方法官 Ona Wang 在多家新闻机构(以纽约时报为首)的要求下发布,理由是需要保存版权案件中的潜在证据,尤其是那些试图利用 ChatGPT 绕过付费墙访问新闻内容的用户的聊天记录。
OpenAI 对此表示强烈反对,认为该命令违背了其长期以来的隐私保护规范,并削弱了用户基于 ChatGPT 服务条款所期望的隐私保护。然而,Stein 法官认为,OpenAI 的用户协议中已明确指出,用户数据可能作为法律程序的一部分被保留,而目前的情况正是如此。
尽管 OpenAI 计划继续“抗争”,但其可选方案已然不多。该公司或许可以向第二巡回上诉法院申请一项罕见的紧急命令,以阻止 Wang 的命令。但要赢得这场战斗,OpenAI 必须证明 Wang 的命令存在“非同寻常的滥用自由裁量权”的情况。
新闻机构即将开始搜索 ChatGPT 日志
随着时间的推移,OpenAI 自 6 月 5 日发布博客文章以来,尚未提供任何官方更新,详细说明哪些 ChatGPT 用户将受到影响。虽然 OpenAI 已经并将继续保留大量数据,但纽约时报或任何其他新闻原告不可能搜索所有这些数据。相反,只有一小部分数据可能会被访问,这部分数据将基于 OpenAI 和新闻原告商定的关键词。这些数据将保留在 OpenAI 的服务器上,经过匿名化处理,并且可能永远不会直接提供给原告。
目前,双方正在就搜索聊天记录的确切流程进行谈判,双方似乎都希望尽可能缩短聊天记录的保留时间。对 OpenAI 而言,共享日志可能会暴露侵权输出的实例,从而进一步增加案件的损害赔偿。日志还可能揭示输出将不实信息归因于新闻原告的频率。但对于新闻原告而言,访问日志并非其案件的关键——可能只是提供更多复制示例——但可以帮助新闻机构论证 ChatGPT 稀释了其内容的市场。正如一位法官在最近的裁决中指出的那样,这可能会不利于合理使用论点,市场稀释的证据可能会使 AI 版权案件朝着有利于原告的方向倾斜。
隐私律师抨击法官剥夺 ChatGPT 用户的发言权
知名消费者隐私律师 Jay Edelson 对此表示担忧,他认为法官们似乎没有考虑到 ChatGPT 日志中的任何证据都不会“推进”新闻原告的案件,但实际上却改变了“人们每天都在使用的产品”。Edelson 警告说,OpenAI 本身可能比大多数公司拥有更好的安全性,可以防止可能暴露这些私人聊天记录的数据泄露。但他同时指出,“律师在保护数据方面一直做得非常糟糕”,因此,“让一群律师来处理地球上一些最敏感的数据”,并指望“他们来保护这些数据免受黑客攻击,这应该让每个人感到不安。”
因此,即使大多数用户的聊天记录最终不会出现在样本中,Edelson 认为,仅仅是被包含在内的威胁,就可能促使一些用户重新思考他们使用 AI 的方式。他还警告说,ChatGPT 用户转向 OpenAI 的竞争对手服务,如 Anthropic 的 Claude 或 Google 的 Gemini,可能表明 Wang 的命令正在不正当地影响市场力量,这似乎也“很疯狂”。
Edelson 认为,最“愤世嫉俗”的看法可能是,新闻原告可能希望该命令威胁到 OpenAI 的业务,以至于这家 AI 公司同意和解。无论新闻原告的动机如何,Edelson 表示,该命令都开创了一个令人震惊的先例。他与其他批评者一致认为,未来可能会冻结更多的 AI 数据,从而可能因该命令在此案中经受住审查而影响到更多用户。Edelson 假设,如果有一天诉讼针对 Google 的 AI 搜索摘要,将会发生什么?
Edelson 告诉 Ars,该命令对 OpenAI 的业务构成了潜在的威胁,以至于该公司可能别无选择,只能探索一切可能的途径来继续反击。“他们绝对会采取行动来阻止这件事,”Edelson 预测,他称该命令“荒谬”,因为它忽视了数百万用户的隐私担忧,同时“奇怪地”将企业客户排除在外。从法庭文件中可以看出,排除企业用户可能是为了保护 OpenAI 的竞争力,但 Edelson 认为,将他们排除在外“根本没有逻辑”。Edelson 认为,通过排除这些 ChatGPT 用户,法官的命令可能已经移除了最有能力反对该命令的用户。
“这意味着大企业,那些有权势的人,他们的所有东西都保持私密,没有人可以触及,”Edelson 说。相反,该命令“只会侵犯普通人的隐私”,Edelson 认为这“真的很冒犯”,因为 Wang 驳回了两名 ChatGPT 用户惊慌失措的干预请求,他们声称强迫 OpenAI 保留 ChatGPT 日志是“大规模监控”。
“我们现在谈论的是数十亿条聊天记录,这些聊天记录现在将被保存下来,而它们原本不会被保存下来,”Edelson 说,他指出他已将有关他个人病史的信息输入到 ChatGPT 中。“人们会询问关于他们婚姻的建议,表达对失去工作的担忧。他们会说一些非常私人的事情。与 OpenAI 打交道的条件之一是,你可以删除你的聊天记录,并且你可以进行临时聊天。”
Edelson 说,对用户最大的风险是数据泄露,但这并不是唯一的潜在隐私问题。数字权利组织电子前沿基金会 (Electronic Frontier Foundation) 的法律主管 Corynne McSherry 此前告诉 Ars,只要用户的数据被保留,它也可能通过未来的执法和私人诉讼请求而被暴露。Edelson 指出,尽管 OpenAI 首席执行官 Sam Altman 最近抨击了纽约时报,指责其起诉 OpenAI 是因为它“不喜欢用户隐私”,但大多数隐私律师并不认为 Altman 是一个“隐私至上的人”。
“他试图保护 OpenAI,他并不关心消费者的隐私权,”Edelson 说,他呼应了一位 ChatGPT 用户被驳回的担忧,即如果 OpenAI 在经济上有动机解决此案,它可能不会优先考虑用户的隐私担忧。“认为他和他的律师真的会成为这里的保障,这并没有什么说服力,”Edelson 说。他批评法官们驳回了用户的担忧,并拒绝了 OpenAI 让用户有机会作证的请求。“对我来说,最令人震惊的是,受影响的人没有任何发言权,”Edelson 说。
用户隐私的未来:AI 数据监管的新挑战
纽约时报与 OpenAI 的诉讼案,不仅仅是一场关于版权的争端,更是一场关于用户隐私、数据控制以及 AI 伦理的深刻讨论。法院的裁决,无疑给 AI 行业敲响了警钟:在追求技术创新的同时,必须高度重视用户隐私保护,建立更加完善的数据安全机制。
随着 AI 技术的不断发展,我们有理由相信,未来的数据监管将更加严格,用户对自身数据隐私的保护意识也将不断提高。如何在技术发展与隐私保护之间找到平衡点,将是 AI 行业面临的长期挑战。
风险与应对
数据泄露风险:用户最担心的莫过于个人隐私数据泄露。一旦大量聊天记录被泄露,将对用户造成严重的精神和经济损失。
- 应对措施:AI 公司应加强数据加密技术,提高服务器安全性,定期进行安全漏洞扫描和修复,建立完善的数据泄露应急响应机制。
隐私侵犯风险:即使数据未被泄露,未经用户授权的数据挖掘和分析也可能侵犯用户隐私。
- 应对措施:AI 公司应严格遵守隐私法规,明确告知用户数据的使用目的和范围,获得用户的明确授权,并提供便捷的数据删除和匿名化选项。
法律风险:如果 AI 公司的隐私政策不符合法律法规,或者未能有效保护用户隐私,将面临法律诉讼和巨额罚款。
- 应对措施:AI 公司应聘请专业的法律顾问,定期审查和更新隐私政策,确保符合最新的法律法规要求。同时,应建立完善的合规体系,加强员工的隐私保护意识培训。
对策与建议
立法层面:
- 完善隐私保护法律法规:制定更加明确和严格的 AI 数据隐私保护法律法规,明确 AI 公司在数据收集、存储、使用和共享方面的责任和义务。
- 建立独立监管机构:成立独立的 AI 数据监管机构,负责监督 AI 公司的隐私保护措施,处理用户投诉,并对违规行为进行处罚。
- 推行数据跨境传输规则:制定明确的数据跨境传输规则,防止用户数据被 незаконно 转移到其他国家或地区。
行业层面:
- 制定行业标准和规范:AI 行业协会应制定统一的隐私保护标准和规范,引导 AI 公司加强隐私保护。
- 推广隐私保护技术:鼓励 AI 公司采用隐私保护技术,如差分隐私、联邦学习等,在保护用户隐私的前提下进行数据分析和利用。
- 加强行业自律:AI 公司应加强自律,自觉遵守隐私保护法律法规和行业规范,建立良好的企业形象。
用户层面:
- 提高隐私保护意识:用户应提高自身的隐私保护意识,了解 AI 产品的隐私政策,谨慎授权个人数据。
- 使用隐私保护工具:用户可以使用隐私保护工具,如 VPN、匿名浏览器等,保护自己的网络隐私。
- 积极维权:当用户认为自己的隐私受到侵犯时,应及时向 AI 公司投诉,并向相关监管机构举报。
总之,AI 隐私保护是一项系统工程,需要政府、行业和用户共同努力。只有建立完善的法律法规、行业标准和用户意识,才能确保 AI 技术在健康、可持续的轨道上发展。
结论
纽约时报与 OpenAI 的诉讼案,再次将 AI 隐私问题推到了风口浪尖。尽管法院的命令旨在保护版权,但其对用户隐私的潜在影响不容忽视。AI 行业需要在技术创新和隐私保护之间找到平衡点,建立更加完善的数据安全机制,确保用户在享受 AI 技术带来的便利的同时,也能安心地保护自己的隐私。