ChatGPT数据保留风波:用户隐私面临“大规模监控”威胁?

1

在数字时代,人工智能(AI)技术的快速发展已经渗透到我们生活的方方面面。OpenAI的ChatGPT作为一种先进的自然语言处理模型,受到了广泛的关注和应用。然而,最近发生的一起法律事件引发了关于用户隐私和数据安全的深刻讨论。本文将深入探讨这一事件,分析其背后的法律和技术问题,并展望AI技术发展中的隐私保护挑战。

事件回顾:ChatGPT数据保留争议

2025年6月,美国一家法院下令OpenAI“无限期”保留所有ChatGPT的日志,包括数百万用户的已删除对话记录。这一命令的起因是新闻机构提起的版权侵权诉讼,法院希望通过保留这些数据来作为潜在的证据。然而,这一命令立即引发了用户的强烈反弹,他们担心自己的隐私受到侵犯,个人和商业敏感信息可能会被泄露。

两名用户试图介入此案,但均未成功。其中一名用户Aidan Hunt表示,他经常使用ChatGPT,并经常在对话中发送“高度敏感的个人和商业信息”。他认为,法院的保留命令 создала了一个“全国范围的大规模监控程序”,影响并可能损害“所有ChatGPT用户”,因为他们没有收到任何关于其已删除和匿名聊天记录突然被保留的警告。

Hunt认为,即使只保留ChatGPT的输出内容,也存在同样的风险,因为输出内容“本质上会揭示,并且经常明确地重述输入问题或主题”。他声称,他只是在网上论坛上偶然发现了ChatGPT保留这些信息的消息,而此前的政策明确表示不会这样做。他认为自己的第四修正案和正当程序权利受到了侵犯,并试图影响法院的决定,提出撤销该命令的动议,该动议认为Wang的“命令实际上要求被告实施一项影响所有ChatGPT用户的大规模监控程序”。

AI快讯

隐私风险与法律挑战

电子前沿基金会(EFF)的法律主管Corynne McSherry指出,这一发现令本身就对用户隐私构成真正的风险,并为全国各地的许多其他诉讼开创了先例。她认为,AI聊天机器人正在为企业监控开辟另一个途径,特别是当用户无法有意义地控制他们的聊天记录和记录时。

Hunt认为,Wang未能“考虑免除‘匿名聊天’,因为这些聊天内容合理地预计包含用户最敏感和可能具有破坏性的信息,免于在本案中保留和披露”,并声称这“构成了一项过于宽泛和不合理的行动”。他敦促法官修改命令,包括对此项的豁免,以及对任何“讨论医疗、财务、法律和个人主题,其中包含用户的深度隐私信息,并且与原告新闻机构声称的利益完全无关”的聊天的豁免。

对于Hunt和许多其他对此命令感到措手不及的用户来说,风险似乎很高。他认为,Wang本应允许他介入,“因为此案涉及关于人工智能使用相关的隐私权的重要而新颖的宪法问题——这是一个快速发展的法律领域——以及地方法官通过民事案件中的发现命令启动全国范围的大规模监控程序的能力”。

Wang不同意Hunt的观点,即她在此次强制执行命令中超越了自己的权限,并在一份脚注中强调,她的命令不能被解释为允许大规模监控。

Wang写道:“拟议介入者没有解释法院的文件保留命令如何指示私人公司为诉讼的有限目的保留、隔离和保留某些私人持有的数据,是或可能是‘全国范围的大规模监控程序’。” “事实并非如此。司法机构不是执法机构。”

然而,McSherry警告说,“执法部门和私人诉讼当事人迟早会开始去OpenAI,试图获取关于用户的聊天记录/记录,用于各种目的,就像他们已经对搜索历史、社交媒体帖子等做的那样。” 她说,Wang的命令可能成为通往未来的门户。

Wang拒绝Hunt的动议,主要是因为“在本次诉讼过程中,OpenAI定期删除的某些聊天输出日志数据的临时保留是否可能侵犯使用ChatGPT的个人消费者的所谓的宪法和合同隐私权”被认为是“附带问题”,与版权侵权的核心问题没有直接关系。

Wang认为Hunt的介入不会“以任何方式”促进“本案基本事实问题的进展”,因此裁定Hunt最终无权介入。

Wang写道:“拟议介入者提出的任何所谓的‘新颖’问题都不是本版权侵权诉讼中的问题。” “即使法院要受理这些问题,它们也只会不适当地拖延实际问题的解决。”

OpenAI的回应与用户担忧

OpenAI将在6月26日有机会为惊慌失措的用户辩护,届时Wang将听取关于ChatGPT制造商对保存命令的担忧的口头辩论。

Hunt在他的文件中解释说,他最担心的是该命令不会被阻止,并且聊天数据将被披露给新闻原告,他们可能会有动机公开传播已删除的聊天记录。

如果新闻机构发现已删除的聊天记录中可能包含用户尝试生成完整新闻文章的证据,则可能会发生这种情况。Ars无法立即联系到版权诉讼首席原告《纽约时报》的发言人,以就ChatGPT用户的这种所谓的隐私风险发表评论。

Wang表示,目前没有风险,因为尚未向新闻机构披露任何聊天数据。这可能意味着,如果OpenAI本周阻止该命令的斗争失败,ChatGPT用户可能会在聊天数据共享后有更好的运气进行干预。但这可能无法让像Hunt这样的用户感到安慰,他们担心OpenAI仅仅保留数据——即使从未与新闻机构共享——也可能造成严重且无法弥补的损害。

一些用户似乎正在质疑OpenAI将如何努力抗争。特别值得一提的是,Hunt担心如果其他担忧——例如“案件的财务成本、快速解决的愿望以及避免声誉损害”——被认为更重要,OpenAI可能不会优先保护用户的隐私,他的文件中写道。

OpenAI没有立即回应Ars的置评请求。该公司此前提供了受影响用户的细分,并誓言要对抗该命令。

目前,ChatGPT用户必须等待他们最敏感的聊天记录的命运。介入的ChatGPT用户曾试图辩称,至少应要求OpenAI直接通知用户他们的已删除和匿名聊天记录正在被保留。Hunt表示,这本可以阻止他更早地输入敏感数据。McSherry告诉Ars,随着法院继续处理影响聊天机器人用户的案件,将需要更高的透明度。

McSherry说:“所有AI聊天应用程序都应采取措施,不仅要确保用户可以删除其记录并确保它们确实被删除,还要确保用户及时收到对其信息的需求通知。” “如果他们尚未这样做,他们还应承诺定期发布关于用户数据需求的透明度报告。”

隐私保护的未来展望

这起事件不仅暴露了AI技术发展中的隐私保护问题,也引发了对法律监管的思考。在AI技术日益普及的今天,如何平衡技术创新与用户隐私保护,成为了一个亟待解决的问题。

  1. 加强用户数据保护的法律法规: 各国政府应尽快制定完善的数据保护法律法规,明确AI技术开发者和运营者在数据收集、存储和使用方面的责任和义务。同时,应建立独立的监管机构,对AI技术的数据处理行为进行监督和管理,确保用户的数据安全和隐私不受侵犯。

  2. 推行隐私增强技术: 隐私增强技术(PETs)是一系列可以减少数据处理过程中隐私风险的技术。例如,差分隐私、同态加密、安全多方计算等技术可以在不泄露原始数据的前提下,实现数据的分析和利用。AI技术开发者应积极采用这些技术,从技术层面保护用户隐私。

  3. 提高用户隐私意识: 用户是隐私保护的第一道防线。通过加强隐私教育,提高用户的隐私意识,使用户能够更好地了解自己的数据权利,并采取相应的保护措施。例如,用户可以选择使用加密通信工具,定期清理聊天记录,避免在不安全的网络环境下传输敏感信息。

  4. 建立透明的数据处理机制: AI技术开发者应建立透明的数据处理机制,向用户清晰地告知数据的收集、存储和使用方式。用户应有权访问、修改和删除自己的数据,并有权选择退出数据收集。通过建立透明的数据处理机制,可以增强用户对AI技术的信任,促进AI技术的健康发展。

结论

OpenAI的ChatGPT数据保留争议给我们敲响了警钟。在享受AI技术带来的便利的同时,我们必须高度关注用户隐私保护问题。只有通过加强法律法规、推行隐私增强技术、提高用户隐私意识和建立透明的数据处理机制,才能在技术创新与隐私保护之间找到平衡,实现AI技术的可持续发展。未来,我们期待看到更多的创新技术和法律措施,共同守护我们的数字隐私。