在数字时代,隐私问题日益凸显,而最近一起ChatGPT隐私泄露事件再次引发了人们对人工智能平台数据处理的担忧。从2025年9月开始,一种前所未有的隐私漏洞被发现:用户的私人对话内容竟然出现在了Google Search Console(GSC)这一原本用于监控网站搜索流量的工具中。
意外的泄露:私人对话出现在错误的地方
Google Search Console是网站管理员用来监控和分析网站在Google搜索中表现的工具,通常显示的是用户输入的关键词或短查询。然而,从今年9月开始,开发人员开始注意到GSC中出现了异常情况——长度超过300字符的奇怪查询开始出现。

这些查询仅显示用户输入,似乎是来自不知情的用户,他们正在与聊天机器人对话,寻求解决关系或商业问题的帮助,并期望这些对话能够保持私密性。
专家调查:揭示OpenAI可能的数据收集行为
Jason Packer,一家名为Quantable的分析咨询公司所有者,是首位在详细博客中标记此问题的专家之一。他决定找出导致这些泄露的确切原因,并与"网络侦探"和网络优化顾问Slobodan Manić合作。
他们进行的测试可能已经揭示了"OpenAI直接使用实际用户提示抓取Google搜索的第一个决定性证据"。他们的调查似乎证实,这家AI巨头在某些情况下正在侵犯用户隐私,目的是通过获取Google otherwise不会共享的搜索数据来维持用户参与度。
OpenAI拒绝Ars的请求,确认Packer和Manić在其博客中提出的理论是否正确,或回答任何可以帮助用户确定问题范围的剩余问题。
然而,OpenAI发言人确认,公司"意识到"这一问题,并已"解决"一个临时影响少量搜索查询路由的故障。
泄露的内容:敏感对话意外暴露
Packer在GSC中审查的第一个异常ChatGPT查询,似乎来自一位可能女性用户的意识流,她请求ChatGPT评估某些行为,以帮助她判断一个经常取笑她的男孩是否对她有好感。另一个异常查询似乎来自一位办公室经理,他在制定返回办公室公告的同时分享商业信息。
这只是他在一个网站上审查的200个异常查询中的两个,其中包含"一些相当疯狂的查询",Packer告诉Ars。在他的博客中,Packer得出结论,这些查询应该作为"提示并不像你想象的那么私密"的提醒!
技术分析:泄露机制如何运作
Manić帮助Packer解决了这个谜题的大部分。他发现异常查询出现在一个网站的GSC中,是因为该网站在Google搜索中针对"https://openai.com/index/chatgpt/"排名很高——这是一个在每个奇怪查询开头附加的ChatGPT URL。
似乎Google已经对这个URL进行了标记化,将其分解为"openai + index + chatgpt"的关键词搜索。Parker和Manić提出,因此,在Google搜索中针对这些关键词排名高的使用GSC的网站,很可能会遇到ChatGPT泄露,包括报道先前的ChatGPT泄露的网站,其中聊天记录被索引在Google搜索结果中。
Packer写道:"不要被搞混了,这是一个新的、完全不同于我们不想让Google索引内容的ChatGPT错误。更奇怪,如果不是那么严重的话。"
OpenAI的回应:不完整的解决方案
OpenAI声称只有少量查询被泄露,但拒绝提供更精确的估计。因此,每周使用ChatGPT的7亿用户中有多少提示被路由到GSC,仍不清楚。
Packer告诉Ars,先前的泄露和GSC泄露之间的一个主要区别是,受先前丑闻影响的用户,至少在某种程度上,"必须主动分享"他们泄露的聊天记录。在最近的情况下,"没有人点击分享"或有任何合理的方法来防止他们的聊天记录被暴露。
"OpenAI是否进展太快以至于没有考虑这对隐私的影响,或者他们只是不在乎?"Packer在他的博客中假设。
持续的担忧:用户隐私的未来
对一些用户来说,最令人担忧的是,似乎没有办法从GSC中删除泄露的聊天记录,这与先前的丑闻不同。除非他们的提示可能包含识别信息,否则他们的身份不会与聊天记录关联。
Packer和Manić对OpenAI的修复将在多大程度上阻止这个问题,留下了"挥之不去的疑问"。
Manić希望OpenAI可能确认在https://chatgpt.com/上输入并触发Google搜索的提示是否也受到影响。但OpenAI没有跟进这个问题,也没有关于泄露规模更广泛的问题。对Manić来说,一个主要担忧是,OpenAI的抓取可能正在导致Google Search Console中的"鳄鱼嘴"现象,这是SEO研究人员标记的一个令人担忧的趋势,它导致展示次数激增但点击率下降。
技术细节:泄露背后的机制
Packer和Manić对导致泄露的可能路径有一个理论。访问在每个奇怪查询开头找到的URL,ChatGPT用户遇到一个似乎有bug的提示框,导致"该页面的URL被添加到提示中"。
他们解释说,问题似乎是:
通常,ChatGPT 5会在认为需要时选择进行网络搜索,并且对于需要专业知识或时效性的搜索,更可能这样做。但是这个有bug的提示框还包含查询参数'hints=search',使其基本上总是进行搜索:https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5
Packer的博客明确表示,显然有些搜索依赖于Google,错误地将用户在提示框中说的任何内容发送到GSC,并在前面添加了"https://openai.com/index/chatgpt/"文本。正如Packer解释的那样:"我们知道它一定是抓取了那些,而不是使用API或某种私人连接——因为其他选项不会显示在GSC内。"
这意味着"OpenAI将与Google搜索相关的任何提示与进行抓取的任何人共享,然后也与在搜索结果中显示的任何人的网站共享!哎呀。"
对Packer来说,似乎过去两个月内"所有使用Google搜索的ChatGPT提示"都有被泄露的风险。
更广泛的启示:AI时代的隐私挑战
这起事件不仅仅是一个技术故障,它反映了人工智能时代面临的更广泛隐私挑战。随着AI系统变得越来越复杂,它们对数据的需求也在增长,这往往导致对用户隐私的忽视或低估。

OpenAI的回应,虽然迅速,但没有完全解决用户对数据收集实践的担忧。这引发了一个问题:在追求创新和增长的同时,AI公司是否应该承担更严格的数据隐私责任?
专家观点:对OpenAI的质疑
Packer对Ars表示:"OpenAI的修复只是停止了搜索查询的路由,使得原始提示不再发送到Google搜索,还是他们完全停止抓取Google搜索获取数据?"
"我们仍然不知道是否只是那个特定页面有这个bug,或者这真的非常普遍,"Packer告诉Ars。"无论哪种情况,这都是严重的,只是表明OpenAI在涉及隐私时有多么不谨慎。"
用户应采取的预防措施
在OpenAI完全解决这些问题之前,ChatGPT用户可能需要采取额外的预防措施来保护他们的隐私:
- 避免在提示中包含敏感个人信息
- 定期检查他们的对话是否意外出现在网上
- 考虑使用匿名化或一般化语言讨论敏感话题
- 了解并定期更新平台的隐私设置
行业影响:重新审视AI数据实践
这起事件可能会促使整个行业重新审视AI公司的数据收集和使用实践。随着AI系统越来越深入地融入日常生活,确保用户隐私和数据安全将成为关键考虑因素。
监管机构可能会加强对AI公司的审查,要求更透明的数据使用政策和更强的隐私保护措施。这可能会导致新的法规出台,以规范AI系统的数据收集和使用。
结论:隐私与创新的平衡
ChatGPT隐私泄露事件提醒我们,在追求技术创新的同时,不能忽视用户隐私的重要性。AI公司需要在创新和隐私保护之间找到平衡,这不仅是道德责任,也是建立用户信任的关键。
随着AI技术的不断发展,我们可以期待更多的隐私挑战出现。这要求AI公司、监管机构和用户共同努力,确保AI技术的发展以尊重和保护用户隐私的方式进行。









