意外泄露:私人对话现身Google分析工具
过去几个月里,极其私密和敏感的ChatGPT对话持续泄露到一个出人意料的目的地:Google Search Console(GSC)。这个工具通常被开发者用来监控搜索流量,而非窥探私人聊天内容。
通常情况下,当网站管理员访问GSC性能报告时,他们会看到基于关键词或短语的查询,这些是互联网用户在Google中输入以查找相关内容的内容。但从今年9月开始,GSC中开始出现奇怪的查询,有时长度超过300个字符。这些聊天记录仅显示用户输入,似乎来自不知情的人们,他们正在提示聊天机器人帮助解决关系或业务问题,并期望这些对话能够保持私密。

专家调查:揭示OpenAI可能抓取Google搜索
分析咨询公司Quantable的所有者Jason Packer是上个月在详细博客中率先标记此问题的专家之一。
为了确定造成泄露的确切原因,他与"网络侦探"和网站优化顾问Slobodan Manić合作。他们共同进行的测试可能揭示了"第一个确凿证据,证明OpenAI直接使用实际用户提示抓取Google搜索"。他们的调查似乎证实,这家AI巨头在某些情况下正在侵犯用户隐私,目的是通过获取Google otherwise不会分享的搜索数据来维持用户参与度。
OpenAI拒绝Ars Technica的请求,确认Packer和Manić在其博客中提出的理论是否正确,或回答任何可以帮助用户确定问题范围的剩余问题。
然而,OpenAI发言人证实,该公司"意识到"这个问题,并且已经"解决"了一个"暂时影响一小部分搜索查询路由方式"的故障。
Packer告诉Ars Technica,他对"OpenAI能够迅速解决这个问题"感到"非常满意"。但他暗示,OpenAI的回应未能确认OpenAI是否正在抓取Google,这让人怀疑问题是否已完全解决。
泄露内容分析:比以往ChatGPT泄露更"奇怪"
Packer在GSC中审查的第一个奇怪ChatGPT查询,似乎来自一位可能女性用户的意识流,她要求ChatGPT评估某些行为,以帮助她判断一个经常取笑她的男孩是否对她有好感。另一个奇怪的查询似乎来自一位办公室经理,他在分享业务信息的同时,策划着返回办公室的公告。
这只是Packer在一个网站上审查的200个奇怪查询中的两个,其中包括"一些相当疯狂的查询",他告诉Ars Technica。在他的博客中,Packer得出结论,这些查询应该作为"一个提醒,提示并不像你想象的那样私密!"
Packer怀疑这些查询与8月份The Information的报道有关,该报道援引消息人士称,OpenAI正在抓取Google搜索结果来为ChatGPT响应提供支持。消息人士称,OpenAI依赖Google来回答ChatGPT中关于当前事件(如新闻或体育)的提示。
OpenAI尚未确认它正在抓取Google搜索引擎结果页面(SERPs)。然而,Packer认为他对ChatGPT泄露的测试可能是证据,表明OpenAI不仅抓取"SERPs以获取数据",还将用户提示发送到Google搜索。
Manić帮助Packer解决了这个谜题的大部分。他发现奇怪查询出现在一个网站的GSC中,是因为该网站在Google搜索中"https://openai.com/index/chatgpt/"的排名很高——这是一个ChatGPT URL,被添加到GSC中出现的每个奇怪查询的前面。
Google似乎将这个URL分词,将其分解为关键词"openai + index + chatgpt"的搜索。Parker和Manić提出,因此,使用GSC且在这些关键词上排名很高的网站很可能会遇到ChatGPT泄露,包括报道先前ChatGPT泄露的网站,其中聊天记录被索引在Google搜索结果中。使用他们的建议在GSC中查找查询,Ars Technica能够验证类似的字符串。
"不过不要混淆,这是一个新的、完全不同的ChatGPT失误,与让Google索引我们不希望他们索引的内容不同,"Packer写道。"更奇怪,如果不是那么严重的话。"
泄露机制分析:技术漏洞与数据流向
目前尚不清楚OpenAI具体修复了什么,但Packer和Manić对一种可能的聊天泄露路径有理论。在GSC中发现的每个奇怪查询开头的URL,ChatGPT用户会遇到一个似乎有问题的提示框,导致"该页面的URL被添加到提示中"。他们解释说,问题是:
通常,ChatGPT 5会在认为需要时选择进行网络搜索,并且对于需要深奥或最新信息的搜索,更可能这样做。但是这个有问题的提示框还包含查询参数'hints=search',使其基本上总是进行搜索:https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5
Packer的博客明确表示,显然其中一些搜索依赖于Google,错误地将"用户在提示框中说的任何内容"发送到GSC,并在前面添加了"https://openai.com/index/chatgpt/"文本。正如Packer解释的那样:"我们知道它一定是抓取了那些,而不是使用API或某种私人连接——因为这些其他选项不会显示在GSC内部。"
这意味着"OpenAI将与Google搜索相关的任何提示与进行抓取的任何人共享,"Packer声称。"然后也与在搜索结果中出现的任何网站共享!哎呀。"
对Packer来说,似乎"过去两个月内所有使用Google搜索的ChatGPT提示"都有泄露的风险。
OpenAI声称只有一小部分查询被泄露,但拒绝提供更精确的估计。因此,目前尚不清楚每周使用ChatGPT的7亿人中,有多少人的提示被路由到GSC。
用户隐私担忧:OpenAI回应留下的疑问
在8月份ChatGPT提示被发现出现在Google搜索索引中后,OpenAI澄清说用户点击了一个框使这些提示公开,OpenAI辩称这"足够明确"。在明显感到用户被误导公开分享私人聊天后,这家AI公司后来急忙从Google的SERPs中删除聊天记录。
Packer告诉Ars Technica,这些泄露和GSC泄露之间的一个主要区别是,受先前丑闻影响用户,至少在某种程度上,"必须主动分享"他们的泄露聊天。在最近的情况下,"没有人点击分享"或有任何合理方式防止他们的聊天被暴露。
"OpenAI是否进展太快以至于没有考虑这对隐私的影响,或者他们只是根本不在乎?"Packer在他的博客中假设。
对一些用户来说——除非他们的提示可能包含识别信息,否则他们的身份不会与聊天记录关联——最令人担忧的是,似乎没有办法从GSC中删除泄露的聊天记录,这与先前的丑闻不同。
Packer和Manić对OpenAI的修复能在多大程度上停止这个问题仍有"悬而未决的问题"。
Manić希望OpenAI可能会确认在https://chatgpt.com上输入的触发Google搜索的提示是否也受到影响。但OpenAI没有跟进这个问题,也没有关于泄露规模更大的问题。对Manić来说,一个主要担忧是OpenAI的抓取可能正在"导致Google Search Console中的'鳄鱼嘴'",这是SEO研究人员标记的一个令人担忧的趋势,它会导致展示次数激增但点击率下降。
OpenAI也没有澄清Packer最大的疑问。他仍然想知道该公司的"修复"是否只是停止了OpenAI的"搜索查询路由,使得原始提示不再发送到Google搜索,或者他们是否完全停止抓取Google搜索以获取数据?"
"我们仍然不知道是否只是那个特定页面有这个错误,或者这真的非常普遍,"Packer告诉Ars Technica。"在任何一种情况下,这都是严重的,只是表明OpenAI在隐私方面多么不谨慎地行事。"
行业影响与未来展望
这一事件对AI行业的影响不容忽视。首先,它暴露了大型语言模型(LLM)在数据获取方面的伦理边界模糊问题。OpenAI作为行业领导者,其行为模式可能会影响整个行业的发展方向。如果公司可以随意抓取竞争对手的数据而不受惩罚,那么整个行业的创新生态可能会被扭曲。
其次,这一事件加剧了用户对AI工具隐私保护的担忧。随着越来越多的人使用ChatGPT等AI助手处理敏感信息,从商业计划到个人关系问题,用户需要确信他们的数据是安全的。此次泄露事件可能会使用户对AI工具的信任度下降,从而影响AI技术的广泛应用。
第三,监管机构可能会对这类事件作出反应。随着AI技术的快速发展,全球各国都在考虑制定更严格的监管框架。此次事件可能会加速相关法规的出台,特别是关于数据隐私和AI系统透明度的规定。
对于OpenAI而言,此次事件是一个重要的警醒。公司需要在快速创新和用户隐私保护之间找到更好的平衡。这不仅需要技术层面的改进,如更严格的数据处理流程和更透明的用户协议,还需要在企业文化中更加重视隐私保护。
技术专家建议:如何保护AI对话隐私
面对此类隐私泄露风险,技术专家提出了一些建议,帮助用户更好地保护自己在AI平台上的对话隐私:
避免在AI对话中分享敏感信息:包括个人身份信息、财务数据、商业机密等高度敏感内容。
定期检查AI平台隐私设置:了解并调整平台的隐私控制选项,限制数据收集和共享。
使用匿名化处理:在分享可能包含敏感信息的对话前,考虑对个人身份信息进行匿名化处理。
关注平台更新和安全公告:及时了解AI平台的安全更新和隐私政策变化。
考虑使用本地部署的AI工具:对于特别敏感的任务,考虑使用在本地设备上运行的AI解决方案,减少数据在线传输的风险。
结论:AI发展中的隐私平衡
ChatGPT对话泄露至Google Search Console的事件,是AI技术快速发展过程中隐私保护挑战的一个典型案例。它揭示了在追求技术创新和用户体验的同时,如何有效保护用户隐私这一持续存在的难题。
对于OpenAI和整个AI行业而言,这次事件应该成为一个转折点,促使公司重新审视其数据收集和使用实践。建立更透明、更负责任的数据处理机制,不仅是对用户的基本尊重,也是企业长期发展的必要条件。
随着AI技术的不断进步,我们期待看到更强大的隐私保护技术和更完善的监管框架,确保AI创新与用户权益之间的平衡。只有在尊重和保护用户隐私的基础上,AI技术才能真正实现其造福人类的潜力。










