ChatGPT隐私危机:敏感对话如何泄露至Google搜索控制台

1

意外的发现:私人对话出现在错误的地方

2025年9月,网站管理员们注意到Google搜索控制台(GSC)中出现了一些不寻常的查询数据。这些查询通常包含超过300个字符,远超普通搜索关键词的长度,且内容明显是ChatGPT用户的私人对话。

"Yikes"——这是分析师Jason Packer在描述这一发现时的反应。作为Quantable分析咨询公司的所有者,Packer是最早详细记录这一异常现象的人之一。这些私人对话涉及用户向ChatGPT提出的各种问题,从感情困扰到商业决策,本应是私密内容,却意外出现在GSC这一通常用于监控网站搜索流量的工具中。

深入调查:揭示OpenAI与Google的潜在关联

Packer与网络优化顾问兼"网络侦探"Slobodan Manić合作,试图找出这些对话泄露的根本原因。他们的调查得出了一个令人不安的结论:这些泄露可能提供了"OpenAI直接抓取Google搜索并使用实际用户提示"的首个确凿证据。

"我们确定那些是搜索查询,因为它们出现在GSC中,"Packer解释道,"我们知道OpenAI一定是抓取了这些数据,而不是使用API或其他某种私有连接,因为其他选项不会显示在GSC中。"

泄露的对话内容:个人隐私的意外曝光

Packer审查了200多条异常查询,其中一些内容相当敏感。例如,一条来自可能是一位女性用户的意识流式对话,她请求ChatGPT评估某些行为,以帮助她判断一个经常取笑她的男孩是否对她有好感。另一条则来自一位办公室经理,他在分享商业信息的同时,策划着重返办公室的公告。

"这些查询应该提醒人们,提示并不像你想象的那样私密,"Packer在他的博客中写道。

技术分析:泄露路径与OpenAI的潜在责任

Manić帮助解决了这个谜团的关键部分。他发现这些异常查询出现在某个网站的GSC中,是因为该网站在Google搜索中针对"https://openai.com/index/chatgpt/"这个URL排名较高——这是出现在每条奇怪查询开头的ChatGPT URL。

ChatGPT泄露示意图

Google似乎将这个URL分解为"openai + index + chatgpt"等关键词的搜索,因此使用GSC且针对这些关键词排名较高的网站很可能会遇到ChatGPT泄露。

Packer和Manić认为,泄露的路径可能如下:用户访问以GSC中发现的奇怪查询开头的URL时,会遇到一个似乎有bug的提示框,导致"该页面的URL被添加到提示中"。这个提示框包含查询参数'hints=search',基本上总是触发搜索:

https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5

Packer解释说:"显然,其中一些搜索依赖于Google,错误地将用户在提示框中说的任何内容发送到GSC,并在前面添加了'https://openai.com/index/chatgpt/'文本。"

这意味着"OpenAI将与Google搜索相关的任何提示分享给Google以及进行抓取的人,然后也分享给在搜索结果中显示其网站的任何人!"

OpenAI的回应与未解之谜

面对这一发现,OpenAI拒绝确认Packer和Manić的理论或回答任何可能帮助用户确定问题范围的问题。然而,OpenAI发言人确认公司已"意识到"这个问题,并已"解决"了一个"暂时影响一小部分搜索查询路由"的故障。

Packer表示:"我很高兴OpenAI能够迅速解决这个问题。"但他指出,OpenAI的回应未能确认OpenAI是否在抓取Google,这让人怀疑问题是否已完全解决。

OpenAI声称只有一小部分查询被泄露,但拒绝提供更精确的估计。因此,每周使用ChatGPT的7亿用户中有多少人的提示被路由到GSC仍然不清楚。

与之前泄露事件的比较:更隐蔽的隐私侵犯

在8月ChatGPT提示被发现出现在Google搜索索引中后,OpenAI澄清说用户点击了一个框使这些提示公开,OpenAI辩称这"足够清楚"。在那次事件中,用户至少在一定程度上"必须主动分享"他们的对话。

相比之下,在最近的GSC泄露事件中,"没有人点击分享"或有任何合理的方法防止他们的对话被曝光。

"OpenAI是否走得如此之快以至于没有考虑这对隐私的影响,还是他们根本不在乎?"Packer在他的博客中提出疑问。

用户担忧与不可逆的隐私泄露

对一些用户来说,最令人担忧的是,似乎没有办法从GSC中删除泄露的对话,这与之前的泄露事件不同。除非提示中包含识别信息,否则用户的身份不会与对话关联,但对话内容本身已被暴露。

Manić希望OpenAI可能确认在https://chatgpt.com/上输入并触发Google搜索的提示是否也受到影响。但OpenAI没有跟进这个问题,也没有回答关于泄露规模更广泛的问题。

长期影响:对AI巨头隐私实践的质疑

这一事件引发了对OpenAI隐私实践的严重质疑。Packer和Manić对OpenAI的"修复"能走多远来阻止这个问题仍有"悬而未决的疑问"。

Packer最大的疑问是OpenAI的"修复"是否只是停止了搜索查询的路由,使得原始提示不再发送到Google搜索,还是他们根本不再抓取Google搜索的数据。

"我们仍然不知道是否只是那个特定页面有这个bug,或者这真的非常普遍,"Packer告诉Ars,"在任何情况下,这都是严重的,只是表明OpenAI在涉及隐私时有多么不谨慎。"

隐私保护示意图

行业影响与未来展望

这一事件不仅影响OpenAI的用户,也对整个AI行业敲响了警钟。随着AI系统越来越深入地融入日常生活,这些系统如何处理用户数据、保护隐私变得越来越重要。

专家指出,此类事件可能导致更严格的监管和更严格的隐私标准。科技公司可能需要对其数据收集和使用实践进行更透明的沟通,并实施更强大的隐私保护措施。

同时,这一事件也提醒用户在使用AI工具时需要更加谨慎,了解他们的数据可能如何被使用,并采取适当措施保护敏感信息。

技术与隐私的平衡挑战

OpenAI的案例凸显了技术创新与隐私保护之间日益增长的紧张关系。AI系统需要大量数据来训练和改进,但这些数据的收集和使用必须与用户隐私权相平衡。

行业专家呼吁开发更先进的技术来保护AI系统中的用户数据,同时确保这些系统能够继续创新和提供价值。这可能包括差分隐私、联邦学习和同态加密等先进技术的应用。

结论:AI时代的隐私新现实

ChatGPT泄露至Google搜索控制台的事件提醒我们,在AI驱动的数字时代,隐私保护面临着前所未有的挑战。随着AI系统变得越来越复杂和普及,确保这些系统尊重用户隐私、负责任地使用数据变得更加重要。

这一事件也强调了科技公司需要采取更主动的方法来保护用户数据,并在设计产品和系统时优先考虑隐私。同时,监管机构可能需要制定更明确的指导方针和法规,以确保AI技术的负责任发展和部署。

对于用户而言,这一事件是一个提醒,让他们更加关注自己的数字足迹,并了解他们使用的AI工具如何处理他们的数据。随着AI继续改变我们的生活和工作方式,保护隐私将成为一个持续的重要议题。