ChatGPT隐私危机:私密对话泄露至Google Analytics工具的惊人真相

0

意外泄露:私密对话现身Google Search Console

在过去的几个月里,极其私密和个人化的ChatGPT对话被错误地发送到了一个意想不到的目的地:Google Search Console(GSC)——这个工具通常被开发者用于监控搜索流量,而非窥探私人聊天。

通常情况下,当网站管理员访问GSC性能报告时,他们会看到基于关键词或短语的查询,这些是互联网用户在Google中输入以查找相关内容。但从今年9月开始,GSC中也开始出现异常查询,有时长度超过300字符。这些对话仅显示用户输入,似乎来自无意中提示聊天机器人帮助解决关系或商业问题的人们,他们原本期望这些对话能够保持私密。

专家调查:泄露背后的真相

Jason Packer是Quantable分析咨询公司的所有者,他是上个月在一篇详细的博客中率先标记此问题的专家之一。

AI数据泄露示意图

为了确定导致泄露的确切原因,他与"网络侦探"和网页优化顾问Slobodan Manić合作。他们共同进行的测试可能揭示了"OpenAI直接使用实际用户提示抓取Google搜索的首 definitive证据"。他们的调查似乎证实,这家AI巨头在某些情况下正在侵犯用户隐私,甚至可能通过获取Google原本不会分享的搜索数据来维持用户参与度。

OpenAI拒绝Ars的请求,确认Packer和Manić在其博客中提出的理论是否正确,或回答任何可能帮助用户确定问题范围的剩余问题。

然而,OpenAI发言人确认,公司已"意识到"这个问题,并已"解决"了一个临时影响少量搜索查询路由的故障。

Packer告诉Ars,他对"OpenAI能够迅速解决问题"感到非常满意。但他指出,OpenAI的回应未能确认OpenAI是否在抓取Google,这让人怀疑问题是否已完全解决。

泄露内容:比以往更严重的隐私问题

Packer在GSC中审查的第一个异常ChatGPT查询,是一个来自可能是一位女性用户的意识流片段,她请求ChatGPT评估某些行为,以帮助她判断一个取笑她的男孩是否对她有好感。另一个异常查询似乎来自一名办公室经理,他在制定重返办公室公告的同时分享了商业信息。

这些只是Packer在一个网站上审查的200个异常查询中的两个,他告诉Ars,其中包含"一些相当疯狂的内容"。在他的博客中,Packer总结认为,这些查询应该提醒人们"提示并不像你想象的那么私密!"

Packer怀疑这些查询与《The Information》8月的报道有关,该报道援引消息人士称,OpenAI正在抓取Google搜索结果来为ChatGPT的回复提供支持。消息人士称,OpenAI依赖于Google来回答ChatGPT中关于当前事件(如新闻或体育)的提示。

OpenAI尚未确认它正在抓取Google搜索引擎结果页面(SERP)。然而,Packer认为他对ChatGPT泄露的测试可能是OpenAI不仅抓取"SERP以获取数据",还将用户提示发送到Google搜索的证据。

技术分析:泄露路径与原因

Manić帮助Packer解决了这个谜团的大部分。他发现异常查询出现在一个网站的GSC中,是因为该网站在Google搜索中针对"https://openai.com/index/chatgpt/"——一个出现在每个奇怪查询开头的ChatGPT URL——排名很高。

Parker和Manić提出,Google似乎对URL进行了标记处理,将其分解为"openai + index + chatgpt"等关键词搜索。因此,使用GSC且对这些关键词排名较高的网站很可能会遇到ChatGPT泄露,包括那些报道过先前ChatGPT泄露的网站,当时聊天内容被索引在Google搜索结果中。按照他们的建议在GSC中查找查询,Ars能够验证类似的字符串。

"不过不要混淆,这是一个新的、完全不同的ChatGPT失误,不同于我们不希望Google索引内容的情况,"Packer写道。"如果说不那么严重的话,那就更奇怪了。"

目前尚不清楚OpenAI具体修复了什么,但Packer和Manić对泄露聊天的一个可能路径有理论。出现在GSC的每个奇怪查询开头的URL,ChatGPT用户会遇到一个似乎有问题的提示框,导致"该页面的URL被添加到提示中"。他们解释说,问题似乎在于:

通常,ChatGPT 5会在认为需要时选择进行网络搜索,对于需要专业知识或时效性的搜索,它更可能这样做。但这个有问题的提示框还包含查询参数'hints=search',使其基本上总是进行搜索:https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5

Packer的博客明确表示,显然有些搜索依赖Google,错误地向GSC发送了用户在提示框中说的任何内容,并在前面添加了"https://openai.com/index/chatgpt/"文本。正如Packer解释的那样:"我们知道它必须抓取了这些,而不是使用API或某种私人连接——因为其他选项不会显示在GSC中。"

这意味着"OpenAI将与Google搜索相关的任何提示分享给Google和任何进行抓取的人,"Packer声称。"然后也分享给出现在搜索结果中的任何网站!哎呀。"

对Packer来说,似乎过去两个月里"所有使用Google搜索的ChatGPT提示"都有泄露的风险。

OpenAI的回应:不完整的解决方案

OpenAI声称只有少量查询被泄露,但拒绝提供更精确的估计。因此,目前尚不清楚每周使用ChatGPT的7亿用户中,有多少人的提示被路由到GSC。

AI隐私保护概念图

在8月ChatGPT提示被发现出现在Google搜索索引中后,OpenAI澄清说用户点击了一个框使这些提示公开,OpenAI辩称这"足够明确"。当明显感到用户被误导公开分享私人聊天后,这家AI公司后来急忙从Google的SERP中移除这些聊天内容。

Packer告诉Ars,先前泄露事件和GSC泄露之间的一个主要区别是,受先前丑闻影响的用户,至少在某种程度上,"必须主动分享"他们的泄露聊天。而在最近的情况下,"没有人点击分享"或有任何合理方式防止他们的聊天内容被曝光。

"OpenAI是不是走得太快,以至于没有考虑这对隐私的影响,或者他们根本不在乎?"Packer在他的博客中推测。

对一些用户来说——除非他们的提示可能分享识别信息,否则其身份不会与聊天关联——最令人担忧的是,似乎没有任何方法可以从GSC中删除泄露的聊天内容,这与先前的丑闻不同。

Packer和Manić对OpenAI的修复能在多大程度上停止这个问题仍有"悬而未决的问题"。

Manić希望OpenAI可能确认在https://chatgpt.com/上输入并触发Google搜索的提示是否也受到了影响。但OpenAI没有跟进这个问题,也没有回答关于泄露规模更广泛的问题。对Manić来说,一个主要担忧是OpenAI的抓取可能正在导致Google Search Console中的"鳄鱼嘴",这是SEO研究人员标记的一个令人不安的趋势,它会导致展示次数激增但点击率下降。

OpenAI也没有澄清Packer最大的疑问。他仍然想知道公司的"修复"是否只是停止了OpenAI的"搜索查询路由,使得原始提示不再发送到Google搜索,或者他们根本不再抓取Google搜索以获取数据?"

"我们仍然不知道是那个特定页面有这个bug,还是这真的非常普遍,"Packer告诉Ars。"在任何一种情况下,这都是严重的,只是表明在隐私方面,OpenAI多么不注重谨慎行事。"

行业影响:AI隐私保护的警钟

这一事件再次引发了人们对AI行业数据隐私实践的担忧。随着人工智能技术的快速发展,越来越多的用户依赖这些工具处理敏感信息,从个人关系到商业决策。然而,像OpenAI这样的科技巨头似乎在追求技术创新的同时,未能充分保护用户隐私。

专家指出,此次泄露事件揭示了AI行业在数据处理和隐私保护方面的系统性问题。尽管OpenAI已经修复了这一特定漏洞,但更深层次的问题仍然存在:AI公司如何确保用户数据的安全?如何在利用用户数据改进服务的同时保护隐私?

用户启示:如何保护AI对话隐私

这一事件为ChatGPT和其他AI工具的用户提供了重要启示:

  1. 谨慎分享敏感信息:避免在AI对话中分享个人身份信息、财务细节或其他敏感数据。

  2. 了解隐私设置:熟悉并使用平台提供的隐私控制选项,尽管这些选项可能并不总是足够清晰。

  3. 定期检查公开内容:定期搜索自己的名字或相关信息,查看是否有意外公开的对话内容。

  4. 多元化工具使用:不要依赖单一AI工具处理所有类型的查询,特别是敏感话题。

  5. 关注安全更新:密切关注AI平台发布的安全更新和隐私政策变更。

未来展望:AI隐私保护的必要改革

随着AI技术的普及,隐私保护将成为行业发展的关键挑战。此次ChatGPT泄露事件可能促使监管机构加强对AI公司的审查,推动更严格的隐私保护法规出台。

对于AI公司而言,这一事件是一个警钟,需要在技术创新与隐私保护之间找到更好的平衡。未来的AI系统必须将隐私保护作为核心设计原则,而非事后添加的功能。

同时,用户也需要提高隐私意识,了解使用AI工具的风险,并采取适当措施保护自己的数据。只有用户、企业和监管机构共同努力,才能建立一个既创新又安全的AI生态系统。