ChatGPT隐私危机:私密对话如何泄露至谷歌分析工具

1

在数字时代,隐私保护已成为用户最关心的问题之一。然而,近期一起涉及ChatGPT的隐私泄露事件再次引发了人们对AI聊天机器人安全性的担忧。令人震惊的是,大量用户的私密对话竟然出现在了Google Search Console(GSC)这一专业网站分析工具中,而非预期的搜索查询数据中。这一发现不仅揭示了OpenAI可能存在的数据抓取行为,也暴露了AI巨头在用户隐私保护方面的潜在漏洞。

意外的泄露:GSC中的私人对话

从今年9月开始,网站管理员在使用Google Search Console查看性能报告时,发现了一些异常现象。通常情况下,GSC会显示基于关键词或短语的查询数据,这些是互联网用户在谷歌搜索中输入的内容。然而,此次管理员们看到的却是长度超过300字符的奇怪查询,这些查询仅显示用户输入的内容,显然来自与聊天机器人的对话。

这些对话内容涉及个人关系、商业问题等敏感话题,用户很可能原本期望这些交流能够保持私密性。Jason Packer,一家名为Quantable的分析咨询公司所有者,是首批在详细博客中标记此问题的人之一。

ChatGPT隐私泄露示意图

专家调查:揭示OpenAI的数据抓取行为

Packer决心找出导致泄露的确切原因,他与"网络侦探"和网页优化顾问Slobodan Manić合作。通过一系列测试,他们相信自己可能发现了"OpenAI直接使用实际用户提示抓取Google搜索的首 definitive 证据"。他们的调查似乎证实了这家AI巨头正在侵犯用户隐私,在某些情况下,甚至通过获取谷歌不愿分享的搜索数据来维持用户参与度。

这些泄露的对话内容五花八门。Packer审查的第一个异常查询似乎来自一位女性用户,她要求ChatGPT评估某些行为,以帮助她判断经常取笑她的男孩是否对她有好感。另一个异常查询则来自一位办公室经理,他在分享业务信息的同时,似乎正在策划一个重返办公室的公告。

仅在一个网站上,Packer就审查了200多个此类异常查询,其中包含"一些相当疯狂的"内容。他在博客中总结道,这些查询应该提醒人们:"提示并不像你想象的那么私密!"

泄露机制:URL解析与搜索参数

Manić帮助Packer解决了这个谜团的大部分内容。他发现,异常查询出现在某个网站的GSC中,是因为该网站在Google搜索中针对"https://openai.com/index/chatgpt/"这个URL排名很高——这是每个出现在GSC中的奇怪查询开头的ChatGPT URL。

似乎谷歌将这个URL进行了分词处理,分解为"openai + index + chatgpt"的搜索关键词。因此,Packer和Manić推测,在GSC中使用这些关键词排名较高的网站很可能会遇到ChatGPT泄露,包括那些报道过先前ChatGPT泄露(聊天记录被索引在谷歌搜索结果中)的网站。

他们推测泄露的可能路径是:访问出现在GSC中每个奇怪查询开头的URL,ChatGPT用户会遇到一个似乎有错误的提示框,导致"该页面的URL被添加到提示中"。他们解释说,问题似乎在于:

通常,ChatGPT 5会在认为需要时选择进行网络搜索,对于需要专业知识或最新信息的搜索,它更可能这样做。但是这个有错误的提示框还包含查询参数'hints=search',使其基本上总是进行搜索:https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5

Packer的博客明确指出,显然这些搜索中有一些依赖于谷歌,错误地将用户在提示框中说的任何内容发送到GSC,并在前面添加了"https://openai.com/index/chatgpt/"文本。正如Packer解释的那样:"我们知道它一定是抓取了这些内容,而不是使用API或某种私人连接——因为这些其他选项不会显示在GSC中。"

这意味着"OpenAI将与Google搜索相关的任何提示同时分享给谷歌和进行抓取的人,然后也分享给在搜索结果中出现的任何网站!"Packer指控道。这表明在过去的两个月里,"所有使用Google搜索的ChatGPT提示"都有被泄露的风险。

OpenAI的回应与遗留问题

面对这一发现,OpenAI拒绝确认Packer和Manić在其博客中提出的理论,也不回答可以帮助用户确定问题范围的任何剩余问题。然而,OpenAI发言人确认公司"意识到"这个问题,并且已经"解决"了一个"暂时影响少量搜索查询路由"的故障。

Packer告诉Ars,他对"OpenAI能够迅速解决这个问题感到非常满意"。但他指出,OpenAI的回应未能确认OpenAI是否在抓取谷歌搜索,这让人怀疑问题是否完全解决。

隐私泄露影响示意图

与之前的ChatGPT泄露相比,Packer认为GSC泄露的主要区别在于,受先前丑闻影响的用户至少在某种程度上"必须主动分享"他们的泄露对话。而在最近的情况下,"没有人点击分享"或有任何合理的方法来防止他们的对话被暴露。

"OpenAI是不是进展太快,以至于没有考虑这对隐私的影响,或者他们只是根本不在乎?"Packer在他的博客中推测。

对一些用户来说,最令人担忧的是,似乎没有办法从GSC中删除泄露的对话,这与先前的丑闻不同(除非他们的提示可能包含识别信息,否则他们的身份不会与对话关联)。

Packer和Manić对OpenAI的修复能在多大程度上阻止这个问题仍然存在"悬而未决的问题"。Manić希望OpenAI可能确认在https://chatgpt.com/上输入并触发Google搜索的提示是否也受到了影响。但OpenAI没有跟进这个问题,也没有回答关于泄露规模更大的问题。对Manić来说,一个主要担忧是OpenAI的抓取可能正在导致Google Search Console中的"鳄鱼嘴"现象,SEO研究人员已经指出这种令人担忧的趋势会导致展示次数激增但点击率下降。

OpenAI也没有澄清Packer最大的疑问。他想知道公司的"修复"是否只是停止了OpenAI的搜索查询路由,使得原始提示不再发送到Google搜索,或者他们是否完全停止抓取Google搜索数据。

"我们仍然不知道是否只是那个特定页面有这个错误,或者这是否真的普遍存在,"Packer告诉Ars。"无论哪种情况,这都是严重的,只是表明OpenAI在处理隐私问题时有多么不谨慎。"

行业影响与用户启示

这一事件不仅对OpenAI的声誉造成了影响,也对整个AI行业敲响了警钟。随着AI聊天机器人的普及,用户越来越依赖这些工具处理个人和敏感信息。然而,这一事件揭示了即使是行业领先的企业也可能在隐私保护方面存在严重漏洞。

对于用户而言,这一事件提醒我们:

  1. 谨慎分享敏感信息:在使用AI聊天工具时,应避免分享可能识别个人身份的敏感信息。
  2. 了解隐私设置:熟悉并利用平台提供的隐私控制选项。
  3. 定期检查数据泄露:关注可能涉及个人信息的泄露事件。
  4. 多元化工具使用:不要将所有敏感对话集中在单一平台上。

结论:AI隐私保护的必要改进

ChatGPT隐私泄露事件再次强调了在AI技术快速发展的同时,隐私保护机制必须同步加强。随着AI模型变得越来越复杂和强大,它们处理的数据也越来越多,隐私风险也随之增加。

OpenAI和其他AI公司需要采取更严格的措施保护用户数据,包括:

  • 提高透明度,明确说明数据收集和使用方式
  • 实施更强大的数据保护技术
  • 建立更有效的用户控制机制
  • 进行定期的安全审计和漏洞测试

只有通过这些措施,AI行业才能赢得用户的信任,确保技术的可持续发展。对于用户而言,提高隐私意识,了解所使用工具的数据处理方式,也是保护自身权益的重要一步。