ChatGPT隐私危机:私密对话泄露至Google Analytics工具的真相

0

在数字时代,隐私保护已成为用户最关心的问题之一。然而,近期OpenAI的ChatGPT平台出现了一起令人震惊的隐私事件:用户的私密对话竟然出现在Google Search Console(GSC)这一开发者工具中,而非预期的私人交流空间。这一事件不仅引发了用户对数据安全的担忧,更揭示了AI巨头在用户数据处理方面可能存在的严重问题。

意外的泄露:从Google Search Console发现的私密对话

从今年9月开始,网站管理员在使用Google Search Console查看性能报告时,发现了一些异常情况。除了通常的关键词或短短语查询外,他们开始看到一些长度超过300字符的奇怪查询。这些查询仅显示用户输入,似乎是来自不知情的用户,他们向聊天机器人寻求帮助解决关系或业务问题,并期望这些对话保持私密。

ChatGPT隐私泄露示意图

Jason Packer,一家名为Quantable的分析咨询公司所有者,是上月在一篇详细的博客中首次标记此问题的专家之一。他决定找出导致泄露的确切原因,并与"网络侦探"和网页优化顾问Slobodan Manić合作。他们进行的测试可能揭示了"OpenAI直接使用实际用户提示抓取Google搜索的首个确凿证据"。

技术分析:泄露背后的机制

Packer和Manić的调查似乎证实,这家AI巨头在某些情况下为了维持用户参与度,通过获取Google otherwise不会分享的搜索数据,正在损害用户隐私。

他们发现,这些奇怪查询出现在特定网站的GSC中,因为这些网站在Google搜索中"https://openai.com/index/chatgpt/"这一ChatGPT URL排名很高。这个URL被附加在出现在GSC中的每个奇怪查询的开头。Google似乎对URL进行了分词处理,将其分解为"openai + index + chatgpt"的搜索关键词。因此,在这些关键词上排名较高的使用GSC的网站很可能会遇到ChatGPT泄露,包括报道先前ChatGPT泄露的网站,其中聊天内容被索引在Google搜索结果中。

"不要混淆,这是一个新的、完全不同的ChatGPT错误,而不是让Google索引我们不希望他们索引的内容,"Packer写道。"更奇怪,尽管不那么严重。"

泄露的对话内容:用户隐私的严重侵犯

Packer在GSC中审查的第一个异常ChatGPT查询,似乎来自一位可能女性用户的意识流,她要求ChatGPT评估某些行为,以帮助她判断一个经常取笑她的男孩是否有好感。另一个异常查询似乎来自一名办公室经理,在制定返回办公室公告的同时分享业务信息。

这只是他在一个网站上审查的200多个异常查询中的两个,"其中一些相当疯狂",Packer告诉Ars。在他的博客中,Packer得出结论,这些查询应该作为"提示并不像你想象的那样私密"的提醒!

这些查询似乎与8月份The Information的报道有关,该报道引用了声称OpenAI正在抓取Google搜索结果来支持ChatGPT回复的来源。这些来源声称,OpenAI依赖Google来回答有关当前事件(如新闻或体育)的ChatGPT提示。

OpenAI的回应与未解之谜

OpenAI拒绝Ars的请求,确认Packer和Manić在其博客中提出的理论是否正确,或回答任何其他可能帮助用户确定问题范围的剩余问题。

然而,OpenAI发言人确认,公司"意识到"这个问题,并且已经"解决"了一个暂时影响少量搜索查询路由的故障。

Packer告诉Ars,他对"OpenAI能够迅速解决这个问题感到非常满意。"但他指出,OpenAI的回应未能确认OpenAI是否在抓取Google,这留下了问题是否完全解决的疑虑。

Google拒绝发表评论。

技术漏洞还是故意行为?

Packer和Manić对泄露聊天的一个可能路径有理论。他们发现,出现在GSC中的每个奇怪查询开头的URL,ChatGPT用户会遇到一个似乎有问题的提示框,导致"该页面的URL被添加到提示中"。他们解释的问题似乎是:

通常,ChatGPT 5会在认为需要时选择进行网络搜索,并且对于需要专业知识或最新信息的搜索更可能这样做。但是这个有问题的提示框还包含查询参数'hints=search',使其基本上总是进行搜索:https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5

Packer的博客明确表示,其中一些搜索依赖于Google,错误地将用户在提示框中说的内容发送到GSC,并在前面添加了"https://openai.com/index/chatgpt/"文本。正如Packer解释的那样,"我们知道它一定是抓取了那些,而不是使用API或某种私人连接——因为其他选项不会显示在GSC中。"

这意味着"OpenAI将与Google搜索相关的任何提示与Google和进行抓取的人共享,"Packer声称。"然后也与搜索结果中显示的任何网站共享!令人震惊。"

对Packer来说,过去两个月里,"所有使用Google搜索的ChatGPT提示"都有被泄露的风险。

用户隐私的持续风险

OpenAI声称只有少量查询被泄露,但拒绝提供更精确的估计。因此,每周使用ChatGPT的7亿用户中有多少提示被路由到GSC仍然不清楚。

在8月份ChatGPT提示被发现出现在Google搜索索引中后,OpenAI澄清说用户点击了一个框使这些提示公开,OpenAI辩称这"足够明确"。在用户感觉被误导公开分享私人聊天后,这家AI公司后来急忙从Google的SERPs中删除这些聊天。

Packer告诉Ars,这些泄露和GSC泄露之间的一个主要区别是,受先前丑闻影响的用户,至少在某种程度上,"必须主动分享"他们的泄露聊天。在最近的情况下,"没有人点击分享"或有任何合理的方法来防止他们的聊天被暴露。

"OpenAI是否走得如此之快,以至于没有考虑这对隐私的影响,或者他们只是不在乎?"Packer在他的博客中推测。

长期影响与行业反思

这一事件对AI行业的信任度造成了严重打击。用户开始质疑,他们是否真的可以信任AI服务提供商来保护他们的私人数据。随着AI技术的不断发展,如何在提供创新服务的同时保护用户隐私,已成为行业必须面对的挑战。

更令人担忧的是,对于GSC中的泄露聊天,似乎没有任何方法可以将其删除,这与先前的丑闻不同。这引发了关于OpenAI的修复将在多大程度上停止问题的疑问。

Manić希望OpenAI可能确认在https://chatgpt.com/上输入的触发Google搜索的提示是否也受到影响。但OpenAI没有跟进这个问题,也没有关于泄露规模更大的问题。对Manić来说,一个主要担忧是OpenAI的抓取可能正在"导致Google Search Console中的'鳄鱼嘴'",这是SEO研究人员标记的一个令人担忧的趋势,它导致印象量激增但点击量下降。

行业专家的观点

多位隐私专家和AI伦理学家对这一事件表达了担忧。他们认为,这不仅仅是一个技术漏洞,更反映了AI公司在快速发展过程中对用户隐私保护的忽视。

"AI技术的发展速度令人惊叹,但我们必须确保这种发展不会以牺牲用户隐私为代价,"一位不愿透露姓名的AI伦理专家表示。"OpenAI应该更加透明地向用户解释他们的数据是如何被使用的,以及采取了哪些措施来保护隐私。"

对用户的建议

面对这一系列隐私泄露事件,ChatGPT用户可以采取以下措施保护自己的隐私:

  1. 避免在对话中分享敏感个人信息:包括姓名、地址、电话号码、财务信息等。
  2. 使用匿名化提示:在提问时尽量使用一般性描述,避免使用可能识别个人身份的具体细节。
  3. 定期检查对话内容:留意是否有异常的公开分享。
  4. 了解平台隐私政策:在使用AI服务前,仔细阅读其隐私政策,了解数据收集和使用方式。
  5. 考虑使用隐私保护工具:如VPN、加密通讯工具等,增强整体隐私保护。

未来的挑战与展望

这一事件引发了关于AI监管的更广泛讨论。随着AI技术的不断发展,如何确保这些技术在创新的同时尊重用户隐私,已成为政策制定者、技术开发者和用户共同面临的挑战。

"我们需要建立更强大的监管框架,确保AI公司在收集和使用用户数据时保持透明和负责任,"一位科技政策分析师表示。"这不仅关乎个体隐私,也关乎整个社会的信任基础。"

结论

ChatGPT私密对话泄露至Google Analytics工具的事件,揭示了AI服务在快速发展过程中可能忽视的用户隐私问题。虽然OpenAI已经声称解决了这一问题,但用户和专家们仍然对其解决方案的完整性和长期效果持怀疑态度。

这一事件提醒我们,随着AI技术越来越深入地融入日常生活,我们必须更加关注数据隐私和保护。AI公司需要在创新与责任之间找到平衡,而用户也需要提高隐私意识,采取适当的保护措施。在数字化时代,隐私不应是牺牲品,而应是被尊重和保护的基本权利。

AI隐私保护示意图