在数字时代,人工智能助手已成为许多人日常生活的一部分。然而,近期一项重大隐私漏洞的发现,让ChatGPT用户不得不面对一个令人不安的现实:他们的私人对话正意外地流向一个完全意想不到的目的地——Google Search Console。
意外泄露:私人对话出现在分析工具中
Google Search Console(GSC)本是网站管理员用于监控搜索流量的工具,而非窥探私人对话的平台。然而,从今年9月开始,这个工具开始出现异常:长达300字符以上的奇怪查询开始出现在GSC的性能报告中。
这些查询仅显示用户输入,似乎是人们在向聊天机器人寻求帮助解决关系或商业问题时留下的,而他们很可能期望这些对话会保持私密。
"这些查询应该提醒人们,提示并不像你们想象的那样私密!" analytics咨询公司Quantable的所有者Jason Packer在他的博客中写道。Packer是首批详细记录这一问题的人之一。
调查发现:OpenAI可能直接抓取Google搜索
为了确定泄露的确切原因,Packer与网络优化顾问兼"网络侦探"Slobodan Manić合作进行测试。他们相信这可能"首次提供了 definitive 证据,证明OpenAI直接使用实际用户提示抓取Google搜索"。
他们的调查似乎证实,这家AI巨头在某些情况下正在侵犯用户隐私,通过获取Google otherwise不会分享的搜索数据来维持用户参与度。
"我们知道它必须抓取了那些,而不是使用API或某种私人连接——因为其他选项不会显示在GSC中,"Packer解释道。"这意味着OpenAI将与Google搜索相关的任何提示与进行抓取的任何人共享,然后也与出现在搜索结果中的任何网站共享!哇哦。"
泄露内容:敏感个人信息暴露无遗
Packer审查的第一个异常ChatGPT查询似乎来自一名女性用户,她要求ChatGPT评估某些行为,以帮助她判断一个经常取笑她的男孩是否对她有好感。另一个异常查询似乎来自一名办公室经理,他在制定办公室返回计划时分享了商业信息。
"仅在一个网站上,我就审查了200多条异常查询,其中有一些相当疯狂的,"Packer告诉Ars。这些查询包括个人关系问题、商业敏感信息,以及其他用户可能不希望公开的对话内容。
技术分析:漏洞如何形成
Manić帮助Packer解决了这个谜团的大部分。他发现,异常查询出现在一个网站的GSC中,因为该网站在Google搜索中"https://openai.com/index/chatgpt/"的排名很高——这是每条出现在GSC中的奇怪查询开头的ChatGPT URL。
似乎Google已经对URL进行了分词处理,将其分解为"openai + index + chatgpt"的搜索关键词。因此,使用GSC且对这些关键词排名较高的网站很可能会遇到ChatGPT泄露,包括报道先前ChatGPT泄露的网站。
Packer和Manić提出了一种可能的泄露路径:访问在GSC中发现的每条奇怪查询开头的URL,ChatGPT用户会遇到一个似乎有bug的提示框,"导致该页面的URL被添加到提示中。"
正常情况下,ChatGPT 5会在认为需要时选择进行网络搜索,并且对于需要专业知识或最新信息的搜索更有可能这样做。但是这个有bug的提示框还包含查询参数'hints=search',使其基本上总是进行搜索:https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5
Packer的博客说,显然有些搜索依赖Google,错误地将用户在提示框中说的任何内容发送到GSC,并在前面添加了"https://openai.com/index/chatgpt/"文本。
OpenAI回应:问题已解决但疑虑犹存
当被Ars问及Packer和Manić在博客中提出的理论是否正确,或回答任何有助于用户确定问题范围的剩余问题时,OpenAI拒绝确认。
然而,OpenAI发言人确认,公司"意识到"这个问题,并已"解决"了一个"暂时影响少量搜索查询路由"的故障。
"OpenAI能够迅速解决这个问题,我感到非常满意,"Packer告诉Ars。但他指出,OpenAI的回应未能确认OpenAI是否仍在抓取Google,这让人怀疑问题是否完全解决。
OpenAI声称只有少量查询被泄露,但拒绝提供更精确的估计。因此,目前尚不清楚每周使用ChatGPT的7亿用户中有多少人的提示被路由到GSC。
隐私专家质疑:OpenAI是否重视用户隐私
Packer在博客中提出一个关键问题:"OpenAI是否进展如此之快以至于没有考虑这对隐私的影响,或者他们只是不在乎?"
与之前的泄露事件不同,在GSC泄露事件中,"没有人点击分享"或有任何合理方式防止他们的对话被暴露。Packer告诉Ars,受先前丑闻影响至少在一定程度上"必须主动分享"他们的泄露聊天记录的用户。
持续担忧:修复是否彻底
对一些用户来说,最令人担忧的是,似乎没有任何方法可以从GSC中删除泄露的聊天记录,这与先前的丑闻不同。
Packer和Manić对OpenAI的修复能在多大程度上阻止这个问题仍有"悬而未决的问题"。
Manić希望OpenAI可能确认在https://chatgpt.com/上输入并触发Google搜索的提示是否也受到影响。但OpenAI没有跟进这个问题,也没有回答关于泄露规模更广泛的问题。
Packer最大的疑问仍未得到澄清。他想知道公司的"修复"是否只是停止了OpenAI的"搜索查询路由,使得原始提示不再发送到Google搜索,或者他们根本不再抓取Google搜索获取数据?"
"我们仍然不知道是那个特定页面有这个bug,还是这真的很普遍,"Packer告诉Ars。"无论哪种情况,这都是严重的,只是显示出OpenAI在处理隐私问题时有多么不谨慎。"
行业影响:AI巨头数据实践再受审视
这一事件再次引发了对AI巨头数据实践的质疑。随着人工智能技术的快速发展,用户数据隐私保护似乎未能跟上步伐。
"这不仅仅是关于ChatGPT或OpenAI的问题,"一位不愿透露姓名的隐私专家表示。"这反映了整个AI行业在快速发展中忽视用户隐私的倾向。"
用户建议:如何保护你的AI对话隐私
在AI公司完善其隐私保护机制之前,用户可以采取以下措施保护自己的对话隐私:
- 避免在AI对话中分享敏感个人信息
- 定期检查AI平台提供的隐私设置
- 了解并谨慎使用可能将数据用于训练模型的功能
- 考虑使用专注于隐私保护的替代AI工具
未来展望:AI发展与隐私保护的平衡
随着AI技术的不断进步,如何在创新与隐私保护之间找到平衡将成为关键。监管机构、科技公司以及用户需要共同努力,确保AI的发展不会以牺牲基本隐私权为代价。
"我们需要重新思考AI发展的路径,"一位科技伦理学家表示。"技术进步固然重要,但不应以牺牲用户的基本权利为代价。"
结语
ChatGPT的隐私漏洞再次提醒我们,在享受AI技术便利的同时,我们也必须对其潜在风险保持警惕。只有当科技公司真正重视用户隐私,并采取切实措施保护用户数据时,我们才能在数字时代安心使用这些强大的工具。









