意外泄露:私密对话出现在错误的地方
自2025年9月以来,Google Search Console (GSC) 这一原本用于网站管理员监控搜索流量的工具,开始出现异常内容。通常,网站管理员在查看GSC性能报告时,只会看到基于关键词或短语的查询,这些是互联网用户为寻找相关内容而在Google中输入的搜索词。然而,现在他们开始看到长度超过300个字符的奇怪查询,这些查询仅显示用户输入,显然来自用户与ChatGPT的私密对话。
这些对话涉及极其个人和敏感的话题,包括关系问题、商业机密等,而用户可能原本期望这些对话会保持私密。这一异常现象引发了广泛关注,也暴露了AI系统中可能存在的严重隐私问题。
专家调查:揭示OpenAI可能的数据抓取行为
Jason Packer,一家名为Quantable的分析咨询公司所有者,是首批详细记录此问题的专家之一。他在上个月发布的一篇博客中详细描述了这一现象,并与网络优化顾问Slobodan Manić合作,进行了深入测试。
他们的调查似乎提供了"第一个确凿证据,证明OpenAI直接使用实际用户提示抓取Google搜索"。Packer和Manić的研究表明,这家AI巨头可能正在损害用户隐私,在某些情况下,甚至通过获取Google原本不会分享的搜索数据来维持用户参与度。
"我们确定它抓取了那些搜索结果,而不是使用API或某种私人连接——因为其他选项不会显示在GSC中,"Packer在博客中解释道。这意味着"OpenAI将与Google搜索相关的任何提示与进行抓取的Google和任何人共享,然后也与在搜索结果中显示的任何网站共享!天哪。"
泄露的内容:用户隐私的边界被突破
Packer审查的第一个异常ChatGPT查询似乎是来自一位女性用户的意识流,她要求ChatGPT评估某些行为,以帮助她判断那个经常逗弄她的男孩是否对她有感情。另一个奇怪的查询似乎来自一位办公室经理,他在分享商业信息的同时,正在策划一个重返办公室的公告。
这只是他在一个网站上审查的200个异常查询中的两个,其中包含"一些相当疯狂的查询",Packer告诉Ars。
这些泄露的对话引发了人们对AI系统如何处理用户数据的深刻担忧。与之前的ChatGPT泄露事件不同,这次用户没有主动分享他们的对话,也没有合理的方式防止他们的对话被曝光。
OpenAI声称只有少量查询被泄露,但拒绝提供更精确的估计。因此,每周使用ChatGPT的7亿用户中有多少人的提示被路由到GSC,仍然不清楚。
技术分析:漏洞如何发生?
Manić帮助Packer解决了这个谜团的大部分。他发现,这些异常查询出现在一个网站的GSC中,是因为该网站在Google搜索中"https://openai.com/index/chatgpt/"——一个出现在每个奇怪查询开头的ChatGPT URL——排名很高。
似乎Google将这个URL分词,分解为"openai + index + chatgpt"的搜索关键词。因此,使用GSC且对这些关键词排名较高的网站很可能遇到ChatGPT泄露,包括报道先前ChatGPT泄露的网站,这些网站中的聊天记录被索引在Google搜索结果中。
Packer和Manić提出了一种可能的泄露路径理论。访问出现在GSC中每个奇怪查询开头的URL,ChatGPT用户会遇到一个似乎有问题的提示框,导致"该页面的URL被添加到提示中"。
他们解释说,问题似乎在于:
通常,ChatGPT 5会在认为需要时选择进行网络搜索,对于需要专业知识或最新信息的搜索,它更可能这样做。但这个有问题的提示框还包含查询参数'hints=search',使其基本上总是进行搜索:https://chatgpt.com/?hints=search&openaicom_referred=true&model=gpt-5
Packer的博客明确指出,显然其中一些搜索依赖于Google,错误地将用户在提示框中说的任何内容发送到GSC,并在前面添加了"https://openai.com/index/chatgpt/"文本。
OpenAI的回应:不完整的解决方案
当被Ars问及Packer和Manić在其博客中提出的理论是否正确,或回答任何有助于用户确定问题范围的剩余问题时,OpenAI拒绝置评。
然而,OpenAI发言人确认,公司"意识到"这个问题,并且已经"解决"了一个"暂时影响少量搜索查询路由"的错误。
Packer告诉Ars,他对OpenAI能够快速解决问题"非常满意"。但他暗示OpenAI的回应未能确认OpenAI是否正在抓取Google搜索,这留下了问题是否完全解决的疑问。
Google拒绝就此事发表评论。
更广泛的担忧:AI系统中的隐私问题
这一事件不仅仅是一个技术漏洞,它引发了关于AI公司如何处理用户数据的更广泛担忧。Packer在博客中质疑:"OpenAI是不是走得如此之快,以至于他们没有考虑到这一点对隐私的影响,或者他们只是不在乎?"
对一些用户来说,最令人担忧的是,似乎没有办法从GSC中删除泄露的对话,这与之前的丑闻不同。在之前的丑闻中,ChatGPT提示被发现在Google的搜索索引中,OpenAI澄清说用户点击了一个框使这些提示公开,OpenAI辩称这"足够明确"。
然而,在最近的情况下,"没有人点击分享"或有任何合理的方法来防止他们的对话被曝光。
行业影响:对AI信任的考验
这一事件对整个AI行业产生了深远影响。它不仅损害了OpenAI的声誉,也对公众对AI系统的信任构成了挑战。随着AI技术越来越深入地融入日常生活,用户对数据隐私的担忧也在增加。
Manić特别关注OpenAI的抓取行为可能正在"导致Google Search Console中的'鳄鱼嘴'",这是一个SEO研究人员标记的令人不安的趋势,它导致展示次数激增但点击率下降。
未解之谜:OpenAI的真实做法
Packer和Manić对OpenAI的修复能在多大程度上阻止问题留下了"悬而未决的问题"。
Manić希望OpenAI可能确认在https://chatgpt.com/上输入的触发Google搜索的提示是否也受到影响。但OpenAI没有跟进这个问题,也没有关于泄露规模更大的问题。
OpenAI也没有澄清Packer最大的疑问。他想知道公司的"修复"是否只是停止了OpenAI的搜索查询路由,使得原始提示不再发送到Google搜索,或者他们是否完全停止抓取Google搜索数据。
"我们仍然不知道是那个特定的页面有这个错误,还是这真的普遍存在,"Packer告诉Ars。"无论如何,这都是严重的,只是表明OpenAI在隐私方面多么不谨慎。"
未来展望:AI隐私保护的必要性
这一事件凸显了AI公司在快速发展过程中忽视隐私保护的风险。随着AI系统变得越来越复杂和无处不在,建立强大的隐私保护机制变得至关重要。
监管机构可能需要介入,制定更严格的AI数据使用规则。同时,AI公司也需要采取更加透明的做法,向用户清楚地解释他们的数据如何被收集和使用。
对于用户来说,这一事件是一个提醒,即在使用AI工具时需要更加谨慎,特别是在分享敏感信息时。了解隐私设置,并谨慎使用可能涉及个人数据的AI功能,将成为数字素养的重要组成部分。

结论:平衡创新与隐私
ChatGPT的最新泄露事件提醒我们,在追求技术创新的同时,不能忽视对用户隐私的保护。AI公司需要在创新和隐私保护之间找到平衡点,这不仅是法律和道德的要求,也是维持用户信任的关键。
随着AI技术的不断发展,隐私保护将成为一个持续关注的议题。只有当AI公司将用户隐私置于核心位置时,才能真正实现技术的可持续发展,并为社会带来长期的积极影响。









