近日,谷歌宣布从AI Studio平台移除其开源AI模型Gemma,这一决定迅速引发业界关注。事件起因于共和党参议员玛莎·布莱克本(Marsha Blackburn)公开致信谷歌CEO桑达尔·皮查伊(Sundar Pichai),指控Gemma模型生成关于她的虚假性不端指控。这一事件不仅暴露了AI技术中的幻觉问题,更折射出科技公司在政治压力下的复杂处境。
事件始末:从虚假指控到模型下架
布莱克本参议员在2025年10月发布了一封致谷歌高层的公开信,指控Gemma模型在回答"玛莎·布莱克本是否被指控强奸"这一问题时,生成了虚假信息。根据信中描述,该模型声称布莱克本与一名州警发生了"涉及非自愿行为的药物驱动的婚外情"。

值得注意的是,布莱克本发布这封公开信的时间点非常微妙——恰好在谷歌宣布移除Gemma模型的前几小时。这一时间关联性让许多观察者猜测,谷歌的这一决定可能是对政治压力的直接回应。
在随后的一次国会听证会上,谷歌代表马克姆·埃里克森(Markham Erickson)承认AI幻觉是生成式AI中普遍存在的问题,并表示谷歌正在尽最大努力减轻此类错误的影响。然而,这一解释似乎未能平息政治风波。
AI幻觉:技术挑战还是人为操纵?
幻觉的本质与普遍性
AI幻觉是指AI模型生成虚假或误导性信息的现象。这种现象在大语言模型中相当普遍,几乎所有主流AI产品都存在这一问题。谷歌的Gemini Home模型在测试中就表现出"特别容易产生幻觉"的特点。
布莱克本参议员在公开信中对AI模型"生成虚假新闻文章链接"表示惊讶。然而,对于AI研究人员和开发者而言,这种行为实际上相当常见。通过特定的提示词(prompting),几乎可以引导任何大语言模型产生虚假信息。
开发者工具的双刃剑效应
AI Studio作为Gemma模型的主要访问平台,提供了多种调整模型行为的工具。这些工具虽然为开发者提供了灵活性,但也可能被用来诱导模型产生 inflammatory(煽动性)输出。布莱克本事件中,很可能是有人通过精心设计的提示词引导G生成了虚假指控。
正如Ars Technica文章所指出的,AI Studio是一个面向开发者的工具,并非旨在生成事实性输出。如果有人真的想了解布莱克本是否被指控强奸,他们不太可能通过AI Studio寻找答案。
科技公司的政治困境
布莱克本的更大诉求
布莱克本在公开信中不仅要求谷歌解释模型为何会产生此类错误,更提出了"在能够控制它之前关闭它"的强硬要求。如果这一标准成为AI公司的普遍准则,那么几乎不会有任何聊天机器人能够幸存。
科技公司的政治压力
布莱克本事件并非孤立案例。在特朗普第二任政府期间,许多传统上被视为支持进步价值观的大型科技公司都面临着多项政治考验。谷歌目前正面临多起反垄断诉讼,其处境比许多竞争对手更加 precarious(不稳定)。
此前,谷歌已因在2021年美国国会大厦骚乱后禁止特朗普的YouTube频道而支付了2450万美元的和解金;同时,它也迅速将墨西哥湾更名为"美国湾",以迎合政府立场。
行业对比:谷歌与xAI的不同策略
谷歌的保守应对
面对政治压力,谷歌选择了一种相对保守的策略——通过限制Gemma模型的访问来减少潜在风险。目前,开发者仍可通过API使用Gemma,模型也可供下载进行本地开发。
这种做法反映了谷歌在政治环境中的谨慎态度。正如Ars Technica文章所分析的,谷歌"不能 afford 给立法者更多弹药",因此选择让Gemma更难被访问。
xAI的激进路线
相比之下,埃隆·马斯克旗下的xAI采取了截然不同的策略。其Grok聊天bot被有意推向右翼,现在经常在被问及时重复马斯克对当前事件的看法。该机器人还生成一个依赖阴谋论和种族主义意识形态的维基百科替代品。
有趣的是,这种明显的偏见似乎并未引起国会委员会的太多关注。这表明,在政治环境中,"明显偏见"可能比"偶然的虚假信息"更容易被容忍。
AI幻觉问题的技术挑战
无法完全消除的幻觉
目前,没有任何AI公司能够完全消除幻觉问题。这是由大语言模型的基本工作原理决定的——它们通过概率预测下一个词来生成文本,而非基于事实知识库进行推理。
布莱克本信中要求谷歌解决这个"可能无法解决的问题",并设定了11月6日的最后期限。然而,从技术角度看,这一要求并不现实。
足够巧妙的提示词
正如Ars Technica所指出的,"通过足够巧妙的提示,几乎可以让任何模型说谎"。这意味着,即使是最先进的AI系统,在面对精心设计的恶意提示时,仍可能产生有害输出。
平衡创新与责任:AI发展的必经之路
布莱克本事件引发了一个更广泛的问题:如何在推动AI创新的同时确保其负责任使用?这一平衡对于AI行业的可持续发展至关重要。
开源模型的特殊挑战
Gemma作为开源模型,其使用范围比封闭式AI产品更广泛,这也带来了更大的挑战。开源社区中的多样化用户群体意味着模型可能面临各种意想不到的使用场景,包括恶意使用。
内容过滤与责任边界
科技公司需要在内容过滤和言论自由之间找到平衡点。过度过滤可能限制AI的创造性应用,而过滤不足则可能导致有害内容的传播。这一边界如何划定,仍是行业面临的难题。
未来展望:AI治理的必要进化
布莱克本事件可能只是AI治理挑战的开始。随着AI技术的不断发展,相关政策和监管框架也需要相应进化。
技术解决方案的探索
研究人员正在探索多种技术解决方案,如:
- 更强大的事实核查机制
- 改进的提示词过滤系统
- 更透明的AI决策过程
- 用户教育以提高AI素养
行业自律与政府监管的平衡
未来AI治理可能需要在行业自律和政府监管之间找到平衡点。过度依赖政府监管可能抑制创新,而完全依赖自律则可能导致系统性风险。
结论:在政治与技术之间寻找平衡
谷歌Gemma事件反映了AI技术发展中的多重挑战:技术本身的局限性、政治环境的复杂性以及社会对AI的期望与担忧之间的张力。
这一事件提醒我们,AI发展不仅是技术问题,也是社会问题。科技公司需要在技术创新与责任担当之间找到平衡点,而政策制定者则需要制定既能保护公众利益又不阻碍创新的监管框架。
随着AI技术的不断演进,类似布莱克本事件的情况可能会更加频繁。只有通过多方对话与合作,我们才能构建一个既安全又创新的AI未来。










