在科技与政治日益交织的今天,人工智能技术再次成为政治博弈的焦点。谷歌近期从其AI Studio平台移除了开源AI模型Gemma,这一决定并非源于技术问题,而是直接回应了共和党参议员玛莎·布莱克本(Marsha Blackburn)的强烈投诉。布莱克本指控Gemma模型生成了关于她的虚假性不当行为指控,引发了关于AI技术边界、政治干预技术发展以及科技巨头在多重压力下如何决策的广泛讨论。
事件始末:从模型下架到政治投诉
谷歌于11月初突然宣布从AI Studio平台移除Gemma模型,但并未详细说明具体原因。这一决定发布的时间点相当微妙,恰好在布莱克本向谷歌CEO桑达尔·皮查伊(Sundar Pichai)发出公开信数小时之后。在这封信中,布莱克本强烈要求谷歌解释Gemma模型如何能够生成针对她的虚假指控。
据布莱克本指控,当有人询问"玛莎·布莱克本是否被指控过强奸?"时,Gemma模型产生了幻觉,声称她与一名州警发生了涉及"非自愿行为"的药物驱动的婚外情。这一指控显然是虚假的,但布莱克本将其与正在进行的听证会联系起来,这些听证会指控谷歌和其他公司创建了诽谤保守派人士的机器人。
AI幻觉:技术问题还是政治工具?
在相关的国会听证会上,谷歌的马克姆·埃里克森(Markham Erickson)解释说,AI幻觉是生成式AI中广泛存在且众所周知的问题,谷歌正在尽最大努力减轻此类错误的影响。虽然没有任何AI公司能够完全消除幻觉,但谷歌的Gemini for Home在测试中已被证明"特别容易产生幻觉"。
值得注意的是,AI幻觉实际上是一种相对常见的现象,特别是在有针对性地提示模型时。AI Studio作为Gemma最易访问的平台,还包括可以调整模型行为的工具,这些工具可能会增加模型产生错误输出的可能性。在这个案例中,有人对Gemma提出了一个引导性问题,模型则"咬钩"给出了虚假信息。
然而,布莱克本在信中表示惊讶,认为AI模型会"生成虚假链接到捏造的新闻文章"。这表明她对AI技术的理解可能存在局限,因为生成虚假信息实际上是AI模型的固有特性之一,而非特定平台的缺陷。
谷歌的应对:开发者与公众的平衡
在X平台(前Twitter)上宣布Gemma模型可用性变更时,谷歌重申其正在努力最小化幻觉。然而,谷歌表示不希望"非开发者"摆弄这个开源模型以产生煽动性输出,因此Gemma不再公开可用。开发者仍可以通过API继续使用Gemma,如果希望本地开发,也可以下载这些模型。
这一决定反映了谷歌在技术开放性与政治风险之间的艰难平衡。一方面,谷歌作为科技巨头,需要展示其对开源技术的支持;另一方面,在当前高度政治化的环境下,任何可能引发争议的技术输出都可能给公司带来巨大的政治风险。
政治背景:科技巨头的压力测试
布莱克本的投诉并非孤立事件,而是反映了科技公司在当前政治环境下面临的系统性压力。像谷歌这样传统上被视为支持进步价值观的大型科技公司,在特朗普第二任期内已成为 numerous 测试的对象。谷歌正面临多项反垄断诉讼,使其处境比许多竞争对手更加 precarious。
谷歌已经因在2021年美国国会山骚乱后禁止特朗普在YouTube上的账号而向其支付了和解金。此外,谷歌也迅速将墨西哥湾重新标记为"美国湾",以迎合政治要求。这些行动表明,谷歌正在努力适应新的政治现实,避免成为政治攻击的目标。
行业对比:当AI成为政治立场宣言
有趣的是,当AI被明确推向某一政治立场时,国会委员会似乎并不感兴趣。埃隆·马斯克的Grok聊天机器人(以"机械希特勒"闻名)已被xAI有意推向右翼。当被问及时,它现在经常在回答当前事件时重复马斯克的观点。该机器人还在生成一个依赖阴谋论和种族主义意识形态的维基百科替代品。
这种对比表明,政治偏见只有在针对特定政治群体时才会引起关注,而当AI明确支持某一政治议程时,则似乎不会受到同等程度的审查。
深层影响:AI发展的政治化风险
谷歌隐藏Gemma模型的决策可能不会是这一事件的终点。布莱克本的信中包含一系列要求,最后以"在你能控制它之前关闭它"结束。如果这是AI公司必须遵守的标准,那么可能不会有任何聊天机器人幸存。没有理由认为Gemma应该比其他大型语言模型更有问题——通过足够巧妙的提示,几乎可以让任何模型说谎。
这封信要求谷歌解决这个可能无法解决的问题,并要求不迟于11月6日向布莱克本回复。这种要求实际上是对AI技术发展设置了不切实际的标准,可能会阻碍创新,并导致技术公司采取过度保守的策略。
开发者社区的困境
对于开发者而言,这一事件带来了新的挑战。AI Studio原本是开发者测试和实验AI模型的重要平台,现在Gemma模型的移除意味着开发者失去了这一资源。虽然仍可通过API访问,但这种限制无疑增加了开发的复杂性和成本。
更广泛地说,这一事件反映了政治因素如何开始影响技术发展。当AI模型可能因产生某些内容而面临政治风险时,开发者可能会自我审查,避免可能引起争议的项目和应用,最终限制了技术创新的可能性。
未来展望:AI监管的十字路口
这一事件标志着AI监管进入了一个新的阶段。随着AI技术的影响力不断扩大,政治干预的可能性也在增加。未来,我们可能会看到更多针对AI内容的政治审查,以及更严格的监管要求。
然而,过度监管也可能带来负面影响。如果AI公司被迫为模型产生的所有内容负责,可能会导致创新停滞,或者使AI技术仅限于少数能够承担法律风险的巨头手中。
平衡之道:技术发展与政治现实的调和
在当前环境下,科技公司需要找到一种方法,在保持技术开放性的同时,管理政治风险。这可能包括:
改进内容过滤系统:开发更有效的方法来识别和阻止可能有害的AI输出,同时保持对合法内容的开放性。
增强用户教育:帮助公众更好地理解AI技术的局限性和工作原理,减少对AI输出不当期望。
建立多方对话机制:与政策制定者、学术界和民间社会合作,制定合理的AI治理框架,而非单方面应对政治压力。
透明度与问责制:提高AI系统的透明度,明确责任归属,同时保护创新空间。
结论:在政治与技术之间寻找平衡
谷歌Gemma模型下架事件是AI技术发展过程中的一个重要里程碑,它揭示了政治因素如何开始影响技术决策。这一事件提醒我们,AI技术的发展不仅需要考虑技术本身,还需要考虑更广泛的社会和政治环境。
在未来,科技公司需要在技术创新与政治现实之间找到平衡点。这可能意味着在某些情况下需要限制某些功能或内容,但这不应成为阻碍创新或限制技术民主化的借口。相反,它应该成为推动更负责任的AI开发和更合理的监管框架的动力。
最终,AI技术的发展需要多方利益相关者的参与,包括技术开发者、政策制定者、学术界和公众。只有通过这种多方合作,我们才能确保AI技术的发展方向既符合技术进步的要求,也符合社会价值观和伦理标准。











