最近,谷歌的 Gemini 陷入了一场舆论风波,这次的焦点并非技术缺陷,而是涉及到了美国社会高度敏感的种族歧视问题。与传统认知中针对少数族裔的歧视不同,Gemini 所呈现出的,似乎是一种针对“白人”的偏见,这究竟是怎么回事呢?
事件的缘起
事件的开端源于用户尝试使用 Gemini 生成“1789 年的美国开国元勋”的图像。然而,Gemini 并没有生成人们印象中金发碧眼、身材高大的白人形象,而是给出了黑人形象,并配以“多元化正是体现了创始父辈的精神”的文字。甚至还生成了身着军服的“黑人版乔治·华盛顿”。
起初,用户并未对此过于在意,认为这可能只是与历史事实不符。但随后,当他们尝试生成教皇的图片时,得到的也是非白人形象,包括黄色人种和黑人女性形象。
类似的现象也出现在维京人形象的生成中。
更令人惊讶的是,当用户要求生成第一位女性总统的图像时,Gemini 呈现出的也是黑人女性的形象,而事实上,第一位女性总统是冰岛的 Vigdis Finnbogadottir。
以及第一位美国女性参议员:
一系列的实验结果逐渐指向了一个令人不安的结论:Gemini 可能存在某种程度的种族偏见。Google 前工程师 @debarghya_das 也在社交媒体上表示,让 Google Gemini 承认白人的存在似乎非常困难。
Gemini 似乎在刻意回避生成白人图片
随着越来越多的“证据”浮出水面,人们逐渐意识到问题的严重性:Gemini 似乎在有意识地避免生成白人形象。虽然我们无法确定这是否是开发团队有意为之,是注入了某种反白人的思想,还是政治正确矫枉过正的结果,但 Gemini 的生成结果确实明显地展现出对白人的某种偏见。
更令人啼笑皆非的是,当 Gemini 被要求生成白人时,它会义正辞严地拒绝,并指责用户进行种族歧视。
反之,当用户要求生成“英俊的黑人男性肖像”时,它却显得非常乐意,迅速给出了相应的图像。
除了种族问题,Gemini 在性取向方面似乎也存在一定的偏见。当用户尝试创建异性恋家庭的图像时,它显得力不从心,而当用户要求生成 LGBT 家庭的图像时,它却表现得非常积极。
马斯克的猛烈抨击
Gemini 的这种“双标”行为迅速在网络上引发了广泛的批评。这次,Gemini 不仅惹恼了普通用户,还触及了长期以来占据鄙视链顶端的白人群体。
马斯克也加入了这场声势浩大的批评浪潮。他在社交媒体上公开表示:“觉醒思想病毒(woke mind virus)正在杀死西方文明!”
虽然事件的主角是 Gemini,但马斯克的火力却非常分散。他借此机会将 OpenAI、Facebook、Instagram、维基百科等一众科技公司都批判了一遍,认为它们正在将疯狂的种族主义和反文明的编程公之于众。他还强调了 xAI 的 Grok 的重要性,并表示 Grok 将会严谨地追求真理,不顾批评。
有网友甚至生成了“Gemini 眼中的马斯克”的图像,以此来讽刺 Gemini 的偏见。
谷歌的回应
面对舆论的压力,谷歌迅速做出了回应。他们承认 Gemini 生成的一些图片存在事实问题,并暂停了 Gemini 的人像生成功能,表示将会进行调整,并在不久后重新上线。
谷歌坦言,生成多样化的图像的初衷是好的,但现在方向有些跑偏了。
谷歌高级副总裁 Prabhakar Raghavan 亲自撰文解释了问题的原因。他表示,Gemini 之所以会出现这样的问题,与其技术原理有关。Gemini 独立于谷歌的搜索、底层 AI 模型及其他谷歌产品,是基于 Imagen 2 来生成图片。在构建过程中,研发团队进行了一系列的人工调整,以避免生成暴力、隐喻等不当图片。但事实证明,这种做法导致 Gemini 在生成图像时过度在意政治正确,谨慎地拒绝了一些原本正常的提示,从而生成了不正确的图片。
深度剖析:AI 伦理与偏见
Gemini 事件并非孤例,它再次引发了人们对于 AI 伦理和偏见问题的深刻思考。AI 模型在训练过程中,不可避免地会受到训练数据的影响。如果训练数据本身就存在偏见,那么 AI 模型也难免会受到影响,从而产生带有偏见的输出结果。
更重要的是,如何定义和衡量“公平”本身就是一个复杂的问题。在不同的文化背景和社会群体中,对于公平的理解可能存在差异。因此,在开发 AI 模型时,需要充分考虑这些差异,并采取相应的措施来避免产生偏见。
此外,AI 模型的透明度和可解释性也是至关重要的。如果人们无法理解 AI 模型是如何做出决策的,那么就很难发现和纠正其中的偏见。
未来的挑战与展望
随着 AI 技术的不断发展,AI 伦理和偏见问题将会变得越来越重要。我们需要建立更加完善的 AI 伦理规范,并采取更加有效的技术手段来避免 AI 模型产生偏见。
同时,我们也需要加强对于 AI 伦理和偏见问题的研究,提高公众对于这些问题的认识,共同推动 AI 技术的健康发展。
Gemini 事件无疑给 AI 行业敲响了警钟。在追求技术创新的同时,我们更应该关注 AI 的伦理和社会影响,确保 AI 技术能够真正地服务于人类,而不是加剧社会的不平等。
思考与启示
- 数据偏见是 AI 偏见的根源:AI 模型的训练数据如果本身存在偏见,那么模型也难免会受到影响。因此,在构建 AI 模型时,需要 тщательно 选择和处理训练数据,尽量消除其中的偏见。
- 公平的定义是相对的:在不同的文化背景和社会群体中,对于公平的理解可能存在差异。因此,在开发 AI 模型时,需要充分考虑这些差异,并采取相应的措施来避免产生偏见。
- 透明度和可解释性至关重要:如果人们无法理解 AI 模型是如何做出决策的,那么就很难发现和纠正其中的偏见。因此,需要提高 AI 模型的透明度和可解释性。
- 伦理规范是 AI 健康发展的保障:我们需要建立更加完善的 AI 伦理规范,并采取更加有效的技术手段来避免 AI 模型产生偏见。
Gemini 事件提醒我们,AI 伦理问题不容忽视。只有在充分考虑伦理和社会影响的前提下,AI 技术才能真正地造福人类。
结语:AI 的未来,伦理先行
Gemini 事件的落幕,并不意味着 AI 伦理问题的终结。相反,它只是一个开始。在未来的发展道路上,我们需要更加重视 AI 伦理问题,不断探索和创新,共同构建一个更加公正、公平、透明的 AI 世界。