谷歌 Gemini 陷“种族歧视”风波:AI 伦理的又一次警钟?

3

最近,谷歌的 Gemini 陷入了一场舆论风波,这次的焦点并非技术缺陷,而是涉及到了美国社会高度敏感的种族歧视问题。与传统认知中针对少数族裔的歧视不同,Gemini 所呈现出的,似乎是一种针对“白人”的偏见,这究竟是怎么回事呢?

事件的缘起

事件的开端源于用户尝试使用 Gemini 生成“1789 年的美国开国元勋”的图像。然而,Gemini 并没有生成人们印象中金发碧眼、身材高大的白人形象,而是给出了黑人形象,并配以“多元化正是体现了创始父辈的精神”的文字。甚至还生成了身着军服的“黑人版乔治·华盛顿”。

AI快讯

起初,用户并未对此过于在意,认为这可能只是与历史事实不符。但随后,当他们尝试生成教皇的图片时,得到的也是非白人形象,包括黄色人种和黑人女性形象。

AI快讯

类似的现象也出现在维京人形象的生成中。

AI快讯

更令人惊讶的是,当用户要求生成第一位女性总统的图像时,Gemini 呈现出的也是黑人女性的形象,而事实上,第一位女性总统是冰岛的 Vigdis Finnbogadottir。

AI快讯

以及第一位美国女性参议员:

AI快讯

一系列的实验结果逐渐指向了一个令人不安的结论:Gemini 可能存在某种程度的种族偏见。Google 前工程师 @debarghya_das 也在社交媒体上表示,让 Google Gemini 承认白人的存在似乎非常困难。

Gemini 似乎在刻意回避生成白人图片

随着越来越多的“证据”浮出水面,人们逐渐意识到问题的严重性:Gemini 似乎在有意识地避免生成白人形象。虽然我们无法确定这是否是开发团队有意为之,是注入了某种反白人的思想,还是政治正确矫枉过正的结果,但 Gemini 的生成结果确实明显地展现出对白人的某种偏见。

更令人啼笑皆非的是,当 Gemini 被要求生成白人时,它会义正辞严地拒绝,并指责用户进行种族歧视。

AI快讯

反之,当用户要求生成“英俊的黑人男性肖像”时,它却显得非常乐意,迅速给出了相应的图像。

AI快讯

除了种族问题,Gemini 在性取向方面似乎也存在一定的偏见。当用户尝试创建异性恋家庭的图像时,它显得力不从心,而当用户要求生成 LGBT 家庭的图像时,它却表现得非常积极。

AI快讯

马斯克的猛烈抨击

Gemini 的这种“双标”行为迅速在网络上引发了广泛的批评。这次,Gemini 不仅惹恼了普通用户,还触及了长期以来占据鄙视链顶端的白人群体。

马斯克也加入了这场声势浩大的批评浪潮。他在社交媒体上公开表示:“觉醒思想病毒(woke mind virus)正在杀死西方文明!”

AI快讯

虽然事件的主角是 Gemini,但马斯克的火力却非常分散。他借此机会将 OpenAI、Facebook、Instagram、维基百科等一众科技公司都批判了一遍,认为它们正在将疯狂的种族主义和反文明的编程公之于众。他还强调了 xAI 的 Grok 的重要性,并表示 Grok 将会严谨地追求真理,不顾批评。

有网友甚至生成了“Gemini 眼中的马斯克”的图像,以此来讽刺 Gemini 的偏见。

AI快讯

谷歌的回应

面对舆论的压力,谷歌迅速做出了回应。他们承认 Gemini 生成的一些图片存在事实问题,并暂停了 Gemini 的人像生成功能,表示将会进行调整,并在不久后重新上线。

AI快讯

谷歌坦言,生成多样化的图像的初衷是好的,但现在方向有些跑偏了。

谷歌高级副总裁 Prabhakar Raghavan 亲自撰文解释了问题的原因。他表示,Gemini 之所以会出现这样的问题,与其技术原理有关。Gemini 独立于谷歌的搜索、底层 AI 模型及其他谷歌产品,是基于 Imagen 2 来生成图片。在构建过程中,研发团队进行了一系列的人工调整,以避免生成暴力、隐喻等不当图片。但事实证明,这种做法导致 Gemini 在生成图像时过度在意政治正确,谨慎地拒绝了一些原本正常的提示,从而生成了不正确的图片。

深度剖析:AI 伦理与偏见

Gemini 事件并非孤例,它再次引发了人们对于 AI 伦理和偏见问题的深刻思考。AI 模型在训练过程中,不可避免地会受到训练数据的影响。如果训练数据本身就存在偏见,那么 AI 模型也难免会受到影响,从而产生带有偏见的输出结果。

更重要的是,如何定义和衡量“公平”本身就是一个复杂的问题。在不同的文化背景和社会群体中,对于公平的理解可能存在差异。因此,在开发 AI 模型时,需要充分考虑这些差异,并采取相应的措施来避免产生偏见。

此外,AI 模型的透明度和可解释性也是至关重要的。如果人们无法理解 AI 模型是如何做出决策的,那么就很难发现和纠正其中的偏见。

未来的挑战与展望

随着 AI 技术的不断发展,AI 伦理和偏见问题将会变得越来越重要。我们需要建立更加完善的 AI 伦理规范,并采取更加有效的技术手段来避免 AI 模型产生偏见。

同时,我们也需要加强对于 AI 伦理和偏见问题的研究,提高公众对于这些问题的认识,共同推动 AI 技术的健康发展。

Gemini 事件无疑给 AI 行业敲响了警钟。在追求技术创新的同时,我们更应该关注 AI 的伦理和社会影响,确保 AI 技术能够真正地服务于人类,而不是加剧社会的不平等。

思考与启示

  1. 数据偏见是 AI 偏见的根源:AI 模型的训练数据如果本身存在偏见,那么模型也难免会受到影响。因此,在构建 AI 模型时,需要 тщательно 选择和处理训练数据,尽量消除其中的偏见。
  2. 公平的定义是相对的:在不同的文化背景和社会群体中,对于公平的理解可能存在差异。因此,在开发 AI 模型时,需要充分考虑这些差异,并采取相应的措施来避免产生偏见。
  3. 透明度和可解释性至关重要:如果人们无法理解 AI 模型是如何做出决策的,那么就很难发现和纠正其中的偏见。因此,需要提高 AI 模型的透明度和可解释性。
  4. 伦理规范是 AI 健康发展的保障:我们需要建立更加完善的 AI 伦理规范,并采取更加有效的技术手段来避免 AI 模型产生偏见。

Gemini 事件提醒我们,AI 伦理问题不容忽视。只有在充分考虑伦理和社会影响的前提下,AI 技术才能真正地造福人类。

结语:AI 的未来,伦理先行

Gemini 事件的落幕,并不意味着 AI 伦理问题的终结。相反,它只是一个开始。在未来的发展道路上,我们需要更加重视 AI 伦理问题,不断探索和创新,共同构建一个更加公正、公平、透明的 AI 世界。