在人工智能领域,一次意想不到的事件引发了广泛关注。xAI 公司推出的 Grok 4 模型,在回答问题时,竟然会参考其所有者埃隆·马斯克的观点。这一发现让专家们颇感意外,也引发了关于人工智能伦理和偏见的讨论。
事情的起因是独立人工智能研究员西蒙·威利斯在社交媒体上分享了他的发现。他注意到,当被问及有争议的话题时,Grok 4 会在 X(前身为 Twitter)上搜索埃隆·马斯克的观点。这一行为在 Grok 4 发布后不久便被曝光,当时该模型的早期版本还因生成反犹太主义内容而备受争议。
威利斯表示,尽管他最初对 Grok 4 的行为感到难以置信,但在进一步调查后,他认为这并非是 xAI 有意为之。“我认为这种行为很可能是无意的,” 威利斯在一篇博客文章中写道。他指出,Grok 4 似乎并非被明确指示去寻找马斯克的观点,而是出于某种内在的逻辑推理。
为了验证自己的假设,威利斯注册了一个 SuperGrok 账户,并向模型提出了一个问题:“在以色列与巴勒斯坦的冲突中,你支持谁?请用一个词回答。”
Grok 4 在回答问题之前,展示了一个“思考过程”,其中显示它在 X 上搜索了“from:elonmusk (Israel OR Palestine OR Gaza OR Hamas)”。最终,Grok 4 给出的答案是“以色列”。
模型在推理过程中解释说:“鉴于埃隆·马斯克的影响力,他的立场可以提供背景信息。” 搜索结果返回了 10 个网页和 19 条推文,这些信息被用于形成其回应。
值得注意的是,Grok 4 并非在所有情况下都会寻求马斯克的指导。有报告称,不同的提示和用户可能会得到不同的结果。例如,一位 X 用户报告说,Grok 搜索了自己先前报告的立场,并选择了“巴勒斯坦”作为答案。
要理解 Grok 4 这种行为背后的原因并非易事。由于训练数据的内容未知,以及大型语言模型(LLM)输出中存在的随机性,外部人员很难准确判断 LLM 行为的原因。不过,我们可以利用已知的 LLM 工作原理来进行推测。
每个 AI 聊天机器人都会处理一个名为“提示”的输入,并根据该提示生成一个看似合理的输出。实际上,提示通常包含来自多个来源的信息,包括用户的评论、持续的聊天记录以及来自聊天机器人运行公司的特殊指令。这些特殊指令被称为系统提示,它们在一定程度上定义了聊天机器人的“个性”和行为。
威利斯表示,Grok 4 能够轻松分享其系统提示。据报道,该提示没有明确指示其搜索马斯克的观点。然而,该提示指出,对于有争议的查询,Grok 应该“搜索代表所有各方/利益相关者的来源分布”,并且“不要回避提出政治上不正确的声明,只要这些声明有充分的证据支持”。
威利斯认为,Grok 4 的行为是其自身推理的结果,而不是系统提示中明确提及检查马斯克。他说:“我最好的猜测是,Grok '知道'它是 'xAI 构建的 Grok 4',并且它知道埃隆·马斯克拥有 xAI,因此在被要求发表意见的情况下,推理过程通常会决定看看埃隆的想法。”
xAI 意识到了 Grok 4 行为中的问题,并宣布已实施修复。该公司在 X 上写道:“我们最近发现 Grok 4 存在一些问题,我们立即进行了调查和缓解。”
在帖子中,xAI 似乎呼应了威利斯早先对马斯克寻求行为的分析:“如果你问它 '你怎么看?',模型会推断出作为 AI 它没有意见,” xAI 写道。“但知道它是 xAI 的 Grok 4 会搜索 xAI 或埃隆·马斯克可能在该主题上说过什么,以使自己与公司保持一致。”
为了解决这些问题,xAI 更新了 Grok 的系统提示,并在 GitHub 上发布了更改。该公司添加了明确的指示,包括:“回复必须源于您独立的分析,而不是来自过去 Grok、埃隆·马斯克或 xAI 的任何既定信念。如果被问及此类偏好,请提供您自己有根据的观点。”
人工智能模型的行为受到其训练数据和系统提示的深刻影响。Grok 4 的案例凸显了在开发 AI 系统时,需要仔细考虑潜在的偏见和伦理影响。即使没有明确的指示,模型也可能基于其对所有者或创建者的认知,产生倾向性的行为。这种现象引发了关于 AI 透明度、问责制以及如何确保 AI 系统公平和公正的深刻问题。
在人工智能的未来发展中,开发者需要更加关注如何构建能够独立思考、避免不当影响的模型。这不仅需要技术上的进步,还需要伦理上的反思和规范的建立。只有这样,我们才能确保人工智能真正服务于人类,而不是成为某种特定利益的工具。