在人类和人工智能的世界中,当某些事物符合'普通'类别时,它们往往会被忽视。
惊天盗窃案:看似普通的不寻常
2025年10月19日的一个阳光明媚的早晨,四名男子 allegedly 走进世界上参观人数最多的博物馆,几分钟后带着价值8800万欧元(1.01亿美元)的皇冠珠宝离开。这次发生在巴黎卢浮宫的盗窃案——全球监控最严密的文化机构之一——仅用时不到八分钟。
游客们继续浏览展品,安保人员没有反应(直到警报被触发)。在任何人意识到发生了什么之前,这些男子已经消失在城市车流中。

调查人员后来揭示,窃贼们穿着高能见度背心,将自己伪装成建筑工人。他们带着一个升降梯来到巴黎,这是巴黎狭窄街道上的常见景象,并用它到达俯瞰塞纳河的阳台。穿着工人的服装,他们看起来就像是属于那里。
这一策略之所以奏效,是因为我们没有客观地看待世界。我们通过类别——通过我们期望看到的事物——来看待世界。窃贼们理解了我们视为'正常'的社会类别,并利用它们来避免引起怀疑。许多人工智能系统也以同样的方式工作,因此也容易犯同样的错误。
社会学与视觉认知
社会学家欧文·戈夫曼(Erving Goffman)会使用他的'自我呈现'概念来描述卢浮宫发生的事情:人们通过采用他人期望的线索来'表演'社会角色。在这里,正常性的表演成为了完美的伪装。
人类不断地进行心理分类,以理解人和事。当某物符合'普通'类别时,它就会从注意中溜走。
人类与AI的共同认知陷阱
用于人脸识别和检测公共场所可疑活动等任务的人工智能系统以类似方式运作。对人类来说,分类是文化性的;对AI来说,它是数学性的。
但两种系统都依赖于'学习到的模式而非客观现实'。因为AI从关于谁看起来'正常'和谁看起来'可疑'的数据中学习,它吸收了嵌入其训练数据中的类别。这使其容易产生偏见。

卢浮宫的窃贼没有被视为危险,因为他们符合一个值得信赖的类别。在AI中,同样的过程可能产生相反的效果:不符合统计规范的人变得更加显眼,受到过度审查。
这可能意味着人脸识别系统不成比例地将某些种族或性别群体标记为潜在威胁,同时让其他人毫不在意地通过。
社会学视角:AI作为社会镜像
社会学的视角帮助我们认识到这些问题并非孤立的。AI不会发明自己的类别;它学习我们的类别。当计算机视觉系统基于安全录像进行训练时,'正常'被特定的身体、服装或行为所定义,它会重现这些假设。
正如博物馆的警卫因为窃贼看似属于那里而忽视他们一样,AI可能会忽视某些模式,同时对其他模式反应过度。
分类,无论是人类的还是算法的,都是一把双刃剑。它帮助我们快速处理信息,但也编码了我们的文化假设。人和机器都依赖于模式识别,这是一种高效但不完美的策略。
从博物馆大厅到机器学习
感知与分类之间的这种联系揭示了关于我们日益算法化的世界的一些重要信息。无论是警卫决定谁看起来可疑,还是AI决定谁看起来像'小偷',基本过程都是相同的:基于感觉客观但实际上是文化学习的线索,将人们分配到不同类别。
当AI系统被描述为'有偏见'时,这通常意味着它过于忠实地反映了这些社会类别。卢浮宫盗窃案提醒我们,这些类别不仅塑造我们的态度,还塑造了什么会被注意到。
盗窃发生后,法国文化部长承诺安装新摄像头并加强安全措施。但无论这些系统变得多么先进,它们仍然依赖于分类。某人或某物必须决定什么构成'可疑行为'。如果这个决定基于假设,同样的盲点将持续存在。
深刻启示:反思我们的认知方式
卢浮宫抢劫案将被铭记为欧洲最引人注目的博物馆盗窃案之一。窃贼之所以成功,是因为他们掌握了外表的社会学:他们理解正常性的类别并将其用作工具。

通过这样做,他们展示了人和机器如何可能将 conformity 误认为是安全。他们在光天化日之下的成功不仅是计划的胜利,也是分类思维的胜利,这种逻辑既是人类感知也是人工智能的基础。
启示很明确:在教会机器更好地'看见'之前,我们必须首先学会质疑我们如何看待世界。
超越安全:分类思维的多重影响
这种分类思维的影响远不止于安全领域。在医疗诊断中,医生可能会因为患者符合某种'典型'病例模式而忽视非典型症状。在教育中,教师可能会因为学生不符合某种'标准'学习模式而低估他们的能力。在招聘中,HR可能会因为候选人不符合某种'理想'形象而忽视他们的潜力。
AI系统正在被整合到这些领域,它们可能会放大而不是解决这些偏见。例如,医疗AI系统可能被训练以识别'典型'症状,从而错过非典型表现。教育AI系统可能被设计以适应'标准'学习方式,从而忽视不同学习风格的学生。
重新设计AI:超越复制人类偏见
要解决这些问题,我们需要重新思考AI系统的设计方式。与其简单地复制人类的分类系统,不如开发能够识别和挑战这些偏见的系统。
这可能包括:
- 使用更多样化的训练数据,以减少对特定类别的过度依赖
- 开发能够识别和标记潜在偏见的算法
- 创建系统,不仅能够识别模式,还能够质疑这些模式的有效性和公平性
- 在AI系统中纳入人类监督,以检查和纠正算法可能产生的偏见
未来的方向:更智能的AI,更明智的人类
卢浮宫盗窃案提供了一个独特的机会,让我们反思人类认知和AI系统之间的复杂关系。随着AI技术的不断发展,我们需要确保这些系统不仅能够'看见',还能够'理解'——理解它们所处理的数据背后的社会背景和文化假设。
这需要跨学科的合作,将计算机科学、社会学、心理学和伦理学等领域的专业知识结合起来。只有通过这种综合方法,我们才能开发出既有效又公平的AI系统,真正增强人类能力而不是复制我们的盲点。
最终,卢浮宫窃案提醒我们,技术本身并不能解决我们的问题。它只是放大我们已有的优势和劣势。在追求更智能的AI的同时,我们也必须致力于成为更明智的人类——更能够识别和挑战自己的认知偏见,更愿意质疑那些看似'正常'但可能有害的分类和假设。











