2025年10月19日一个阳光明媚的早晨,四名男子走进全球参观人数最多的博物馆,几分钟后带着价值8800万欧元(约合1.01亿美元)的皇冠珠宝离开。这次发生在巴黎卢浮宫——全球监控最严密的文化机构之一——的盗窃案,用时不到八分钟。
游客们继续浏览展品,安保人员没有反应(直到警报被触发)。这些人在任何人意识到发生了什么之前,就已经消失在城市车流中。
调查人员后来揭示,劫匪穿着高能见度背心,伪装成建筑工人。他们带来了一台家具升降机,这在巴黎狭窄街道上是常见的景象,并用它到达一个俯瞰塞纳河的阳台。打扮成工人的他们看起来似乎理所当然地属于那里。

这种策略之所以奏效,是因为我们并非客观地看待世界。我们通过类别——通过我们期望看到的事物——来感知世界。劫匪理解了我们视为'正常'的社会类别,并利用它们来避免怀疑。许多人工智能(AI)系统以同样的方式运作,因此也容易犯类似的错误。
社会学视角下的认知盲区
社会学家欧文·戈夫曼会使用他的'自我呈现'概念来描述卢浮宫发生的事情:人们通过采纳他人期望的线索来'表演'社会角色。在这里,'正常'的表演成为了完美的伪装。
人类不断进行心理分类,以理解人和事。当某事物符合'普通'类别时,它就会从注意中溜走。
用于面部识别和在公共区域检测可疑活动的AI系统以类似方式运作。对人类而言,分类是文化性的;对AI而言,分类是数学性的。
但两种系统都依赖于学习到的模式而非客观现实。因为AI从关于谁看起来'正常'和谁看起来'可疑'的数据中学习,它吸收了嵌入其训练数据中的类别。这使它容易受到偏见的影响。
从博物馆大厅到机器学习

感知与分类之间的这种联系揭示了我们的日益算法化世界的重要信息。无论是警卫决定谁看起来可疑,还是AI决定谁看起来像'小偷',基本过程都是相同的:根据看似客观但实则文化习得的线索,将人分配到不同类别。
当AI系统被描述为'有偏见'时,这通常意味着它过于忠实地反映了这些社会类别。卢浮宫盗窃案提醒我们,这些类别不仅塑造我们的态度,还塑造了什么会被注意到。
盗窃案发生后,法国文化部长承诺安装新摄像头并加强安全措施。但无论这些系统变得多么先进,它们仍然依赖分类。某人或某物必须决定什么算作'可疑行为'。如果这一决定基于假设,同样的盲点将持续存在。
人类与AI的共同认知陷阱
卢浮宫劫案将被铭记为欧洲最惊人的博物馆盗窃案之一。劫匪之所以成功,是因为他们掌握了外观社会学的精髓:他们理解正常性的类别并将其作为工具。
通过这样做,他们展示了人类和机器如何可能将 conformity 误认为安全。他们在光天化日之下的成功不仅是计划的胜利,也是分类思维的胜利,这种逻辑同样支撑着人类感知和人工智能。
重新思考认知与算法的关系
分类机制的双面性
分类,无论是人类还是算法性的,都是一把双刃剑。它帮助我们快速处理信息,但也编码了我们的文化假设。人和机器都依赖模式识别,这是一种高效但不完美的策略。
社会学的AI视角将算法视为镜子:它们反映我们的社会类别和等级制度。在卢浮宫案例中,镜子朝向我们。劫匪成功并非因为他们隐形,而是因为他们通过正常性的棱镜被看到。用AI术语来说,他们通过了分类测试。
AI训练数据中的社会偏见
AI系统用于诸如面部识别和在公共区域检测可疑活动等任务时,以类似方式运作。对人类而言,分类是文化性的;对AI而言,分类是数学性的。
但两种系统都依赖于学习到的模式而非客观现实。因为AI从关于谁看起来'正常'和谁看起来'可疑'的数据中学习,它吸收了嵌入其训练数据中的类别。这使它容易受到偏见的影响。
在卢浮宫,劫匪不被视为危险,因为他们符合受信任的类别。在AI中,同样的过程可能产生相反的效果:不符合统计规范的人变得更显眼,受到过度审查。
这可能意味着面部识别系统不成比例地将某些种族或性别群体标记为潜在威胁,而让其他人畅通无阻。
突破认知局限的必要性
一个社会学的视角帮助我们认识到,这些问题并非孤立的。AI不会发明自己的类别;它学习我们的类别。当计算机视觉系统在安全录像上训练,其中'正常'由特定的身体、服装或行为定义时,它会重现这些假设。
正如博物馆的警卫因为劫匪看起来似乎属于那里而忽略他们一样,AI可能会忽略某些模式,同时对其他模式反应过度。
教训很明确:在教机器更好地'看'之前,我们必须首先学会质疑我们如何'看'。这不仅关乎技术改进,更关乎我们对自身认知局限的深刻反思。在构建更智能的AI系统之前,我们需要先构建更智能的社会认知框架。











