
卢浮宫博物馆外墙特写和世纪大盗案后的破碎窗户。图片来源:Yann Vernerie
在2025年10月19日一个阳光明媚的早晨,四名男子 allegedly 走进了世界上参观人数最多的博物馆,几分钟后便带着价值8800万欧元(1.01亿美元)的皇冠珠宝离开。这次发生在巴黎卢浮宫博物馆——全球监控最严密的文化机构之一——的盗窃案仅用时不到八分钟。
游客们继续浏览展品,安保人员没有反应(直到警报被触发)。这些人在任何人意识到发生了什么之前,就已消失在城市车流中。
调查人员后来揭示,窃贼们穿着高能见度背心,将自己伪装成建筑工人。他们带来了一台家具升降机,这在巴黎狭窄的街道上是常见的景象,并利用它到达了一个俯瞰塞纳河的阳台。穿着工人服装的他们看起来就像本该在那里的人。
这一策略之所以奏效,是因为我们并非客观地看待世界。我们通过类别——通过我们期望看到的事物——来看待世界。窃贼们理解了我们视为"正常"的社会类别,并利用它们来避免怀疑。许多人工智能(AI)系统以同样的方式运作,因此也容易犯类似的错误。
社会角色表演与心理分类
社会学家欧文·戈夫曼(Erving Goffman)会使用他的"自我呈现"概念来描述卢浮宫发生的事情:人们通过采纳他人期望的线索来"表演"社会角色。在这里,正常性的表演成为了完美的伪装。
人类不断进行心理分类,以理解人和事。当某物符合"普通"类别时,它就会从人们的视线中消失。
用于面部识别和检测公共场所可疑活动的AI系统以类似方式运作。对人类来说,分类是文化性的;对AI而言,分类则是数学性的。
但两种系统都依赖于学习到的模式而非客观现实。因为AI学习关于谁看起来"正常"和谁看起来"可疑"的数据,它吸收了嵌入其训练数据中的类别。这使它容易产生偏见。
从人类认知到AI算法
卢浮宫的窃贼之所以不被视为危险,是因为他们符合一个受信任的类别。在AI中,同样的过程可能产生相反的效果:不符合统计规范的人变得更为显眼,受到过度审查。
这可能意味着面部识别系统不成比例地将某些种族或性别群体标记为潜在威胁,而让其他人 unnoticed 地通过。
社会学视角帮助我们认识到这些问题并非孤立的。AI并不会发明自己的类别;它学习我们的类别。当计算机视觉系统在安全录像上训练时,如果"正常"被特定的身体、服装或行为定义,它会重现这些假设。
正如博物馆的保安因为窃贼看起来像属于那里而忽视他们一样,AI可能会忽视某些模式,同时对其他模式过度反应。
分类机制的双面性
分类,无论是人类还是算法性的,都是一把双刃剑。它帮助我们快速处理信息,但也编码了我们的文化假设。人和机器都依赖模式识别,这是一种高效但不完美的策略。
对AI的社会学观点将算法视为镜子:它们反映我们的社会类别和等级制度。在卢浮宫案例中,这面镜子转向了我们。窃贼成功不是因为他们的不可见性,而是因为他们通过正常性的视角被看待。用AI术语来说,他们通过了分类测试。
从博物馆大厅到机器学习
这种感知与分类之间的联系揭示了我们日益算法化的世界中的重要信息。无论是保安决定谁看起来可疑,还是AI决定谁看起来像"小偷",基本过程都是相同的:根据看似客观但实际上是文化学习的线索,将人分配到不同类别。
当AI系统被描述为"有偏见


