汽车作为'第三空间'的概念,正在从科幻电影中的想象变为现实。2025年10月,搭载华为乾崑智驾的车型单月销量突破10万台,更令人瞩目的是,其'月活'使用率高达95.2%。这一数据不仅印证了汽车行业智能电动化转型的加速,更揭示了科技公司从'智能化供应商'向'体验塑造者'的角色转变。
曾经,智能座舱的进化路径似乎简单明了:更大的屏幕、更流畅的语音交互、更强大的问答能力。然而,当这些基础能力逐渐成为行业标配时,真正的差异化竞争才刚刚开始。本文将探讨智能座舱如何从简单的'冰箱彩电大沙发'形态,进化为具备六种类人能力的L3级'专业助理',以及这种转变如何重塑汽车行业的未来格局。
智能座舱的进化:从硬件堆砌到能力重构
近年来,智能座舱的发展呈现出明显的'积极探索,疯狂堆料,但尚未达成共识'的行业状态。车企们普遍采取的'标准操作'包括:将屏幕尺寸不断增大,让语音助手变得更加'健谈',接入大模型以回答更多问题。这些改进固然提升了部分用户体验,但更多是在现有框架内的优化,而非系统层面的智能提升。
正如人工智能和自动驾驶需要分级标准来界定能力边界,智能座舱领域同样需要一套清晰的进化框架,帮助行业和消费者准确判断当前的智能化水平。华为在2023年11月20日乾崑生态大会上首次推出的座舱智能化L1-L5五级分级标准,正是对这一行业需求的回应。

与传统的L0-L4分级标准不同,华为的这套创新标准跳出了'数硬件'的评价维度,转而根据人车关系的演进,将不同等级的座舱分为指令助手、任务助手、专业助理、专属助理和数字超人五个等级。这种分类方式更贴近用户体验的本质,也揭示了智能座舱发展的真正方向。
华为鸿蒙座舱团队认为,要实现这种代际跃升,新一代智能座舱必须具备感知、记忆、理解、决断、交互和执行等六种类人能力。基于这一理念,华为在新一代鸿蒙座舱HarmonySpace 5中提出了全新的MoLA智能化架构,即Mixture of LM Agent(混合大模型Agent)。
MoLA架构:L3级智能座舱的技术基石
要理解MoLA架构的革命性意义,我们需要回顾AI领域近年来的发展脉络。L2阶段的模型可以接受指令并被动调用工具、输出结果,但每次都需要相对清晰的指令,且前后记忆有限;而L3级别的模型则实现了自主Agent的核心能力——它可以自主拆解任务、规划执行步骤,并最终交付结果。
L2和L3的最大变化在于,模型的'记忆'能力和'规划'能力有了质的飞跃。MoLA架构正是基于这一理念,在运行逻辑上进行了彻底重构。

在MoLA架构中,系统的所有输入会优先进入第一级的System Agent,由它负责任务的分流与分配。对于简单、清晰的任务,System Agent会直接将其分配给对应的导航、车控、多媒体等垂域Agent,输出响应结果。这部分虽然在交互和内容交付上有所优化,但基本逻辑与当前的座舱体系类似。
然而,MoLA架构更核心的提升在于:面对复杂或模糊的指令时,System Agent可以深度调用通用大模型以及用户个人知识库的能力,从而交付更类似'专业助理'的最终结果。
以实际场景为例,当用户在车内简单说出'今晚还去上周日那家餐馆吃饭'时,坐在驾驶位的家人或朋友可以轻松理解意图——即便没有'唤醒'动作,也没有餐厅名称这一'清晰'的指令。但在当前的L2级智能座舱下,受限于模型'上下文长度'(记忆力)的限制,系统很难理解这种模糊指令。而MoLA架构将'记忆力'和'理解力'深度融合,将任务交由对应的导航Agent输出导航结果,最终用户可以在中控屏或HUD抬头显示上直接看到对应餐厅的导航路线,真正实现'能听懂'和'能办到'。
L3级座舱:从'能听懂'到'能办到'的体验跃升
站在用户体验的角度,全新HarmonySpace 5最核心的提升,并不在于它接入了一个多么强大的通用大模型,而是它终于实现了对用户的系统性认知升级。这种'专业助理'的能力,正是MoLA架构下System Agent所带来的决断与执行力的外显。
沟通层面:察言观色的理解能力
L3级座舱的认知起点是多维数据的采集。系统可以调用车内外多个传感器,采集包括语音、手势、面部表情、车辆状态、外部环境等多维感知数据,这构成了System Agent'察言观色'的基础。

例如,系统可以调用车内摄像头和压力传感器,发现夜间后排正在休息的乘客。这位L3'专业助理'会启动复合决断:调用相关垂域Agent,自动关闭氛围灯,调低后排出风口的风速和温度。这种'像助理和家人一样'的无需主动表达、便能得到系统级最优解的体验,体现了L3感知力、理解力和决断力的系统协同。
执行层面:闭环交付的服务能力
在输出端,全新的HarmonySpace 5不仅可以调配车内各种硬件(如座椅、空调、灯光等)以及座舱外设的能力,更可以通过鸿蒙系统强大的联接力和生态能力,无缝使用各种第三方应用。
这种执行能力的最高体现,就是'结果交付'。在发布会上展示的几个代表性场景中,小女孩让小艺提醒父亲加件衣服,点咖啡送到公司。在这些简单一句话指令的背后,都需要AI能够分解相应的任务并调用内外部的工具去完成动作的闭环。
例如,在'帮我订一杯意式浓缩,送到公司'这一指令中,L3级别的Agent可以自主完成选品、下单、支付和订单跟踪等一系列动作。在这个过程中,L3级Agent可以交付出L2时代无法完成的'服务闭环':不仅能给出高情商建议,更关键的是,它作为System Agent,自主完成了任务链条的拆解与编排,打通了位置信息、第三方应用、支付系统等跨应用软件,完成了最终的购买动作。
当智能座舱系统把传统需要用户执行的一个个孤立交互动作,合并成一个无需用户干预的最终交付结果时,我们才能感受到智能座舱真正具有了'第三空间'的能力,实现了从'功能'到'服务'的本质飞跃。
汽车行业:进入'超级供应商'时代
如果说,L2阶段的智能座舱要比拼谁的屏幕更大、谁的语音识别率更高、谁能一次性执行更多的指令,那么在L3阶段,智能座舱甚至整车产品的差异化,都将逐渐体现在和个性化有关的'智能底座'差异上。
这个底座需要具备长期记忆力、自主决断力以及跨域联接力,才能将零散的感知、理解、执行能力整合起来,提供连贯、主动、专业的服务。这也意味着,汽车行业下个阶段的发展,对智能化合作伙伴的需要将继续扩大。
在汽车工业的前100年间,消费者更多关注的是'品牌'本身,它代表着身份,也是用户品味的重要呈现。在未来,智能化能力,甚至在传统意义看来作为车企'供应商'角色的科技公司,也会逐渐走到台前。这些新一代'科技供应商'代表的智能化能力,将在未来汽车消费过程中,扮演越来越重要的角色。
这些'供应商'提供的不再只是单一的硬件,甚至不只是一套系统。它们要做的,是交付一个和整车体验紧密相关的智能助理。而这样的科技公司,正在成为汽车行业全新的'超级供应商'。
'鸿蒙座舱'也许会成为未来吸引消费者选购新车的一块全新招牌,因为它代表着一种全新的用户体验标准。一个强大的智能底座并非终局,L3级别的'专业助理'要实现价值闭环,还需要满足两个至关重要的条件:
首先,要有完整的生态。这本质上和智能手机发展是一样的,有了丰富的应用和软件,才能好用。当座舱的能力从'听懂指令'升级到'交付结果'时,它必须能无缝调用导航、支付、社交、娱乐等各种应用。鸿蒙座舱L3的突破,正是通过其联接力和开放的生态能力,为复杂的服务闭环提供了必要的基础设施。
更重要的是,还需要有强大的辅助驾驶能力支持。华为近期再次提出,高速L3有望在2026年迈入商用。届时,座舱L3与智驾L3的'双L3协同',将带来体验的质的提升:智驾L3将驾驶员从高强度任务中解放出来,为座舱L3提供了更多可用的时间窗口和场景,从而解锁更多'专业助理'可以主动服务的复杂需求。
L3级智能底座的出现,标志着汽车行业正式进入了'平台决定体验上限'的新竞争周期。而一个能够提供系统级认知能力、完整开放生态和智驾协同能力的超级供应商,正在尝试定义未来汽车的智能化底座新标准。
结语:智能座舱的未来展望
智能座舱的进化之路,本质上是人与车关系重塑的过程。从最初的交通工具,到移动的生活空间,再到如今的'专业助理',汽车正在成为人类最亲密的智能伙伴之一。L3级智能座舱的出现,不仅改变了我们与汽车的交互方式,更重新定义了汽车行业的价值链和竞争格局。
未来,随着技术的不断进步和生态的日益完善,我们有望看到L4、L5级别的智能座舱出现,它们将具备更强的自主决策能力和更丰富的服务场景。但无论技术如何演进,以用户为中心的设计理念,以及'能听懂、能办到'的服务本质,将始终是智能座舱发展的核心方向。
在这个变革的时代,能够率先实现L3级智能座舱落地的企业,无疑将在未来的汽车市场中占据先发优势。而对于消费者而言,真正的'第三空间'体验,已经不再是遥不可及的梦想,而是触手可及的现实。









