汽车作为「第三空间」的时代,正迎来前所未有的变革。2025年10月,搭载华为乾崑智驾的车型单月销量突破10万台,其中智驾功能的月活使用率高达95.2%。这一数据不仅印证了汽车行业进入智能电动化时代的趋势,更揭示了科技公司作为「智能化供应商」正在消费端形成巨大影响力。
智能座舱经历了多轮迭代,从最初的简单交互到如今的大屏、语音助手和智能问答系统。然而,用户真正需要的并不仅仅是更大的屏幕或更流畅的交互体验。在电动化和智能化基础能力被拉齐的背景下,能够提供新架构、新场景和新生态的智能座舱,正成为汽车产品中至关重要的「个性化代表」。
智能座舱的L3时代:重新定义行业标准
近年来,整个行业在「如何做好智能座舱」这一问题上呈现出「积极探索,疯狂堆料,但尚未达成共识」的状态。车企普遍采取的做法包括:增大屏幕尺寸、提升语音助手「健谈度」、接入大模型以回答更多问题。这些做法虽然能部分提升用户体验,但很难算得上是系统层面的智能提升。
如同人工智能和自动驾驶需要分级来界定能力边界,智能座舱领域也需要一套清晰的分级标准,以衡量行业到底处于哪个进化阶段。华为在2023年11月20日的乾崑生态大会上,首次推出了座舱智能化L1-L5五级分级标准,为行业提供了重要参考。

华为这套分级标准最大的创新在于,评价维度不再是简单的「数硬件」,而是根据人车关系的演进,将不同等级的座舱分为指令助手、任务助手、专业助理、专属助理和数字超人五个等级。这种分级方式更贴近用户体验,也为智能座舱的进化提供了明确方向。
在华为鸿蒙座舱团队看来,要实现这种代际跃升,新一代智能座舱必须具备感知、记忆、理解、决断、交互和执行等6种类人能力。基于这一理念,华为在新一代鸿蒙座舱HarmonySpace 5中提出了全新的MoLA智能化架构,即Mixture of LM Agent(混合大模型Agent)。
MoLA架构:从L2到L3的技术飞跃
用AI领域近两年的发展脉络进行类比,可以更好地理解智能座舱L2与L3之间的技术分水岭:L2阶段的模型可以接受指令并被动调用工具、输出结果,但每次都需要相对清晰的指令,且前后记忆有限;而L3级别的模型则实现了自主Agent的核心能力——它可以自主拆解任务、规划执行步骤,并最终交付结果。
L2和L3最大的变化在于,模型的「记忆」能力和「规划」能力有了全面的提升。MoLA架构正是基于这一理念,在运行逻辑上进行了彻底重构:

在MoLA架构中,系统的所有输入会优先进入第一级的System Agent,由它负责任务的分流与分配。对于简单、清晰的任务,System Agent会将其直接分配给对应的导航、车控、多媒体等垂域Agent,输出响应结果。这部分虽然在交互和内容交付上有所优化,但基本逻辑与当前的座舱体系类似。
MoLA架构更核心的提升在于:面对复杂或模糊的指令时,System Agent可以深度调用通用大模型以及用户个人知识库的能力,从而交付更类似「专业助理」的最终结果。
举个例子,当用户在车里说出「今晚还去上周日那家餐馆吃饭」时,坐在驾驶位的家人或朋友可以很容易理解这个意图——即便没有「唤醒」这个动作,也没有餐厅名称这个「清晰」的指令。但在当前的L2级智能座舱能力下,受限于模型「上下文长度」(记忆力)的限制,座舱很难理解这种模糊指令。MoLA架构将「记忆力」和「理解力」深度融合,并将任务交由对应的导航Agent输出导航结果,最终用户可以在中控屏或HUD抬头显示上直接看到对应餐厅的导航路线,真正实现「能听懂」和「能办到」。
L3智能座舱:从「能听懂」到「能办到」的体验升级
站在用户体验的角度,全新HarmonySpace 5最核心的提升,并不在于它接入了一个多么强大的通用大模型,而是它终于实现了对用户的系统性认知升级。这某种程度上也是对行业前一阶段关于智能座舱未来走向的一种纠偏:用户需要的从来不是一个能语音对话、联网接入大模型、有一块大屏显示文字的「十万个为什么」,而是期待车里有一个真正「会来事」的专业助理。
这种「专业助理」的能力,正是MoLA架构下System Agent所带来的决断与执行力的外显。具体来说,这个助理需要做好以下两件事:
沟通层面:察言观色,理解未言之语
L3级座舱的认知起点是多维数据的采集。系统可以调用车内外多个传感器,采集包括语音、手势、面部表情、车辆状态、外部环境等多维感知数据,这构成了System Agent「察言观色」的基础。
例如,系统可以调用车内摄像头和压力传感器,发现夜间后排正在休息的乘客。这位L3「专业助理」会启动复合决断:调用相关垂域Agent,自动关闭氛围灯,调低后排出风口的风速和温度。这种「像助理和家人一样」的无需主动表达、便能得到系统级最优解的体验,体现了L3感知力、理解力和决断力的系统协同。

执行层面:自主完成,交付最终结果
在输出端,全新的HarmonySpace 5不仅可以调配车内各种硬件(如座椅、空调、灯光等)以及座舱外设的能力,更可以通过鸿蒙系统强大的联接力和生态能力,无缝使用各种第三方应用。
这种执行能力的最高体现,就是「结果交付」。在发布会上,我们看到了几个很具代表性的场景:小女孩让小艺提醒父亲加件衣服,点咖啡送到公司。在这些简单一句话指令的背后,都需要AI能够分解相应的任务并调用内外部的工具去完成动作的闭环。
以「帮我订一杯意式浓缩,送到公司」为例,L3级别的Agent可以完成以下流程:大模型生成订单内容,调用智慧场景工具创建订单,感知到用户位置信息,完成支付和订单跟踪。在这个过程中,L3级别的Agent可以交付出L2时代无法完成的一个个「服务闭环」:不仅能给出高情商建议,更关键的是它作为System Agent,自主完成了任务链条的拆解与编排,打通了位置信息、第三方应用、支付系统等跨应用软件,完成了最终的购买动作。
当智能座舱系统把传统需要用户执行的一个个孤立交互动作,合并成一个无需用户干预的最终交付结果时,我们才能感受到智能座舱真正具有了「第三空间」的能力,实现了从「功能」到「服务」的本质飞跃。
汽车行业进入「超级供应商」时代
如果说,L2阶段的智能座舱,要比拼谁的屏幕更大、谁的语音识别率更高、谁能一次性执行更多的指令,那么在L3阶段,智能座舱甚至整车产品的差异化,都将逐渐体现在和个性化有关的「智能底座」差异上。
这个底座需要具备长期记忆力、自主决断力以及跨域联接力,才能将零散的感知、理解、执行能力整合起来,提供连贯、主动、专业的服务。这也意味着,汽车行业下个阶段的发展,对智能化合作伙伴的需要将继续扩大。
在汽车工业的前100年间,消费者更多关注的是「品牌」本身,它代表着身份,也是用户品味的重要呈现。在未来,智能化能力,甚至在传统意义看来作为车企「供应商」角色的科技公司,也会逐渐走到台前。这些新一代「科技供应商」代表的智能化能力,将在未来汽车消费过程中,扮演越来越重要的角色。
具体来说,这些「供应商」提供的不再只是单一的硬件,甚至不只是一套系统。它们要做的,是交付一个和整车体验紧密相关的智能助理。而这样的科技公司,正在成为汽车行业全新的「超级供应商」。

一个强大的智能底座并非终局。L3级别的「专业助理」要实现价值闭环,还需要满足两个至关重要的条件:
首先,要有完整的生态。这本质上和智能手机发展是一样的,有了丰富的应用和软件,才能好用。当座舱的能力从「听懂指令」升级到「交付结果」时,它必须能无缝调用导航、支付、社交、娱乐等各种应用。鸿蒙座舱L3的突破,正是通过其联接力和开放的生态能力,为复杂的服务闭环提供了必要的基础设施。
更重要的是,还需要有强大的辅助驾驶能力支持。华为近期再次提出,高速L3有望在2026年迈入商用。届时,座舱L3与智驾L3的「双L3协同」,将带来体验的质的提升:智驾L3将驾驶员从高强度任务中解放出来,为座舱L3提供了更多可用的时间窗口和场景,从而解锁更多「专业助理」可以主动服务的复杂需求。
L3级智能底座的出现,标志着汽车行业正式进入了「平台决定体验上限」的新竞争周期。而一个能够提供系统级认知能力、完整开放生态和智驾协同能力的超级供应商,正在尝试定义未来汽车的智能化底座新标准。
结语:智能座舱的未来展望
智能座舱的L3革命,不仅仅是技术的升级,更是用户体验的重塑。从简单的功能集合到能主动服务的数字助理,智能座舱正在真正实现汽车作为「第三空间」的价值。随着技术的不断进步和生态的日益完善,我们有理由相信,未来的智能座舱将更加智能、更加个性化,为用户带来前所未有的出行体验。
在这个变革的过程中,像华为这样的科技公司正通过技术创新和生态构建,推动整个汽车行业向更高水平发展。而消费者也将从这场变革中受益,享受到更加便捷、舒适、安全的出行生活。









