汽车作为'第三空间'的时代,正以前所未有的速度向我们走来。2025年10月,一个里程碑式的数据被公布:搭载华为乾崑智驾的车型单月销量超过10万台,更令人瞩目的是,其乾崑智驾功能的'月活'使用率高达95.2%。这一数字不仅体现了汽车行业进入智能电动化时代的加速度,更揭示了曾经被视为'智能化供应商'的科技公司,如今已在消费端形成巨大影响力。
与此同时,在辅助驾驶功能不断演进的过程中,多年前提出的'智能汽车作为第三空间'的设想,正从概念走向现实。智能座舱经历了多轮迭代,无数次从非共识到共识的推进过程。工程师们逐渐发现,用户想要的并不仅仅是更大的屏幕、更流畅的语言交互,或是几乎能做到有问必答的座舱版'十万个为什么'。
当基本的电动化和智能化底层能力被逐渐拉齐,一个能够提供新架构、新场景和新生态的智能座舱,正成为汽车产品中至关重要的'个性化代表'。那么,究竟什么样的智能座舱才能担当这一重任?这是当下行业必须回答的关键问题。
智能座舱的L3时代:从硬件堆砌到能力分级
关于'如何做好智能座舱',整个行业近年来的状态可以总结为:积极探索,疯狂堆料,但尚未达成共识。车企的一套'标准操作'包括:把屏幕做大,让语音助手'更健谈',接入大模型以回答更多问题。这种做法固然能提升部分用户体验,但很难算得上是系统层面的智能提升。
如同人工智能和自动驾驶需要分级来界定能力边界,整个行业也期待智能座舱领域出现一套类似逻辑,以衡量我们到底处于哪个进化阶段。2023年11月20日,在华为乾崑生态大会上,华为首次推出了座舱智能化L1-L5五级分级标准,为这一行业难题提供了重要参考。

华为提出的这套标准最大的变化在于,评价维度不再是'数硬件',而是根据人车关系的演进,将不同等级的座舱分为指令助手、任务助手、专业助理、专属助理、数字超人五个等级。在华为鸿蒙座舱团队看来,要实现这种代际跃升,新一代智能座舱必须具备包括感知、记忆、理解、决断、交互、执行等六种类人能力。
基于这一理念,华为在新一代的鸿蒙座舱HarmonySpace 5中提出了全新的MoLA智能化架构,即Mixture of LM Agent(混合大模型Agent)。这一架构的提出,标志着智能座舱正式迈入L3时代。

用AI领域近两年的发展脉络进行类比,可以更好地理解这一技术分水岭:L2阶段的模型可以接受指令并被动调用工具、输出结果,但每次都需要相对清晰的指令,且前后记忆有限;而L3级别的模型则实现了自主Agent的核心能力——它可以自主拆解任务、规划执行步骤,并最终交付结果。
L2和L3最大的变化在于,模型的'记忆'能力和'规划'能力有了全面的提升。MoLA架构正是基于这一理念,在运行逻辑上进行了彻底重构:系统的所有输入会优先进入第一级的System Agent,由它负责任务的分流与分配。对于简单、清晰的任务,System Agent会直接分配给对应的导航、车控、多媒体等垂域Agent;而对于复杂或模糊的指令,System Agent则可以深度调用通用大模型以及用户个人知识库的能力,交付更类似'专业助理'的最终结果。
举个例子,当你在车里简单说出'今晚还去上周日那家餐馆吃饭'时,坐在驾驶位的家人或朋友可以很容易理解你的意图——即便你没有'唤醒'这个动作,也没有餐厅名称这个'清晰'的指令。但在当前的L2级智能座舱能力下,受限于模型'上下文长度'的限制,座舱很难理解这个模糊的指令。MoLA架构将'记忆力'和'理解力'深度融合,并将任务交由对应的导航Agent输出导航结果,最终用户可以在中控屏或HUD抬头显示上直接看到对应餐厅的导航路线,真正实现'能听懂'和'能办到'。
从能听懂到能办到:L3座舱的认知升级
站在用户体验的角度,全新HarmonySpace 5最核心的提升,并不在于它接入了一个多么强大的通用大模型,而是它终于实现了对用户的系统性认知升级。这某种程度上也是对行业前一阶段关于智能座舱未来走向的一种纠偏:用户需要的,从来不是一个能语音对话、联网接入大模型、有一块大屏显示文字的'十万个为什么',而是期待车里有一个真正'会来事的'专业助理。
这种'专业助理'的能力,正是MoLA架构下System Agent所带来的决断与执行力的外显。具体来说,这个助理需要做好以下两件事:
1. 沟通层面:能听懂,甚至能读懂未言之意
在输入方面,L3级座舱的认知起点是多维数据的采集。系统可以调用车内外多个传感器,采集包括语音、手势、面部表情、车辆状态、外部环境等多维感知数据,这构成了System Agent'察言观色'的基础。
例如,系统可以调用车内摄像头和压力传感器,发现夜间后排正在休息的乘客。这位L3'专业助理'会启动复合决断:调用相关垂域Agent,自动关闭氛围灯,调低后排出风口的风速和温度。这种'像助理和家人一样'的无需主动表达、便能得到系统级最优解的体验,体现了L3感知力、理解力和决断力的系统协同。

2. 执行层面:把做到用户需要的,想办法都能办到
在输出端,全新的HarmonySpace 5不仅可以调配车内各种硬件(如座椅、空调、灯光等)以及座舱外设的能力,更可以通过鸿蒙系统强大的联接力和生态能力,无缝使用各种第三方应用。
这种执行能力的最高体现,就是'结果交付'。在发布会上,我们看到了几个很具代表性的场景:小女孩让小艺提醒父亲加件衣服,点咖啡送到公司。在这些简单一句话指令的背后,都需要AI能够分解相应的任务并调用内外部的工具去完成动作的闭环。
比如,在'帮我订一杯意式浓缩,送到公司'这个指令中,L3级别的Agent可以自主完成选品、下单、支付和订单跟踪等一系列动作,交付出L2时代无法完成的一个个'服务闭环':不仅能给出高情商建议,更关键的是,它作为System Agent,自主完成了任务链条的拆解与编排,打通了位置信息、第三方应用、支付系统等跨应用软件,完成了最终的购买动作。
当智能座舱系统把传统需要用户执行的一个个孤立交互动作,合并成一个无需用户干预的最终交付结果时,我们才能感受到智能座舱真正具有了'第三空间'的能力,实现了从'功能'到'服务'的本质飞跃。
超级供应商时代:汽车智能化生态的重构
如果说,L2阶段的智能座舱,要比拼谁的屏幕更大、谁的语音识别率更高、谁能一次性执行更多的指令,那么在L3阶段,智能座舱甚至整车产品的差异化,都将逐渐体现在和个性化有关的'智能底座'差异上。
这个底座需要具备长期记忆力、自主决断力以及跨域联接力,才能将零散的感知、理解、执行能力整合起来,提供连贯、主动、专业的服务。这也意味着,汽车行业下个阶段的发展,对智能化合作伙伴的需要将继续扩大。
在汽车工业的前100年间,消费者更多关注的是'品牌'本身。它代表着身份,也是用户品味的重要呈现。在未来,智能化能力,甚至在传统意义看来作为车企'供应商'角色的科技公司,也会逐渐走到台前。这些新一代'科技供应商'代表的智能化能力,将在未来汽车消费过程中,扮演越来越重要的角色。
具体来说,这些'供应商'提供的不再只是单一的硬件,甚至不只是一套系统。它们要做的,是交付一个和整车体验紧密相关的智能助理。而这样的科技公司,正在成为汽车行业全新的'超级供应商'。

同时,一个强大的智能底座并非终局。L3级别的'专业助理'要实现价值闭环,还需要满足两个至关重要的条件:
首先,要有完整的生态。这个本质上和智能手机发展是一样的,有了丰富的应用和软件,才能好用。当座舱的能力从'听懂指令'升级到'交付结果'时,它必须能无缝调用导航、支付、社交、娱乐等各种应用。鸿蒙座舱L3的突破,正是通过其联接力和开放的生态能力,为复杂的服务闭环提供了必要的基础设施。
更重要的是,还需要有强大的辅助驾驶能力支持。华为近期再次提出,高速L3有望在2026年迈入商用。届时,座舱L3与智驾L3的'双L3协同',将带来体验的质的提升:智驾L3将驾驶员从高强度任务中解放出来,为座舱L3提供了更多可用的时间窗口和场景,从而解锁更多'专业助理'可以主动服务的复杂需求。
L3级智能底座的出现,标志着汽车行业正式进入了'平台决定体验上限'的新竞争周期。而一个能够提供系统级认知能力、完整开放生态和智驾协同能力的超级供应商,正在尝试定义未来汽车的智能化底座新标准。
结语:智能座舱的未来之路
智能座舱的进化,本质上是一场从'工具'到'伙伴'的蜕变。L3级别的智能座舱不再是一个被动执行命令的机器,而是一个能够理解用户、预测需求、主动服务的数字伙伴。这种转变不仅将重新定义人车关系,更将深刻影响整个汽车产业的格局。
随着技术的不断进步和生态的日益完善,我们有理由相信,未来的智能座舱将不再是简单的'冰箱彩电大沙发',而是一个能够真正理解人类、服务人类、甚至与人类共同成长的智能空间。这不仅是对汽车行业的革新,更是对人类出行方式和生活方式的一次深刻重塑。









