智谱GLM-4.5:为智能体而生,开源、高效、低价的新选择

1

在人工智能领域,模型的发展日新月异。智谱公司最新发布的GLM-4.5模型,无疑为这个领域注入了新的活力。与以往一味追求参数规模的趋势不同,GLM-4.5更加注重实际应用,特别是针对智能体(Agent)的设计,以及通过技术优化实现的高性价比。此外,智谱还积极拥抱开源和开发者生态,为整个行业的发展贡献力量。

回顾今年4月,智谱发布的「AutoGLM沉思」已经展示了其在自主智能体方面的探索。而GLM-4.5的推出,不仅是智谱自身模型矩阵的一次升级,更反映出AI行业发展的一个重要趋势:模型的价值正在加速向解决实际问题、降低应用门槛的方向转移。这意味着,未来的AI模型将更加注重实用性和易用性,而不仅仅是参数的堆砌。

智能体模型的设计理念

在衡量一个大模型的优劣时,综合能力基准评测是业内常用的方法。智谱此次公布了GLM-4.5在一系列评测集上的表现,涵盖了推理、代码、科学、智能体等12个不同维度。这些测试旨在全面评估模型的综合素质,确保其在各个方面都能达到优秀的水平。

根据智谱提供的数据,GLM-4.5在这些测试中的综合得分位列全球参评模型的第三位,在开源模型中排名第一。这一成绩无疑证明了GLM-4.5的强大实力。

null

优秀的评测成绩是模型能力的基础,但更值得关注的是其背后的设计理念。GLM-4.5从一开始就将目标锁定在「智能体应用」。智能体要求模型具备任务理解、规划分解、工具调用和执行反馈等一系列复杂能力,这超出了传统聊天机器人的范畴。这意味着,GLM-4.5不仅仅是一个简单的对话工具,更是一个能够理解和执行复杂任务的智能助手。

智谱将「在不损失原有能力的前提下融合更多通用智能能力」作为其对AGI的理解,而GLM-4.5正是这一理念的实践。通过不断融合新的能力,GLM-4.5正在逐步接近通用人工智能的目标。

为了支撑智能体所需的强大而灵活的能力,GLM-4.5在技术架构上做出了针对性的选择:

首先是混合专家(MoE)架构。GLM-4.5采用了MoE架构,总参数量达到3550亿,而单次推理中被激活的参数量为320亿。这种架构允许模型在保持巨大知识储备和能力上限的同时,能根据具体任务,只调用部分「专家」网络进行计算。这意味着,模型可以根据不同的任务需求,选择不同的专家网络进行处理,从而提高效率和准确性。其直接好处是在保证高质量输出的前提下,有效控制了推理成本和能耗,为大规模应用部署提供了可行性。在大规模应用部署方面,成本和能耗是重要的考虑因素,而MoE架构的采用,使得GLM-4.5在这方面具有明显的优势。

其次是双模式运行。模型被设计为两种工作模式——「思考模式」和「非思考模式」。「思考模式」为复杂的推理和工具调用任务设计,允许模型投入更多计算资源进行深度规划;「非思考模式」则服务于需要快速响应的场景。这种设计兼顾了智能体在执行复杂任务时的「深度」与日常交互时的「速度」,是对实际应用场景需求的细致考量。这意味着,GLM-4.5可以根据不同的场景需求,选择不同的工作模式,从而实现最佳的性能。

最后是针对性数据训练。模型的训练过程也体现了其应用导向。在15万亿token的通用数据预训练之后,团队使用了8万亿token的高质量数据,在代码、推理、智能体等领域进行了针对性训练,并通过强化学习进行能力对齐。这种「通识教育+专业深造」的训练路径,旨在让模型不仅知识渊博,更在特定专业领域具备解决实际问题的能力。这意味着,GLM-4.5不仅仅是一个通用的模型,更是一个在特定领域具有专业能力的模型。

综合来看,GLM-4.5并非一个泛泛的通用模型,其技术选型和训练策略都清晰地指向了构建高效、可靠的AI智能体这一具体目标,这也反映了智谱对大模型下一阶段应用形态的判断。未来的大模型将更加注重实际应用,而GLM-4.5正是朝着这个方向迈出的重要一步。

商业逻辑:成本、效率与生态

性能是技术层面的核心,而成本和生态则是决定一项技术能否被市场广泛接纳的关键。GLM-4.5在此次发布中,展现了清晰的商业逻辑。

首先是参数效率带来的成本优势。「参数效率」是评估模型训练水平和架构设计的重要指标,即用相对更少的计算资源实现同等或更优的性能。智谱方面的数据显示,GLM-4.5的参数量显著低于部分业界同类模型,但在多项基准测试中表现更佳。在代码能力榜单SWE-bench Verified上,其性能与参数量的比值处于帕累托前沿,这证明了其较高的训练和推理效率。这意味着,GLM-4.5可以用更少的资源,实现更好的性能,从而降低成本。

更高的效率直接转化为更低的部署和使用成本。此次公布的API定价——输入0.8元/百万tokens,输出2元/百万tokens——显著低于当前市场主流闭源模型的定价水平。配合高速版可达100 tokens/秒的生成速度,GLM-4.5为开发者提供了一个兼具高性能和低成本的选择。低廉的API定价,无疑将吸引更多的开发者使用GLM-4.5,从而促进其生态的繁荣。

null

其次是降低门槛、构建开发者生态的战略意图。低廉的价格并非目的,而是吸引开发者、繁荣生态的手段。AI应用的普及,根本上依赖于开发者社区的创造力。高昂的API费用一直是阻碍许多中小型团队和个人开发者进行创新的主要障碍之一。通过大幅降低价格,能够降低AI应用的开发门槛,激发更广泛的创新。这意味着,更多的开发者可以参与到AI应用的开发中来,从而推动整个行业的发展。

在生态构建上,智谱采取了务实的策略。例如,GLM-4.5的API被设计为可以兼容主流的Claude Code框架。这一举措使得已经熟悉该框架的开发者能够以极低的成本将工作流迁移至GLM-4.5,有效减少了技术选型和切换的阻力。兼容主流的框架,可以降低开发者的学习成本,从而吸引更多的开发者使用GLM-4.5。

此外,将模型权重在Hugging Face和ModelScope等平台遵循MIT License进行开源,也体现了其开放的姿态。MIT License对商业使用限制极少,这为企业和个人基于GLM-4.5进行二次开发和商业化应用铺平了道路。开源是一种重要的策略,可以吸引更多的开发者参与到模型的改进和优化中来,从而提高模型的性能和可靠性。

通过「高参数效率」实现「低使用成本」,再以「低成本」和「高兼容性」吸引开发者,从而构建起一个活跃的应用生态——这是一条清晰且务实的商业路径。智谱的商业逻辑,是建立在技术优势和市场需求的基础之上的,具有很强的可行性。

从功能演示到实际应用的距离

但衡量一个模型最终价值的,仍然是它在真实世界中的表现。

智谱此次展示了多个基于GLM-4.5原生能力构建的应用案例,如可交互的搜索引擎、社交媒体网站,以及Flappy Bird小游戏等。这些案例证明,GLM-4.5 模型已经具备了相当程度的全栈开发和工具调用能力,能够理解需求并自主生成可运行、可交互的应用程序。这意味着,GLM-4.5不仅仅是一个理论上的模型,更是一个可以实际应用的模型。

这些演示作为技术能力的验证是成功的,它们展示了GLM-4.5在智能体方向上的潜力。不过从功能演示到稳定可靠的生产级应用,仍然存在一段距离。要实现从演示到实际应用的跨越,需要解决很多实际问题,例如模型的稳定性、可靠性、安全性等。

在智谱自己公布的真实场景对比测试中,这一点也得到了反映。测试结果显示,GLM-4.5在编程任务中的表现优于其他参评的开源模型,尤其在工具调用的可靠性方面。但报告也同时指出,与顶尖的闭源模型Claude-4-Sonnet相比,GLM-4.5在提供近似效果的同时,仍存在一定的提升空间。这意味着,GLM-4.5在某些方面已经达到了很高的水平,但在某些方面仍然有提升的空间。

这种对比是对当前AI技术发展的普遍现状的一种反应:顶尖的开源模型正在快速追赶,但在部分能力上与最前沿的闭源模型相比,尚有差距。要缩小这种差距,需要不断的技术创新和实践。

智能体在开放环境中的稳定性、对模糊指令的理解能力、以及在遭遇未知情况时的纠错和适应能力,都是决定其真正成为「可靠的工具」的核心挑战。要解决这些挑战,需要不断的研究和实践,以及与用户的紧密合作。

智谱此次选择公开评测题目和Agent轨迹,邀请行业共同验证和改进,也体现了一种积极和开放的态度。这种开放的态度,有助于吸引更多的开发者参与到模型的改进中来,从而提高模型的性能和可靠性。

总的来说,GLM-4.5的发布,没有将重点放在参数规模的数字上,而是聚焦于智能体这一明确的应用方向,并通过技术优化和商业策略,为开发者社区提供了一个高性价比的基础平台。这种务实的做法,值得肯定。

大模型行业正进入更加注重实际应用,更加注重成本效益,也更加注重开发者生态建设的阶段。未来的大模型,将更加注重解决实际问题,降低使用成本,以及构建活跃的开发者生态。

接下来,GLM-4.5的市场表现,以及在其之上能诞生出多少创新的AI原生应用,将是检验其最终成功与否的关键。我们期待着GLM-4.5在市场上取得成功,并为AI原生应用的发展做出贡献。