本报讯 (记者梁傲男)2月22日,北京智谱华章科技股份有限公司(以下简称“智谱”,股票代码“HK2513”)发布了最新一代基础模型GLM-5的技术报告,披露了GLM-5实现性能大幅跃升的技术细节。
智谱在报告中表示,GLM-5是一款旨在推动编程范式从“VibeCoding”(氛围编程)转向“AgenticEngineering”(智能体工程)的下一代基础模型。GLM-5在前代模型GLM-4.5的智能体、推理与编程能力基础上,采用稀疏注意力以大幅降低推理成本,同时保持长上下文能力无损。为了让模型更好地与各类任务对齐,智谱构建了一套新型异步强化学习(RL)基础设施,通过将生成过程与训练过程解耦,从而大幅提升了后训练的迭代效率。
总体而言,GLM-5能够实现性能的大幅跃升,主要得益于以下四大技术创新:
第一,引入DSA稀疏注意力机制。这一全新架构极大降低了训练与推理成本。此前的GLM-4.5依赖标准MoE架构提升效率,而DSA机制则使GLM-5能够根据Token的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。得益于此,模型参数规模成功扩展至744B(7440亿),同时训练Token规模提升至28.5T(28.5万亿)。
第二,构建全新的异步RL基础设施。基于GLM-4.5时期slime框架“训练与推理解耦”的设计,新基建进一步实现了“生成与训练”的深度解耦,将GPU利用率推向极致。该系统支持模型开展大规模的智能体轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让RL后训练流程的效率实现了质的飞跃。
第三,提出全新的异步Agent RL算法。该算法旨在全面提升模型的自主决策质量。GLM-4.5曾依靠迭代自蒸馏和结果监督来训练Agent;而在GLM-5中,异步算法使模型能够从多样化的长周期交互中持续学习。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这也正是GLM-5能够在真实编程场景中表现卓越的底层逻辑。
第四,全面拥抱国产算力生态。从模型发布伊始,GLM-5就原生适配了中国GPU生态。全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、沐曦与燧原。
凭借上述进步,GLM-5不仅是一个更强大的模型,更是下一代AIAgent更高效、更实用的基础模型。智谱向社区开源GLM-5,以进一步推动高效的、面向Agent的通用人工智能的发展。
智谱认为,开源追赶闭源的“战役”仍在继续,公司将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。
以下为技术报告全文。

(编辑 郭之宸)