清华智谱开源7440亿参数的智能体GLM-5

简介

我们正式推出GLM-5,面向复杂系统工程与长周期智能体任务。规模化仍然是提升通用人工智能(AGI)智能效能的最重要途径之一。相比GLM-4.5,GLM-5将参数量从3550亿(激活320亿)扩展至7440亿(激活400亿),预训练数据从23万亿token增至28.5万亿token。GLM-5还集成了深度求索稀疏注意力机制(DSA),在保持长上下文能力的同时大幅降低部署成本。

强化学习旨在弥合预训练模型"达标"与"卓越"之间的鸿沟。然而由于RL训练效率问题,在大语言模型中规模化部署面临挑战。为此我们开发了slime——创新的异步RL基础设施,显著提升训练吞吐效率,支持更精细化的训练后迭代。得益于预训练与训练后的双重突破,GLM-5在各类学术基准测试中较GLM-4.7实现显著提升,在推理、编程和智能体任务领域达到全球开源模型顶尖水平,进一步缩小与前沿模型的差距。

基准测试

GLM-5GLM-4.7DeepSeek-V3.2Kimi K2.5Claude Opus 4.5Gemini 3 ProGPT-5.2 (xhigh)
HLE30.524.825.131.528.437.235.4
HLE (w/ Tools)50.442.840.851.843.4*45.8*45.5*
AIME 2026 I92.792.992.792.593.390.6-
HMMT Nov. 202596.993.590.291.191.793.097.1
IMOAnswerBench82.582.078.381.878.583.386.3
GPQA-Diamond86.085.782.487.687.091.992.4
SWE-bench Verified77.873.873.176.880.976.280.0
SWE-bench Multilingual73.366.770.273.077.565.072.0
Terminal-Bench 2.0 (Terminus 2)56.2 / 60.7 †41.039.350.859.354.254.0
Terminal-Bench 2.0 (Claude Code)56.2 / 61.1 †32.846.4-57.9--
CyberGym43.223.517.341.350.639.9-
BrowseComp62.052.051.460.637.037.8-
BrowseComp (w/ Context Manage)75.967.567.674.967.859.265.8
BrowseComp-Zh72.766.665.062.362.466.876.1
τ²-Bench89.787.485.380.291.690.785.5
MCP-Atlas (Public Set)67.852.062.263.865.266.668.0
Tool-Decathlon38.023.835.227.843.536.446.3
Vending Bench 2$4,432.12$2,376.82$1,034.00$1,198.46$4,967.06$5,478.16$3,591.33
*:指其全套测试的得分。

†:Terminal-Bench 2.0的验证版本,修复了一些模糊指令。
详见脚注获取更多评估细节。

脚注

  • 人类终极考试(HLE)及其他推理任务:我们评估时设置最大生成长度为131,072个token(temperature=1.0, top_p=0.95, max_new_tokens=131072)。默认情况下,我们报告纯文本子集的结果;带*标记的结果来自完整数据集。我们使用GPT-5.2(中等规模)作为评判模型。对于带工具的HLE评估,我们使用最大上下文长度202,752个token。
  • SWE-bench与SWE-bench多语言版:我们使用OpenHands运行SWE-bench测试套件,并采用定制化的指令提示。设置参数:temperature=0.7, top_p=0.95, max_new_tokens=16384,上下文窗口为200K。
  • 浏览器交互评测(BrowserComp):在没有上下文管理的情况下,我们仅保留最近5轮对话的细节。启用上下文管理时,采用与DeepSeek-v3.2和Kimi K2.5相同的全丢弃策略。
  • 终端基准测试2.0(Terminus 2):我们使用Terminus框架评估,参数为timeout=2h, temperature=0.7, top_p=1.0, max_new_tokens=8192,上下文窗口为128K。资源限制为16核CPU和32GB内存。
  • 终端基准测试2.0(Claude代码版):在Claude Code 2.1.14(思考模式,默认计算量)中评估,参数为temperature=1.0, top_p=0.95, max_new_tokens=65536。由于生成速度差异,我们移除了挂钟时间限制,但保留每项任务的CPU和内存约束。分数取5次运行的平均值。我们修复了Claude Code引入的环境问题,并在已消除歧义指令的验证版Terminal-Bench 2.0数据集上补充了结果(参见:https://huggingface.co/datasets/zai-org/terminal-bench-2-verified)。
  • 网络攻防演练(CyberGym):在Claude Code 2.1.18(思考模式,禁用网页工具)中评估,参数为temperature=1.0, top_p=1.0, max_new_tokens=32000,每项任务限时250分钟。结果基于1,507项任务的单次Pass@1通过率。
  • MCP-Atlas图谱测试:所有模型均在500项公开子集的思考模式下评估,每项任务限时10分钟。我们使用Gemini 3 Pro作为评判模型。
  • τ²基准测试:在零售和电信领域添加了小型提示调整,以避免因用户提前终止导致的失败。针对航空领域,我们应用了Claude Opus 4.5系统卡中提出的领域修复方案。
  • 自动售货机基准测试2:由安顿实验室独立运行。

本地部署GLM-5

环境准备

vLLM、SGLang和xLLM均支持GLM-5的本地部署。此处提供简易部署指南。

vLLM使用 Docker 作为:

docker pull vllm/vllm-openai:nightly 

或者使用 pip:

```shell pip install -U vllm --pre --index-url https://pypi.org/simple --extra-index-url https://wheels.vllm.ai/nightly ``` 

然后升级transformers:

``` pip install git+https://github.com/huggingface/transformers.git ``` 

SGLang使用 Docker 作为:

docker pull lmsysorg/sglang:glm5-hopper # For Hopper GPUdocker pull lmsysorg/sglang:glm5-blackwell # For Blackwell GPU

部署

vLLM

vllm serve zai-org/GLM-5-FP8 \ --tensor-parallel-size 8\ --gpu-memory-utilization 0.85\ --speculative-config.method mtp \ --speculative-config.num_speculative_tokens 1\ --tool-call-parser glm47 \ --reasoning-parser glm45 \ --enable-auto-tool-choice \ --served-model-name glm-5-fp8 

查看配方获取更多详情。

  • xLLM 及其他昇腾 NPU请查阅部署指南 此处

SGLang

python3 -m sglang.launch_server \ --model-path zai-org/GLM-5-FP8 \ --tp-size 8\ --tool-call-parser glm47 \ --reasoning-parser glm45 \ --speculative-algorithm EAGLE \ --speculative-num-steps 3\ --speculative-eagle-topk 1\ --speculative-num-draft-tokens 4\ --mem-fraction-static 0.85\ --served-model-name glm-5-fp8 

查看 sglang 教程 获取更多细节。

Read more

【数据结构】双向链表定义与实现

【数据结构】双向链表定义与实现

主页:HABUO🍁主页:HABUO  🌜有时候世界虽然是假的,但并不缺少真心对待我们的人🌛 1.链表的分类 实际上链表有很多种,前面我们所讲述的单链表只是其中一个结构最简单的链表,只不过用起来很麻烦,需要考虑很多种情况。事实上还有带头链表、双向链表等等,基本就是根据带头不带头、单向或者双向、循环或者非循环进行划分,共计8种,我们讲述两个极端,第一个就是无头单向非循环链表,这是结构最简单用起来最麻烦的。第二个就是带头双向循环链表,这是结构最复杂但用起来却是最简单的。相信通过这两个链表的学习,就是用到其它链表也游刃有余。其中这两个链表的结构如下: 无头单向非循环链表(单链表): 带头双向循环链表: 2.带头双向循环链表 下面我们就类似于前面博客对单链表的介绍一样,对带头双向循环链表的相关接口进行一一实现。 首先我们在头文件中对各种接口的声明进行书写,主要涉及以下接口: typedef int LTDataType; //结构体新节点声明 typedef struct ListNode { struct ListNode* prev; struct ListNod

【算法】一文看懂快速排序!!!

【算法】一文看懂快速排序!!!

一文看懂快速排序 ✨前言:在各种排序算法中,快速排序(Quick Sort)几乎是“算法界的明星”。它由 Tony Hoare 在 1962 年提出,凭借着分治思想与高效的平均性能,成为众多编程语言和标准库中的默认排序算法。 相比于冒泡排序、选择排序这样的“基础选手”,快速排序更像是一位善于策略分配的“指挥官”:它先选出一个基准值(key),再通过一趟划分,把比基准小的元素放在左边,比基准大的元素放在右边,然后递归处理子区间,直到整个序列有序。 得益于这种巧妙的思路,快速排序在大多数情况下能以 O(N log N) 的时间复杂度完成任务,且只需较少的额外空间,几乎成为了“高效排序”的代名词。不过,快速排序并非完美无缺,它在极端情况下可能退化为 O(N²),同时也不是一个稳定的排序算法。 在这篇文章中,我们将从原理到实现、从优化到应用,全面剖析快速排序,帮助你既能在面试中“

【初阶数据结构11】——链式二叉树知识补充

【初阶数据结构11】——链式二叉树知识补充

文章目录 前言 1. 二叉树的层序遍历及相关应用 1.1 二叉树的层序遍历 1.1.1 层序遍历相关概念 1.1.2 层序遍历的实现 1.2 判断是否为完全二叉树 2.二叉树的创建与销毁 2.1 二叉树的创建 2.2 二叉树的销毁 3. 知识内容补充 结语 前言 在上篇文章中,我们实现了二叉树的部分基本功能,三种遍历,以及统计高度、叶子节点数和指定高度的节点数。本篇文章我们将会完成二叉树的创建、销毁、层序遍历以及判断是否为完全二叉树等功能的实现。 1. 二叉树的层序遍历及相关应用 1.1 二叉树的层序遍历   除了上一篇文章中,介绍到的三种遍历方法,二叉树还存在一种广度遍历方法,即层序遍历。 1.1.1

2025 腾讯广告算法大赛 Baseline 项目解析

2025 腾讯广告算法大赛 Baseline 项目解析

项目概述 2025 腾讯广告算法大赛 Baseline,一个简单的序列推荐系统,主要用于建模用户和物品的交互序列,并利用多模态特征(文本、图像等 embedding)来提升推荐效果。 核心文件功能 1. main.py - 主训练脚本 * 负责模型训练的整体流程 * 包含参数解析、数据加载、模型初始化、训练循环等 * 支持断点续训和仅推理模式 * 使用 TensorBoard 记录训练日志 main.py 代码 import argparse import json import os import time from pathlib import Path import numpy as np import torch from torch.utils.