GL

GLM-4.5

推理大模型

GLM-4.5-MoE-355B-A32B-0715

发布时间: 2025-07-28

1,046
模型参数(Parameters)
3550.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

128K tokens

最长输出结果

97280 tokens

模型类型

推理大模型

发布时间

2025-07-28

模型预文件大小

710 GB

推理模式
常规模式(Non-Thinking Mode) 思考模式(Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 0.6 美元/100 万tokens 2.2 美元/100 万tokens

GLM-4.5模型在各大评测榜单的评分

综合评估

共 4 项评测
MMLU Pro thinking
84.60
16 / 105
GPQA Diamond thinking
79.10
40 / 133
LiveBench normal
65
29 / 48
HLE thinking
14.40
39 / 68

编程与软件工程

共 2 项评测
LiveCodeBench thinking
72.90
23 / 94
64.20
36 / 66

数学推理

共 2 项评测
MATH-500 thinking
98.20
3 / 42
AIME 2024 thinking
91
14 / 62

Agent能力评测

共 1 项评测
Terminal-Bench thinking
37.50
16 / 36

发布机构

GLM-4.5-MoE-355B-A32B-0715模型解读

GLM-4.5-355B-A32B是智谱AI开源的MoE架构的大模型,总参数3550亿,每次推理激活320亿参数。


该模型是GLM 4.5系列中参数规模最大的一个模型。


GLM-4.5在官方公布的12项跨领域基准测试中,综合性能位列第三,展现了其作为第一梯队成员的强大实力。

  • Agent与工具调用能力:
    这是GLM-4.5的核心优势之一。在BFCL v3(函数调用)和τ-bench(通用Agent)等基准上,其表现与Anthropic的Claude 4 Sonnet几乎持平。尤其值得注意的是,在一项涉及52个真实编码任务的Agentic Coding测试中,其工具调用成功率高达90.6%,在所有对比模型中排名第一,证明了其在与外部工具交互时的极高可靠性。
  • 推理能力:
    GLM-4.5在需要深度逻辑和知识的推理任务上表现卓越。在AIME24(数学竞赛级问题)基准上,其得分(91.0)超过了Claude 4 Opus和Gemini 2.5 Pro。在MATH 500上也取得了98.2的高分,稳居顶级水平。这表明它具备处理复杂科学、技术和数学问题的坚实基础。
  • 代码能力:
    模型在SWE-bench和Terminal-Bench等编码基准上表现出强大的竞争力。虽然与Claude 4 Sonnet这类专为代码优化的模型相比互有胜负,但其结合了高可靠性的工具调用能力,使其在需要创建和调试完整项目的全栈开发等Agentic Coding场景中极具潜力。

    关注DataLearnerAI公众号

    关注DataLearnerAI微信公众号,接受最新大模型资讯

    DataLearnerAI WeChat