DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Page navigation
目录
Model catalogGLM-4.5
GL

GLM-4.5

GLM-4.5-MoE-355B-A32B-0715

Release date: 2025-07-28更新于: 2025-07-29 11:11:411,397
Live demoGitHubHugging FaceCompare
Parameters
3550.0亿
Context length
128K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

GLM-4.5

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
128K tokens
Max output length
97280 tokens
Model type
推理大模型
Release date
2025-07-28
Model file size
710 GB
MoE architecture
Yes
Total params / Active params
3550.0B / 320B
Knowledge cutoff
No data
GLM-4.5

Open source & experience

Code license
Apache 2.0
Weights license
Apache 2.0- 免费商用授权
GitHub repo
https://github.com/THUDM/GLM-4
Hugging Face
https://huggingface.co/zai-org/GLM-4.5
Live demo
https://chat.z.ai/
GLM-4.5

Official resources

Paper
GLM-4.5: Reasoning, Coding, and Agentic Abililties
DataLearnerAI blog
Zhipu AI重磅发布GLM-4.5系列:技术深度解析与多维度性能评测
GLM-4.5

API details

API speed
3/5
💡Default unit: $/1M tokens. If vendors use other units, follow their published pricing.
Standard pricingStandard
ModalityInputOutput
Text$0.6$2.2
GLM-4.5

Benchmark Results

Thinking
Thinking mode details (1)

综合评估

3 evaluations
Benchmark / mode
Score
Rank/total
MMLU Pro
Medium
84.60
23 / 114
GPQA Diamond
Medium
79.10
64 / 160
HLE
Medium
14.40
82 / 115

编程与软件工程

2 evaluations
Benchmark / mode
Score
Rank/total
LiveCodeBench
Medium
72.90
33 / 105
SWE-bench Verified
Medium
64.20
56 / 90

数学推理

2 evaluations
Benchmark / mode
Score
Rank/total
MATH-500
Medium
98.20
3 / 42
AIME 2024
Medium
91
14 / 62

AI Agent - 工具使用

1 evaluations
Benchmark / mode
Score
Rank/total
Terminal-Bench
Medium
37.50
15 / 35
查看评测深度分析与其他模型对比
GLM-4.5

Publisher

智谱AI
智谱AI
View publisher details
GLM-4.5-MoE-355B-A32B-0715

Model Overview

GLM-4.5-355B-A32B是智谱AI开源的MoE架构的大模型,总参数3550亿,每次推理激活320亿参数。


该模型是GLM 4.5系列中参数规模最大的一个模型。


GLM-4.5在官方公布的12项跨领域基准测试中,综合性能位列第三,展现了其作为第一梯队成员的强大实力。

  • Agent与工具调用能力:
    这是GLM-4.5的核心优势之一。在BFCL v3(函数调用)和τ-bench(通用Agent)等基准上,其表现与Anthropic的Claude 4 Sonnet几乎持平。尤其值得注意的是,在一项涉及52个真实编码任务的Agentic Coding测试中,其工具调用成功率高达90.6%,在所有对比模型中排名第一,证明了其在与外部工具交互时的极高可靠性。
  • 推理能力:
    GLM-4.5在需要深度逻辑和知识的推理任务上表现卓越。在AIME24(数学竞赛级问题)基准上,其得分(91.0)超过了Claude 4 Opus和Gemini 2.5 Pro。在MATH 500上也取得了98.2的高分,稳居顶级水平。这表明它具备处理复杂科学、技术和数学问题的坚实基础。
  • 代码能力:
    模型在SWE-bench和Terminal-Bench等编码基准上表现出强大的竞争力。虽然与Claude 4 Sonnet这类专为代码优化的模型相比互有胜负,但其结合了高可靠性的工具调用能力,使其在需要创建和调试完整项目的全栈开发等Agentic Coding场景中极具潜力。

    DataLearner 官方微信

    欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

    DataLearner 官方微信二维码