GL

GLM-4.5

GLM-4.5-MoE-355B-A32B-0715

发布时间: 2025-07-281,165
模型参数
3550.0亿
上下文长度
128K
中文支持
支持
推理能力

模型基本信息

推理过程
支持
上下文长度
128K tokens
最大输出长度
97280 tokens
模型类型
暂无数据
发布时间
2025-07-28
模型文件大小
710 GB
MoE架构
总参数 / 激活参数
3550.0 亿 / 320 亿
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0- 免费商用授权
在线体验

官方介绍与博客

API接口信息

接口速度
3/5
💡默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
标准计费Standard
模态输入输出
文本$0.6$2.2

评测得分

综合评估

共 4 项评测
评测名称 / 模式
得分
排名/总数
MMLU Prothinking
84.60
19 / 109
GPQA Diamondthinking
79.10
47 / 140
LiveBenchnormal
65
32 / 52
HLEthinking
14.40
52 / 81

编程与软件工程

共 2 项评测
评测名称 / 模式
得分
排名/总数
72.90
27 / 99
64.20
42 / 72

数学推理

共 2 项评测
评测名称 / 模式
得分
排名/总数
MATH-500thinking
98.20
3 / 42
AIME 2024thinking
91
14 / 62

AI Agent - 工具使用

共 1 项评测
评测名称 / 模式
得分
排名/总数
37.50
15 / 35

发布机构

模型解读

GLM-4.5-355B-A32B是智谱AI开源的MoE架构的大模型,总参数3550亿,每次推理激活320亿参数。


该模型是GLM 4.5系列中参数规模最大的一个模型。


GLM-4.5在官方公布的12项跨领域基准测试中,综合性能位列第三,展现了其作为第一梯队成员的强大实力。

  • Agent与工具调用能力:
    这是GLM-4.5的核心优势之一。在BFCL v3(函数调用)和τ-bench(通用Agent)等基准上,其表现与Anthropic的Claude 4 Sonnet几乎持平。尤其值得注意的是,在一项涉及52个真实编码任务的Agentic Coding测试中,其工具调用成功率高达90.6%,在所有对比模型中排名第一,证明了其在与外部工具交互时的极高可靠性。
  • 推理能力:
    GLM-4.5在需要深度逻辑和知识的推理任务上表现卓越。在AIME24(数学竞赛级问题)基准上,其得分(91.0)超过了Claude 4 Opus和Gemini 2.5 Pro。在MATH 500上也取得了98.2的高分,稳居顶级水平。这表明它具备处理复杂科学、技术和数学问题的坚实基础。
  • 代码能力:
    模型在SWE-bench和Terminal-Bench等编码基准上表现出强大的竞争力。虽然与Claude 4 Sonnet这类专为代码优化的模型相比互有胜负,但其结合了高可靠性的工具调用能力,使其在需要创建和调试完整项目的全栈开发等Agentic Coding场景中极具潜力。

    DataLearner 官方微信

    欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

    DataLearner 官方微信二维码