GLM-4.5
GLM-4.5-MoE-355B-A32B-0715
模型参数
3550.0亿
上下文长度
128K
中文支持
支持
推理能力
模型基本信息
推理过程
支持
上下文长度
128K tokens
最大输出长度
97280 tokens
模型类型
暂无数据
发布时间
2025-07-28
模型文件大小
710 GB
MoE架构
是
总参数 / 激活参数
3550.0 亿 / 320 亿
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)
开源和体验地址
官方介绍与博客
API接口信息
接口速度
3/5
默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
标准计费Standard
| 模态 | 输入 | 输出 |
|---|---|---|
| 文本 | $0.6 | $2.2 |
评测得分
综合评估
共 4 项评测评测名称 / 模式
得分
排名/总数
编程与软件工程
共 2 项评测评测名称 / 模式
得分
排名/总数
发布机构
智谱AI
查看发布机构详情 模型解读
GLM-4.5-355B-A32B是智谱AI开源的MoE架构的大模型,总参数3550亿,每次推理激活320亿参数。
该模型是GLM 4.5系列中参数规模最大的一个模型。
GLM-4.5在官方公布的12项跨领域基准测试中,综合性能位列第三,展现了其作为第一梯队成员的强大实力。
- Agent与工具调用能力:
这是GLM-4.5的核心优势之一。在BFCL v3(函数调用)和τ-bench(通用Agent)等基准上,其表现与Anthropic的Claude 4 Sonnet几乎持平。尤其值得注意的是,在一项涉及52个真实编码任务的Agentic Coding测试中,其工具调用成功率高达90.6%,在所有对比模型中排名第一,证明了其在与外部工具交互时的极高可靠性。 - 推理能力:
GLM-4.5在需要深度逻辑和知识的推理任务上表现卓越。在AIME24(数学竞赛级问题)基准上,其得分(91.0)超过了Claude 4 Opus和Gemini 2.5 Pro。在MATH 500上也取得了98.2的高分,稳居顶级水平。这表明它具备处理复杂科学、技术和数学问题的坚实基础。 - 代码能力:
模型在SWE-bench和Terminal-Bench等编码基准上表现出强大的竞争力。虽然与Claude 4 Sonnet这类专为代码优化的模型相比互有胜负,但其结合了高可靠性的工具调用能力,使其在需要创建和调试完整项目的全栈开发等Agentic Coding场景中极具潜力。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
