DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
Tools
语言中文

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表GLM-4.7-Flash
GL

GLM-4.7-Flash

GLM-4.7-Flash

发布时间: 2026-01-19更新于: 2026-03-08 21:06:201,402
在线体验GitHubHugging FaceCompare
模型参数
310.0亿
上下文长度
200K
中文支持
支持
推理能力

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

GLM-4.7-Flash

模型基本信息

推理过程
支持
思考模式
思考水平 · 关闭 (Off)
上下文长度
200K tokens
最大输出长度
131072 tokens
模型类型
推理大模型
发布时间
2026-01-19
模型文件大小
62.5GB
MoE架构
是
总参数 / 激活参数
310.0 亿 / 30 亿
知识截止
暂无数据
GLM-4.7-Flash

开源和体验地址

代码开源状态
MIT License
预训练权重开源
MIT License- 免费商用授权
GitHub 源码
https://github.com/zai-org/GLM-4
Hugging Face
https://huggingface.co/zai-org/GLM-4.7-Flash
在线体验
https://chat.z.ai
GLM-4.7-Flash

官方介绍与博客

官方论文
GLM-4.5: Agentic, Reasoning, and Coding (ARC) Foundation Models (related technical report referenced on model card)
DataLearnerAI博客
暂无介绍博客
GLM-4.7-Flash

API接口信息

接口速度
3/5
💡默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
标准计费Standard
模态输入输出
文本0 人民币0 人民币
GLM-4.7-Flash

评测结果

GLM-4.7-Flash 当前已收录的代表性评测结果包括 τ²-Bench - Telecom(11 / 33,得分 96)、AIME2025(37 / 107,得分 91.60)、τ²-Bench(17 / 39,得分 79.50)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部常规思考
工具使用
全部使用工具不使用工具

综合评估

共 2 项评测
评测名称 / 模式
得分
排名/总数
GPQA Diamond
关闭
66
109 / 160
HLE
关闭
6.10
103 / 113
查看评测深度分析与其他模型对比
GLM-4.7-Flash

发布机构

智谱AI
智谱AI
查看发布机构详情
GLM-4.7-Flash

模型解读

GLM-4.7-Flash 是由 Z.ai(zai-org)发布并开源的大型语言模型,属于 GLM-4.7 系列。模型已在 Hugging Face 平台公开,提供完整权重与模型卡信息,面向文本生成类任务。

该模型主要支持中文与英文输入,适用于通用对话、代码生成、推理问答等典型大模型使用场景。

模型规模与架构信息

GLM-4.7-Flash 的参数规模约为 31B,采用 BF16 / FP32 精度格式发布。

从模型标注信息来看,其配置被归类为轻量级 MoE(Mixture-of-Experts)相关实现,定位于在算力与模型能力之间取得平衡。

在 GLM-4.7 系列中,Flash 版本与完整体量模型(数百 B 参数规模)形成区分,主要面向单机或中等规模集群的部署场景。

基准测试结果

根据模型卡中公开的评测数据,GLM-4.7-Flash 在多项常见基准测试中给出了量化结果,包括:

  • 数学与逻辑推理类评测(如 AIME)
  • 通用知识与问答类评测(如 GPQA)
  • 代码生成与修复评测(如 LiveCodeBench、SWE-bench)
  • 工具使用与多步推理相关评测(如 τ²-Bench、BrowseComp)

在这些测试中,GLM-4.7-Flash 与同参数量级模型(如 20B–30B 区间)存在数值差异,具体表现以官方公布的单项得分为准。

需要注意的是,上述结果均来自统一评测设置下的自动基准,未包含真实业务场景下的定制化测试。

推理与部署方式

GLM-4.7-Flash 支持多种主流推理框架和部署方式,包括:

  • 使用 vLLM 进行高吞吐推理服务部署
  • 使用 SGLang 启动模型服务
  • 通过 Hugging Face Transformers 接口直接加载模型进行本地推理

模型卡中给出了对应的加载与推理示例,涵盖 tokenizer 初始化、模型加载与文本生成流程。

此外,该模型也可通过 Z.ai 提供的 API 平台进行调用,用于云端推理服务。

许可与使用限制

GLM-4.7-Flash 以 MIT License 形式发布。

该许可允许用户在遵循协议条款的前提下进行修改、分发和商业使用。

模型卡未额外标注使用领域限制或访问限制。

模型系列背景

GLM-4.7-Flash 隶属于 GLM 系列模型,该系列由 Z.ai 持续维护和发布,涵盖多种参数规模与使用场景的模型版本。

从公开信息来看,Flash 版本是 GLM-4.7 系列中针对部署效率和资源使用进行调整的一个分支。

社区讨论中对该模型的关注点主要集中在其参数规模、推理成本、基准分数以及与其他同级模型的对比。

总结

GLM-4.7-Flash 是一个约 31B 参数规模的开源语言模型,面向通用文本生成与推理任务。

模型提供了标准化的权重发布、基准评测数据与多种部署方式支持,并采用 MIT 许可。

对于需要在有限算力条件下使用 GLM-4.7 系列模型的场景,GLM-4.7-Flash 是当前公开版本之一,其具体适用性仍需结合实际任务与部署环境进行评估。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码