GL

GLM 4 MoE-A10B

聊天大模型

GLM4-MoE-100B-A10B

发布时间: 2025-07-14

510
模型参数(Parameters)
1000.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

128K tokens

最长输出结果

4096 tokens

模型类型

聊天大模型

发布时间

2025-07-14

模型预文件大小

200GB

推理模式
常规模式(Non-Thinking Mode) 思考模式(Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

GLM 4 MoE-A10B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

GLM4-MoE-100B-A10B模型解读

GLM4-MoE-100B-A10B是智谱AI开源的模型,不过截止2025年7月11日没有发布,但是在vLLM引擎的提交记录中,有人发现了这个模型的名字,应该是很快就会发布了~

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat