GL

GLM 4 MoE-A10B

GLM4-MoE-100B-A10B

发布时间: 2025-07-14552
模型参数
1000.0亿
上下文长度
128K
中文支持
支持
推理能力

模型基本信息

推理过程
支持
上下文长度
128K tokens
最大输出长度
4096 tokens
模型类型
聊天大模型
发布时间
2025-07-14
模型文件大小
200GB
MoE架构
总参数 / 激活参数
1000.0 亿 / 100 亿
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
3/5
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

GLM4-MoE-100B-A10B是智谱AI开源的模型,不过截止2025年7月11日没有发布,但是在vLLM引擎的提交记录中,有人发现了这个模型的名字,应该是很快就会发布了~

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码