GL

GLM-4.6V-Flash

GLM-4.6V-Flash 9B

发布时间: 2025-12-08236
模型参数
90.0亿
上下文长度
128K
中文支持
支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
128K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2025-12-08
模型文件大小
暂无数据
MoE架构
总参数 / 激活参数
90.0 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
MIT License- 免费商用授权
在线体验
暂无在线体验地址

官方介绍与博客

DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
3/5
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

概览与定位

GLM-4.6V-Flash 是 GLM-4.6V 系列的轻量版(约 9B 参数),面向本地部署与低时延应用场景。其在训练中同样采用 128K 级上下文设置,并继承本系列的原生 Function Calling 能力,用于视觉驱动的工具调用与多模态 Agent。参见 Hugging Face 模型卡 与卡片内链接的 官方文档

架构与技术规格

公开信息显示参数量约 9B,为便于单机/边缘侧低成本推理进行了优化;模型卡提供了 vLLM 与 SGLang 推理示例及推荐超参。详见 模型卡

模态与核心能力

支持图像+文本输入与文本输出,重点面向文档理解、界面还原/编辑、低延迟的多模态交互,以及在本地资源受限环境下的部署与使用。参见 模型卡

应用与限制

适用于需要快速响应与本地化部署的多模态任务;模型卡同时提示当前在纯文本 QA、复杂提示下的重复思考等方面仍有改进空间。

获取方式与许可

权重已发布至 Hugging Face,许可为 MIT,并提供推理代码示例与评测建议。参见 模型卡GLM-V GitHub

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码