GLM-4.6V-Flash
GLM-4.6V-Flash 9B
模型参数
90.0亿
上下文长度
128K
中文支持
支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
128K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2025-12-08
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
90.0 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)
开源和体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
3/5
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
智谱AI
查看发布机构详情 模型解读
概览与定位
GLM-4.6V-Flash 是 GLM-4.6V 系列的轻量版(约 9B 参数),面向本地部署与低时延应用场景。其在训练中同样采用 128K 级上下文设置,并继承本系列的原生 Function Calling 能力,用于视觉驱动的工具调用与多模态 Agent。参见 Hugging Face 模型卡 与卡片内链接的 官方文档。
架构与技术规格
公开信息显示参数量约 9B,为便于单机/边缘侧低成本推理进行了优化;模型卡提供了 vLLM 与 SGLang 推理示例及推荐超参。详见 模型卡。
模态与核心能力
支持图像+文本输入与文本输出,重点面向文档理解、界面还原/编辑、低延迟的多模态交互,以及在本地资源受限环境下的部署与使用。参见 模型卡。
应用与限制
适用于需要快速响应与本地化部署的多模态任务;模型卡同时提示当前在纯文本 QA、复杂提示下的重复思考等方面仍有改进空间。
获取方式与许可
权重已发布至 Hugging Face,许可为 MIT,并提供推理代码示例与评测建议。参见 模型卡 与 GLM-V GitHub。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
