DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
工具
语言中文

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表Gemma 4 31B
GE

Gemma 4 31B

Google Gemma 4 31B

发布时间: 2026-04-02更新于: 2026-04-03 16:33:52243
在线体验GitHubHugging FaceCompare
模型参数
310.0亿
上下文长度
256K
中文支持
支持
推理能力

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

Gemma 4 31B

模型基本信息

推理过程
支持
思考模式
思考水平 · 开启 (On) (默认)思考水平 · 关闭 (Off)
上下文长度
256K tokens
最大输出长度
32768 tokens
模型类型
推理大模型
发布时间
2026-04-02
模型文件大小
62.6 GB
MoE架构
否
总参数 / 激活参数
310.0 亿 / 不涉及
知识截止
暂无数据
Gemma 4 31B

开源和体验地址

代码开源状态
Apache 2.0
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
https://github.com/google/gemma
Hugging Face
https://huggingface.co/google/gemma-4-31b
在线体验
暂无在线体验地址
Gemma 4 31B

官方介绍与博客

官方论文
Gemma 4: Byte for byte, the most capable open models
DataLearnerAI博客
暂无介绍博客
Gemma 4 31B

API接口信息

接口速度
4/5
暂无公开的 API 定价信息。
Gemma 4 31B

评测结果

Gemma 4 31B 当前已收录的代表性评测结果包括 MMLU Pro(16 / 115,得分 85.20)、LiveCodeBench(21 / 108,得分 80)、GPQA Diamond(39 / 162,得分 84.30)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部思考
工具使用
全部使用工具不使用工具
联网能力
全部离线可联网

Agent能力评测

共 1 项评测
评测名称 / 模式
得分
排名/总数
τ²-Bench
开启工具
76.90
19 / 39
查看评测深度分析与其他模型对比
Gemma 4 31B

发布机构

Google Deep Mind
Google Deep Mind
查看发布机构详情
Google Gemma 4 31B

模型解读

Google Gemma 4 模型概览

2026年4月2日,Google DeepMind 携全系 Gemma 4 开源模型亮相。31B 是该系列的旗舰型号,采用了纯密集型网络(Dense)架构。它继承了与当前商业模型 Gemini 3 相同的先进底层研究成果,代表了当今开源生态中该尺寸级别内最强的前沿水平(Frontier AI)。

架构设计与硬件规格

  • 参数规模:总体参数量高达 310 亿。
  • 上下文窗口:具备完整的 256K 超大上下文处理能力。
  • 架构特点:融合了逐层残差嵌入(PLE)、全局注意力与共享 KV Cache,在无压缩保留密集型神经元优势的同时,优化了长序列内存开销。

多模态处理与核心能力

31B 专注于提供“开箱即用”的高保真知识与极深度的思维解析:

  • 原生多模态:可以准确读取并解析高分辨率视频帧、多维度图表以及结构复杂的跨模态文档,并具备原生语音识别系统。
  • 超强逻辑思维能力:模型底层启用了“思考模式”(Thinking Mode)。在数学推导、科学文献审读及系统级代码架构生成方面展现了惊人的自纠错和长时规划能力。

设备部署与推荐场景

  • 适用场景:适合对安全和准确率要求极为苛刻的企业级业务系统,包括数字主权要求高的大型跨国企业、科研机构和金融服务公司的数据清理和高精度问答场景。
  • 已知局限:由于是纯 310 亿参数满载激活运行,它在部署时对计算资源的消耗显著高于同系列的 MoE 版本,不建议在无独立大显存 GPU 支持的环境中部署。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码