Gemini 2.0 Pro ExperimentalvsGPT-4o(2024-11-20)
在 4 个共同 benchmark 中,Gemini 2.0 Pro Experimental 整体领先:Gemini 2.0 Pro Experimental 领先 4 项,GPT-4o(2024-11-20) 领先 0 项,持平 0 项,平均分差 +7.70。
Gemini 2.0 Pro Experimental
DeepMind · 2025-02-05 · 聊天大模型
GPT-4o(2024-11-20)
OpenAI · 2024-11-20 · 聊天大模型
Gemini 2.0 Pro Experimental4 项(100%)(0%)0 项GPT-4o(2024-11-20)
评测分数
按能力类目分组,每组内按分差大小排列;共 4 项。
综合评估
Gemini 2.0 Pro Experimental 领先 2/2| 评测项 | Gemini 2.0 Pro Experimental | GPT-4o(2024-11-20) | 分差 |
|---|---|---|---|
| MMLU Pro | 79.1060 / 124 | 77.9070 / 124 | +1.20 |
| MMLU | 86.5028 / 65 | 85.7037 / 65 | +0.80 |
常识问答
Gemini 2.0 Pro Experimental 领先 1/1| 评测项 | Gemini 2.0 Pro Experimental | GPT-4o(2024-11-20) | 分差 |
|---|---|---|---|
| SimpleQA |
规格对比
| 字段 | Gemini 2.0 Pro Experimental | GPT-4o(2024-11-20) |
|---|---|---|
| 发布机构 | DeepMind | OpenAI |
| 发布时间 | 2025-02-05 | 2024-11-20 |
| 模型类型 | 聊天大模型 | 聊天大模型 |
| 架构 | 稠密模型 | 稠密模型 |
| 参数规模 | 暂无数据 | 暂无数据 |
| 上下文长度 | 2000K | 128K |
| 最大输出 | 8192 | 暂无数据 |
小结
- Gemini 2.0 Pro Experimental在以下类目领先:综合评估 (2/2)、常识问答 (1/1)、数学推理 (1/1)
4 个共同 benchmark 上,Gemini 2.0 Pro Experimental 平均高出 7.70 分。
单项差距最大的 benchmark:MATH — Gemini 2.0 Pro Experimental 91.80,GPT-4o(2024-11-20) 68.50(分差 +23.30)。
本页正文由结构化模型、价格与 benchmark 数据生成,不使用实时 LLM 撰写。