DocVQA 评测基准详情

61

DocVQA是一个针对文档图像的视觉问答基准数据集。该数据集包含50,000个问题,这些问题基于12,767张文档图像构建而成。数据集旨在评估模型在提取和理解文档内容方面的能力,特别是当问题涉及布局、表格和文本时。基准通过提供标注的问答对,支持模型在真实文档场景下的测试。

模型模式说明

不同模式会显著影响成绩,请在对比榜单时留意标签提示。

提示:若某条记录未显示任何标签,即默认是 normal 常规模式。

normal

常规推理:单步推理,不延长思考、也不调用额外工具。

thinking low medium high

Thinking 系列:常规延长思考时间,low/medium/high 代表不同耗时或深度,各厂商叫法不同。

deeper thinking

Deeper thinking:在 Thinking 基础上进一步延长思考链条,通常意味着更多算力与时间。

使用工具 / 联网

允许调用检索、浏览器、代码解释器等外部能力。

parallel_thinking

并行思考:多线程/多代理协同探索再汇总,通常只在厂商内部实验环境中启用、尚未对外开放,因此被视为“作弊”模式。

DocVQA 大模型得分排行榜

数据来源:DataLearnerAI

DocVQA详细排名数据表格

默认:仅展示常规/非并行的评测结果,可按需查看并行思考成绩。

默认隐藏并行思考结果。

排名
模型
得分
发布时间
参数(亿)
1
96.4
2025-01-28
720.0
DocVQA得分 96.4
发布时间 2025-01-28
参数(亿) 720.0
查看模型详情
2
96.1
2025-10-15
88.0
DocVQA得分 96.1
发布时间 2025-10-15
参数(亿) 88.0
查看模型详情
3
95.3
2025-10-15
40.0
DocVQA得分 95.3
发布时间 2025-10-15
参数(亿) 40.0
查看模型详情
4
92.0
2025-09-25
未知
DocVQA得分 92.0
发布时间 2025-09-25
参数(亿) 未知
查看模型详情
5
78.3
2025-08-07
未知
DocVQA得分 78.3
发布时间 2025-08-07
参数(亿) 未知
查看模型详情