Ge

Gemini 2.5 Flash-Lite

推理大模型

Gemini 2.5 Flash-Lite

发布时间: 2025-06-17

874
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
1024K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

1024K tokens

最长输出结果

65536 tokens

模型类型

推理大模型

发布时间

2025-06-17

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 0.1 美元/ 100 万tokens 0.4 美元/ 100 万tokens
图片 0.1 美元/ 100 万tokens --
音频 0.5 美元/ 100 万tokens --
视频 0.1 美元/ 100 万tokens --

Gemini 2.5 Flash-Lite模型在各大评测榜单的评分

综合评估

共 4 项评测
MMLU normal
84.50
38 / 59
GPQA Diamond normal
66.70
81 / 133
LiveBench thinking
58.42
45 / 48
HLE normal
6.90
57 / 68

真实性评估

共 1 项评测
SimpleQA normal
13
34 / 43

编程与软件工程

共 2 项评测
LiveCodeBench normal
34.30
83 / 94
27.60
64 / 66

数学推理

共 1 项评测
AIME2025 normal
63.10
66 / 93

发布机构

Gemini 2.5 Flash-Lite模型解读

Gemini 2.5 Flash-Lite 是 Gemini 2.5 系列模型中最新发布的预览版本,以其高性价比和卓越的速度为特点。该模型在编码、数学、科学、推理和多模态基准测试中均展现出比 Gemini 2.0 Flash-Lite 更高的综合质量。特别是在处理大规模、对延迟敏感的任务,如翻译和分类时,Gemini 2.5 Flash-Lite 的表现尤为突出,其延迟低于 Gemini 2.0 Flash-Lite 和 Gemini 2.0 Flash。


Gemini 2.5 Flash-Lite 继承了 Gemini 2.5 系列的核心能力,包括灵活调整计算预算以实现不同程度的思考能力,支持连接 Google Search 等工具以及代码执行,并具备多模态输入和高达一百万 token 的上下文长度。


目前,Gemini 2.5 Flash-Lite 的预览版本已在 Google AI Studio 和 Vertex AI 上线,用户可以开始构建应用并提供反馈。同时,Gemini 2.5 Flash 和 Pro 的稳定版本也已正式发布,可供生产环境使用,并已集成到 Gemini 应用中。此外,Gemini 2.5 Flash-Lite 和 Flash 的定制版本也已应用于 Google Search。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat