FU

FunctionGemma 270M IT

FunctionGemma 270M IT

发布时间: 2025-12-1845
模型参数
2.7亿
上下文长度
32K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
32K tokens
最大输出长度
32768 tokens
模型类型
暂无数据
发布时间
2025-12-18
模型文件大小
暂无数据
MoE架构
总参数 / 激活参数
2.7 亿 / 不涉及
知识截止
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

官方介绍与博客

DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
3/5
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

模型简介与定位

FunctionGemma 是 Google DeepMind 面向“函数调用(function calling)/工具调用(tool use)”场景发布的开源权重模型,定位为可进一步微调的基础模型,而非直接用于通用对话的聊天模型。官方说明该模型基于 Gemma 3 270M 架构进行专门调优,使其能够将自然语言指令转换为结构化的函数调用,并在需要时将工具返回结果转写为自然语言,以支撑本地、离线、隐私敏感或资源受限环境中的代理型工作流。

架构与训练数据要点

官方模型卡说明 FunctionGemma 采用与 Gemma 3 相同的架构,但使用不同的对话/控制格式以区分自然语言与工具相关结构化数据。训练数据方面,官方披露该模型训练使用了 6T tokens 的文本数据,数据包含公开工具定义、工具使用交互(提示、函数调用、函数返回以及面向函数返回的自然语言总结或澄清等),训练数据知识截止为 2024 年 8 月。

上下文与输出规格

官方模型卡披露该模型支持 32K tokens 的总输入上下文;输出上限为每次请求最多 32K tokens,并需从中扣除本次请求的输入 tokens。该设定更偏向“工具调用指令生成 + 工具结果总结”的长上下文单轮或多轮流程。

核心能力与模态支持

FunctionGemma 主要面向纯文本输入/输出的函数调用能力。官方强调其适合在进一步微调后用于特定领域或特定工具集合的 function calling 任务,包括多轮交互中的澄清与结果总结。官方同时给出两个在 Google AI Edge Gallery 应用中展示的用例方向:一类是离线小游戏(Tiny Garden)中的动作/状态函数调用;另一类是移动端系统能力调用(Mobile Actions)中将用户指令映射为设备系统工具调用。

性能与评测数据

官方模型卡给出了在 Berkeley Function-Calling Leaderboard (BFCL) 的 0-shot 结果:BFCL Simple 61.6,BFCL Parallel 63.5,BFCL Multiple 39.0,BFCL Parallel Multiple 29.5,BFCL Live Simple 36.2,BFCL Live Parallel 25.7,BFCL Live Multiple 22.9,BFCL Live Parallel Multiple 20.8,BFCL Relevance 61.1,BFCL Irrelevance 70.6。

此外,官方在“Mobile Actions”场景对比了基础模型与基于 Mobile Actions 数据集微调后的效果:基础 FunctionGemma 的评测结果为 58%,Mobile Actions Fine-Tune 为 85%。在端侧性能方面,官方给出了在 Samsung S25 Ultra(CPU、LiteRT XNNPACK delegate、4 threads)上的评测设定(512 prefill tokens、32 decode tokens),并披露了动态 int8 量化在 context length=1024 下的性能指标(包括 prefill/ decode tokens per second、TTFT、模型大小与峰值内存等),用于说明端侧部署的资源与速度特征。

访问方式与许可

官方提供 Hugging Face、Kaggle 以及 Vertex Model Garden 等渠道访问 FunctionGemma,并要求在 Hugging Face 等平台先接受 Gemma Terms of Use 后获取权重文件。许可方面沿用 Gemma Terms of Use(包含可商用但带有使用限制的条款体系),并配套 Gemma 的 Prohibited Use Policy 等限制性条款用于约束不当用途。

补充说明

本条目对应 Hugging Face 上的 "google/functiongemma-270m-it" 发布版本。官方也同时公开了用于展示微调的 Mobile Actions 数据集与配套微调示例(Gemma Cookbook)以便复现实验流程与进行领域化定制。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码