Gr

Grok 4.1 Fast

推理大模型

Grok 4.1 Fast

发布时间: 2025-11-19

40
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
2M
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

2M tokens

最长输出结果
暂无数据
模型类型

推理大模型

发布时间

2025-11-19

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode) 思考模式(Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 0.20 美元 / 100万 tokens
≤ 128K tokens
0.50 美元 / 100万 tokens
≤ 128K tokens
缓存计费 Cache
模态 输入 Cache 输出 Cache
文本 0.05 美元 / 100万 tokens --

Grok 4.1 Fast模型在各大评测榜单的评分

综合评估

共 3 项评测
MMLU Pro thinking
85
9 / 105
GPQA Diamond thinking
85
13 / 133
HLE thinking
17.60
32 / 68

编程与软件工程

共 1 项评测
LiveCodeBench thinking
82
7 / 94

数学推理

共 1 项评测
AIME2025 thinking
89
28 / 93

Agent能力评测

共 2 项评测
τ²-Bench - Telecom thinking + 使用工具
93
5 / 15
Terminal-Bench thinking + 使用工具
23
31 / 36

指令跟随

共 1 项评测
IF Bench thinking + 使用工具
53
10 / 11

Grok 4.1 Fast模型解读

模型概览

Grok 4.1 Fast 是 xAI 发布的面向高性能工具调用与 Agent 工作流的前沿模型,提供最长 2,000,000 tokens 的上下文窗口,并与全新的 Agent Tools API 配合用于实时 X 数据检索、网页搜索与远程代码执行等场景。该版本同时提供 reasoning 与 non-reasoning 两种形态,用于在智能强度与响应时延之间进行权衡。

主要官方信息来源:xAI 新闻稿xAI 模型文档

架构与技术要点

官方未披露参数规模与架构细节(如是否为 MoE)。该模型通过在模拟环境中的强化学习进行长期、多回合的工具使用训练,强调长程规划与多轮调用一致性,以确保在 2M tokens 的长上下文下仍保持稳定表现。

  • 上下文窗口:2,000,000 tokens(新闻页与文档均明确)。
  • 训练与优化:在包含多领域工具的模拟环境中进行强化学习,侧重多轮与长程任务。

核心能力与模态

  • 工具与代理能力:原生函数调用/工具调用;可接入 Agent Tools API 实现实时 X 数据搜索、Web 浏览、代码执行、文件检索与 MCP 连接等。
  • 推理模式:提供 reasoning 与 non-reasoning 两种模式;前者用于更高的智能与任务完成质量,后者用于更低时延的即时响应。
  • 图像理解:xAI 文档提供图像理解指南,Grok 4.1 Fast 与同系列模型共用接口以支持图像输入;未提供与文本不同的单独计费项。

性能与评测

  • τ²-bench Telecom(工具使用):在电信客服类真实世界工具使用场景中表现突出(官方页展示评分与成本对比,并注明由第三方 Artificial Analysis 验证)。
  • Berkeley Function Calling v4:官方页列出总体准确率示例与成本对比,用于体现该模型在函数调用上的稳定性与成本效率。
  • 长上下文多轮一致性:官方强调在多轮与长上下文场景下的性能稳定,不随上下文扩大而显著退化。

使用方式与定价

  • API 访问:xAI API 直接提供 grok-4-1-fast-reasoninggrok-4-1-fast-non-reasoning 两个变体;并在部分平台(如 OpenRouter)提供试用入口。
  • 计费(按 tokens):输入 $0.20 / 1M tokens、缓存命中输入 $0.05 / 1M tokens、输出 $0.50 / 1M tokens;Live Search 单独计价为 $25 / 1K sources;部分工具调用按成功调用次数计价(起价 $5 / 1000 次)。若超 128K 上下文存在“高上下文定价”,但未公布具体数值。

限制与未披露信息

  • 未公开参数量与(若为 MoE 时的)激活参数量。
  • 未提供图像/音频/视频等模态的独立定价项,默认按 token 计费。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat