Grok-0
Grok-0
模型参数
330.0亿
上下文长度
8K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
8K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-11-05
模型文件大小
0
MoE架构
否
总参数 / 激活参数
330.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
官方介绍与博客
官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
xAI
查看发布机构详情 模型解读
Grok-0模型是xAI公司在开发Grok-1模型之前的一个原型版本。从您提供的博客内容中,我们可以看到Grok-0模型拥有33亿的参数,这个早期模型在标准的语言模型基准测试中接近LLaMa 2(70B)的能力,但只使用了一半的训练资源。Grok-0模型在某些基准测试中的表现如下:
- GSM8k(中学数学词问题):56.8%
- MMLU(多学科多选题):65.7%
- HumanEval(Python代码完成任务):39.7%
- MATH(中学和高中数学问题):15.7%
这些基准测试成绩显示了Grok-0在数学和编程任务中的表现。随后,在过去的两个月中,xAI团队对推理和编码能力进行了重大改进,开发出了Grok-1模型,该模型在HumanEval编码任务和MMLU任务中的表现分别提高到了63.2%和73%。通过对比Grok-0和Grok-1在这些基准测试中的表现,可以看出Grok-1在推理和编码能力上的明显提升。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
