Ph

Phi-3-mini 3.8B

基础大模型

Phi-3-mini 3.8B

发布时间: 2024-04-23

660
模型参数(Parameters)
38.0
最高上下文长度(Context Length)
4K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

4K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2024-04-23

模型预文件大小

7.6GB

开源和体验地址

代码开源状态
预训练权重开源
MIT License - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
暂无公开的 API 定价信息。

Phi-3-mini 3.8B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

Phi-3-mini 3.8B模型解读

微软发布的第三代Phi模型。Phi系列是微软开发的小规模参数语言模型,在30亿及以下的参数规模中,表现亮眼。

这里的Phi-3-mini-3.8B是第三代Phi模型中最小的版本,参数规模38亿。但是在MMLU等评测上结果非常亮眼。

Phi-3-mini-3.8B模型采用了transformer的decoder架构,默认上下文长度是4K,采用了和Llama-2类似的block结构,使用同样的tokenizer,词汇表大小为32064。因此,任何为Llama2开发的工具套件几乎可以直接应用在phi-3-mini上,这个模型训练数据量达到了3.3万亿tokens。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat