Phi-3-mini 3.8B
Phi-3-mini 3.8B
模型参数
38.0亿
上下文长度
4K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
4K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2024-04-23
模型文件大小
7.6GB
MoE架构
否
总参数 / 激活参数
38.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Microsoft Azure
查看发布机构详情 模型解读
微软发布的第三代Phi模型。Phi系列是微软开发的小规模参数语言模型,在30亿及以下的参数规模中,表现亮眼。
这里的Phi-3-mini-3.8B是第三代Phi模型中最小的版本,参数规模38亿。但是在MMLU等评测上结果非常亮眼。
Phi-3-mini-3.8B模型采用了transformer的decoder架构,默认上下文长度是4K,采用了和Llama-2类似的block结构,使用同样的tokenizer,词汇表大小为32064。因此,任何为Llama2开发的工具套件几乎可以直接应用在phi-3-mini上,这个模型训练数据量达到了3.3万亿tokens。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
