PH

Phi-3-medium 14B-preview

Phi-3-medium 14B-preview

发布时间: 2024-04-23274
模型参数
140.0亿
上下文长度
4K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
4K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2024-04-23
模型文件大小
28GB
MoE架构
总参数 / 激活参数
140.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
预训练权重开源
MIT License- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

微软发布的第三代Phi模型。Phi系列是微软开发的小规模参数语言模型,在30亿及以下的参数规模中,表现亮眼。前两代模型都在30亿参数规模,第三代模型最高参数量达到140亿。


这里的Phi-3-meidum-14B是第三代Phi模型中最大的一个版本,参数规模140亿。架构与最小的Phi-3-mini-3.8B相同,tokenizer是byte-level Byte-Pair Encoding,BPE。


与Phi-3-mini相比,这个模型训练的epoch更多,训练的数据量和Phi-3-small一样,达到4.9万亿tokens。


官方的技术报告说这个模型比Phi-3-small-7B的提升不如Phi-3-small-7B相比Phi-3-mini-3.8B提升多。作者认为可能是数据问题,所以后面他们还会改进,因此,把这个Phi-3-medium-14B称为preview版本。


Phi-3三个版本模型对比总结如下表:

模型版本Phi3-miniPhi3-smallPhi3-medium
参数规模38亿70亿140亿
上下文长度4K8K4K
词汇表数量32K100K32K
tokenizerBPEtiktokenBPE
训练数据量3.8万亿4.8万亿4.8万亿

注意,这里的BPE全称就是byte-level Byte-Pair Encoding。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码