Phi-3-medium 14B-preview - Phi-3-medium 14B-preview

模型详细情况和参数

Phi-3-medium 14B-preview

模型全称
Phi-3-medium 14B-preview
模型简称
Phi-3-medium 14B-preview
模型类型
基础大模型
发布日期
2024-04-23
预训练文件大小
28GB
是否支持中文(中文优化)
最高支持的上下文长度
4K
模型参数数量(亿)
140.0
模型代码开源协议
MIT License
预训练结果开源商用情况
MIT License - 免费商用授权
模型GitHub链接
暂无
模型HuggingFace链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

Phi-3-medium 14B-preview 简介

微软发布的第三代Phi模型。Phi系列是微软开发的小规模参数语言模型,在30亿及以下的参数规模中,表现亮眼。前两代模型都在30亿参数规模,第三代模型最高参数量达到140亿。


这里的Phi-3-meidum-14B是第三代Phi模型中最大的一个版本,参数规模140亿。架构与最小的Phi-3-mini-3.8B相同,tokenizer是byte-level Byte-Pair Encoding,BPE。


与Phi-3-mini相比,这个模型训练的epoch更多,训练的数据量和Phi-3-small一样,达到4.9万亿tokens。


官方的技术报告说这个模型比Phi-3-small-7B的提升不如Phi-3-small-7B相比Phi-3-mini-3.8B提升多。作者认为可能是数据问题,所以后面他们还会改进,因此,把这个Phi-3-medium-14B称为preview版本。


Phi-3三个版本模型对比总结如下表:

模型版本Phi3-miniPhi3-smallPhi3-medium
参数规模38亿70亿140亿
上下文长度4K8K4K
词汇表数量32K100K32K
tokenizerBPEtiktokenBPE
训练数据量3.8万亿4.8万亿4.8万亿

注意,这里的BPE全称就是byte-level Byte-Pair Encoding。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Phi-3-medium 14B-preview所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Phi-3-medium 14B-preview相关的任务
问答系统

问答系统

Question Answering

35个资源