Phi-3-mini 3.8B - Phi-3-mini 3.8B

模型详细情况和参数

Phi-3-mini 3.8B

模型全称
Phi-3-mini 3.8B
模型简称
Phi-3-mini 3.8B
模型类型
基础大模型
发布日期
2024-04-23
预训练文件大小
7.6GB
是否支持中文(中文优化)
最高支持的上下文长度
4K
模型参数数量(亿)
38.0
模型代码开源协议
MIT License
预训练结果开源商用情况
MIT License - 免费商用授权
模型GitHub链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型
发布机构

Phi-3-mini 3.8B 简介

微软发布的第三代Phi模型。Phi系列是微软开发的小规模参数语言模型,在30亿及以下的参数规模中,表现亮眼。

这里的Phi-3-mini-3.8B是第三代Phi模型中最小的版本,参数规模38亿。但是在MMLU等评测上结果非常亮眼。

Phi-3-mini-3.8B模型采用了transformer的decoder架构,默认上下文长度是4K,采用了和Llama-2类似的block结构,使用同样的tokenizer,词汇表大小为32064。因此,任何为Llama2开发的工具套件几乎可以直接应用在phi-3-mini上,这个模型训练数据量达到了3.3万亿tokens。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Phi-3-mini 3.8B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Phi-3-mini 3.8B相关的任务
问答系统

问答系统

Question Answering

35个资源