Phi-4-mini-reasoning
发布时间: 2025-04-30
支持
128K tokens
32768 tokens
推理大模型
2025-04-30
7.76GB
输入支持
输入不支持
输入不支持
输入不支持
输入不支持
输出支持
输出不支持
输出不支持
输出不支持
输出不支持
Phi-4-Mini-Reasoning是微软最新开源的推理大模型,参数38亿。本次微软开源的Phi-4推理版包含3个不同的版本,分别是Phi-4-reasoning(140亿参数)、Phi-4-reasoning-plus(增强版140亿参数模型)和Phi-4-Mini-Reasoning(38亿参数)。Phi-4-Mini-Reasoning是其中参数规模最小的版本。
Phi-4-Mini-Reasoning采用Transformer架构,专为数学推理任务进行了优化。该模型代表了小型语言模型(SLM)在复杂推理任务上的重大突破,通过精心设计的训练流程,使得模型尽管规模较小,却能够在推理性能上媲美甚至超越参数量高出近一倍的模型。
根据微软发布的技术报告,Phi-4-Mini-Reasoning的训练采用了一个四阶段的系统性训练配方:
该模型训练过程采用了多项创新技术来提高稳定性:
Phi-4-Mini-Reasoning训练使用了超过100万个多样化数学问题,涵盖从中学到博士级别的难度。训练数据来源包括:
特别值得注意的是,模型采用了Deepseek-R1模型生成的合成训练数据,并进行了严格的验证筛选,确保推理链的质量。
在数学推理基准测试中,Phi-4-Mini-Reasoning的表现令人瞩目:
这些成绩超越了参数量接近两倍的多个开源推理模型,包括DeepSeek-R1-Distill-Qwen-7B和DeepSeek-R1-Distill-Llama-8B。特别值得注意的是,模型在美国数学奥林匹克2025年资格赛AIME 2025测试上的表现优于拥有6710亿参数的DeepSeek-R1完整模型。
作为一个紧凑型推理模型,Phi-4-Mini-Reasoning特别适合于:
微软计划将其优化并集成到Copilot+ PC的NPU上运行,成为Windows 11生态系统的一部分,为Click to Do等核心体验提供支持,并作为开发者API提供给应用程序集成。
Phi-4-Mini-Reasoning的成功表明,通过精心设计的训练流程和数据选择策略,小型模型能够在推理任务上达到甚至超越更大模型的能力。这一突破为资源受限环境下开发高性能AI应用程序提供了新的可能性,代表了小型语言模型领域的重要进步。
该模型目前已在Azure AI Foundry和HuggingFace平台上提供,开发者可以直接访问并使用这一强大的小型推理模型。
关注DataLearnerAI微信公众号,接受最新大模型资讯