DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
Tools
语言中文

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客列表/
  3. 博客详情

HumanEval评测接近GPT-4-Turbo!阿里巴巴开源70亿参数编程大模型CodeQwen1.5-7B!

2024/04/17 21:37:43
2,212 阅读
CodeQwenCodeQwen1.5-7B编程大模型

编程大模型是当前大语言模型里面最重要的一类。一般是基础大模型在预训练之后,加入代码数据集继续训练得到。在代码补全、代码生成方面一般强于常规的大语言模型。阿里最新开源的70亿参数大模型CodeQwen1.5-7B在HumanEval评测结果上超过了GPT-4早期版本(GPT-4发布的技术报告),表现异常地好!

CodeQwen1.5-7B编程大模型详解
CodeQwen1.5-7B编程大模型详解
  • CodeQwen1.5-7B模型简介
  • CodeQwen1.5-7B-Chat在HumanEval评测上超过了GPT-4
  • CodeQwen1.5-7B在现实复杂任务的评测结果
  • CodeQwen1.5-7B模型的超长上下文
  • CodeQwen1.5-7B模型开源情况

CodeQwen1.5-7B模型简介

千问系列大语言模型是阿里巴巴开源的一系列大模型。最新的Qwen1.5系列是Qwen2的beta版本,比第一代的Qwen模型提升很多。由于开源协议友好,能力强大在开源领域受到非常广泛的关注。

此前,Qwen1.5系列主要是不同参数规模的大语言模型(参考:重磅!第二代通义千问大模型开源,阿里巴巴一口气开源了30个不同参数规模的模型,其中Qwen1.5-72B仅次于GPT-4.)。这次开源的CodeQwen1.5-7B是千问系列首个针对编程优化的大语言模型,参数规模70亿。尽管参数量不大,但是评测结果表现非常优秀。

CodeQwen1.5-7B在大约3万亿tokens数据集上进行了预训练(官方说是代码相关数据集,但是没有披露详情)。支持92种编程语言以及超长上下文(64K)。

CodeQwen1.5-7B分为两个版本,一个是基础的预训练模型CodeQwen1.5-7B,一个是在此基础上做了聊天优化的版本,即Qwen1.5-7B-Chat,后者在各项评测数据上的得分大幅提高(按照目前业界类似的做法,应该是在类似评测格式的数据集上做了微调,注意只是格式类似,不是原始数据)。

CodeQwen1.5-7B-Chat在HumanEval评测上超过了GPT-4

HumanEval是一个用于评估大模型编程性能的基准测试,HumanEval 包括各种不同的编程问题,如算法数据结构、字符串处理、数学问题等。这个数据集由OpenAI创建,是当前评估大模型编程性能最主要的基准之一。

MBPP是由Google Research创建的另一个大模型编程能力评测基准,包含1000个唯一的编程问题,覆盖了各种类型和难度的问题,从简单的字符串操作到复杂的算法问题。

在这两个评测基准上,CodeQwen1.5-7B表现都都非常亮眼。基座模型版本CodeQwen1.5-7B在同等参数规模的模型上得分最高,如下表所示:

模型名称参数规模HumanEvalHumanEval+MBPPMBPP+MBPP(3-shot)
CodeLlama-Base70亿33.525.652.141.638.6
StarCoder270亿35.429.954.445.651.0
DeepSeek-Coder-Base67亿47.639.670.256.660.6
CodeQwen1.570亿51.845.772.260.261.8

而CodeQwen1.5-7B-Chat版本的HumanEval得分甚至超过了GPT-4早期版本,比GPT-4-Turbo(2023年11月版本)略低。

模型名称参数规模HumanEvalHumanEval+MBPPMBPP+MBPP(3-shot)
GPT-3.5-Turbo-76.870.782.569.770.8
GPT-4-Turbo (Nov 2023)-85.481.783.570.780.0
DeepSeek-Coder-Instruct67亿78.670.173.263.465.4
CodeQwen1.5-Chat70亿83.578.777.767.270.6

不过MBPP相对困难一点点,与GPT-4-Turbo差距还是很明显的。

在DataLearnerAI收集大模型评测数据上,CodeQwen1.5-7B甚至排到了全球第三(按照HumanEval排序)。

CodeQwen1.5-7B的编程水平全球排名
CodeQwen1.5-7B的编程水平全球排名
数据来源:https://www.datalearner.com/ai-models/llm-coding-evaluation

而这个分数超过了Gemini-ultra!

CodeQwen1.5-7B在现实复杂任务的评测结果

上述两类大模型评测基准是常规的评测。通过类似的评测数据集微调是可以提升模型的针对性评测结果的。而在真实的编程数据中,要复杂的多。这里Qwen官方团队也公开了它在LiveCodeBench上的评测结果。

LiveCodeBench的目的是做无污染的评测,收集最新的LeetCode等编程题目用以评测,所以相对更难针对性训练。这个平常的结果可以看出,CodeQwen1.5-7B的表现没那么靠前,但是以70亿参数规模来看,依然是非常优秀。

排在CodeQwen1.5-7B模型前面的模型都在300亿参数规模以上,且大多数是闭源模型,而它的得分是明显超过MetaAI开源的CodeLlama-34B的!后者的参数规模是340亿。

CodeQwen1.5-7B模型的超长上下文

编程大模型如果可以支持超长上下文的输入和输出会大大提高编程大模型的应用水平。

Qwen1.5-7B的最高输入达到了64K,在70亿参数规模的大模型上非常少见。下图是Qwen团队收集的GitHub一些高质量代码仓测试的Qwen1.5-7B的困惑度指标结果。

大模型的困惑度(Perplexity)是评估语言模型性能的一种指标,用于量化模型对样本数据的处理能力。困惑度的计算基于模型对测试集中单词序列的概率估计。困惑度指标越低越好。随着输入序列的增长CodeQwen1.5-7B依然能保持下降,说明在长序列上依然效果不错。与DeepSeek-Coder-6.7B模型在“大海捞针”测试中对比更加明显:

CodeQwen1.5-7B模型开源情况

如前所述,CodeQwen1.5-7B模型分为基础预训练版本和Chat版本。同时官方还开源了Chat的量化版本,一个是GGUF格式,一个是AWQ格式。以通义千问大模型的社区协议开源,可以免费商用!

具体开源信息参考: https://www.datalearner.com/ai-models/pretrained-models/CodeQwen1_5-7B-Chat

https://www.datalearner.com/ai-models/pretrained-models/CodeQwen1_5-B

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • 阿里开源Qwen3-Coder-Next:专为Agentic Coding而生的80B MoE的编程大模型,激活参数仅3B!
  • MiniMaxAI开源MiniMax M2模型:Artificial Analysis评测显示综合智能得分超过Claude Opus 4.1,开源第一,全球第五。
  • 阿里开源全新编程大模型Qwen3-Coder-480B-A35B,官方宣称其编程水平接近Claude Sonnet 4,免费开源可商用,同时开源Claude Code免费平替选择Qwen Code
  • MistralAI发布全新编程大模型:24B开源Devstral Small 1.1在SWE-Bench Verified评分超过旧版DeepSeek R1,编程大模型新的替代
  • 全球首个AI软件工程师问世:可以自己训练微调大模型的AI软件工程师Devin简介
  • StarCoder2发布,开源编程大模型又一个强大选择!
  • MetaAI官宣开源编程大模型CodeLLaMA!基于LLaMA2微调!超越OpenAI的Codex,最高支持10万tokens输入!
  • Meta即将推出开源的CodeLLaMA:一种新的编程AI模型

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署