Qwen2.5-72B
Qwen2.5-72B 是由 阿里巴巴 发布的 AI 模型,发布时间为 2024-09-18,定位为 基础大模型,参数规模约为 727.0B,上下文长度为 128K,模型文件大小约 144GB,采用 Qwen License 许可。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
Qwen2.5-72B 当前已收录的代表性评测结果包括 TruthfulQA(1 / 4,得分 60.40)、MBPP(7 / 28,得分 84.70)、GSM8K(11 / 26,得分 91.50)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。
阿里开源的Qwen2.5系列模型中参数量最大的一个版本,720亿参数规模。其评测效果超过了MetaAI开源的同等参数规模的Llama-3-70B。产品月活低于1亿的商业应用是免费的。
720亿参数规模的Qwen2.5包含了多个版本,除了基座版本外,官方也开源了量化版本以及不同的指令微调版本,其结果如下:
| Qwen2.5-72B版本 | 版本简介 | HuggingFace开源地址 |
|---|---|---|
| Qwen2.5-72B | 720亿参数规模的基座版本 | https://huggingface.co/Qwen/Qwen2.5-72B |
| Qwen2.5-72B-Instruct | 指令微调版本 | https://huggingface.co/Qwen/Qwen2.5-72B-Instruct |
Qwen2.5-72B-Instruct-AWQ | AWQ的4bit量化版本的指令微调Qwen2.5 | https://huggingface.co/Qwen/Qwen2.5-72B-Instruct-AWQ |
| Qwen2.5-72B-Instruct-GPTQ | GPTQ量化版本的指令微调Qwen2.5,包含不同的量化水平 | Int8: https://huggingface.co/Qwen/Qwen2.5-72B-Instruct-GPTQ-Int8 Int4: https://huggingface.co/Qwen/Qwen2.5-72B-Instruct-GPTQ-Int4 |
| Qwen2.5-72B-Instruct-GGUF | GGUF量化格式版本 | https://huggingface.co/Qwen/Qwen2.5-72B-Instruct-GGUF |
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
