IQuest-Coder-V1-40B-Instruct
IQuest-Coder-V1-40B-Instruct is an AI model published by iquestlab, released on 2026-01-01, for 编程大模型, with 400.0B parameters, and 128K tokens context length, requiring about 79.6GB storage, under the Modified MIT License license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
IQuest-Coder-V1-40B-Instruct 是 IQuestLab 发布的 IQuest-Coder-V1 代码大模型系列中的指令优化版本,面向通用编程问答、代码生成、代码理解与工程辅助等场景。官方将该系列定位为面向“自主软件工程(autonomous software engineering)”与“代码智能(code intelligence)”任务的开源代码模型家族。
该系列的核心训练思路被描述为 code-flow multi-stage training:相较只学习静态代码快照,训练会显式利用代码库演化过程(例如提交历史与变更轨迹)来学习更贴近真实开发流程的“动态代码逻辑”。在后训练阶段,官方将系列模型分为两条主要路径:其一是偏通用指令跟随与编码助手体验的 Instruct 线;其二是面向复杂问题分解与更强推理过程的 Thinking 线(本条目为 Instruct 线)。
架构与技术规格方面,官方描述该系列原生支持 128K 上下文窗口,并采用 Grouped Query Attention (GQA) 以提升推理效率;词表规模为 76,800。在工程使用上,模型卡提示该系列使用 Hugging Face 的 auto_map 自定义建模代码,建议使用 transformers>=4.52.4 进行加载与推理。
性能与评测方面,官方在仓库与模型卡中给出了该系列在若干代码基准上的公开成绩,包括 SWE-Bench Verified(81.4%)、BigCodeBench(49.9%)与 LiveCodeBench v6(81.1%)。这些结果用于说明其在代理式软件工程、竞赛编程与复杂工具使用等维度的覆盖范围(具体对比对象与评测设置以官方材料为准)。
应用场景与限制方面,官方材料强调:模型生成的代码不会被自动执行,工程使用需在隔离/沙箱环境中验证;在高专业或私有框架场景下效果可能波动;同时模型可能生成“看似合理但不正确”的实现,关键逻辑应进行充分测试与审阅。
访问方式与许可方面,本模型已在 Hugging Face 发布权重并提供 Transformers 方式加载;官方 GitHub 仓库提供技术报告(Technical Report)与使用说明。许可证在公开页面上以项目自定义/变体形式呈现,落库字段按你系统可选项填为“Modified MIT License”。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
