IQuest-Coder-V1-40B-Loop-Instruct
IQuest-Coder-V1-40B-Loop-Instruct is an AI model published by iquestlab, released on 2026-01-01, for 编程大模型, with 400.0B parameters, and 128K tokens context length, requiring about 79.6GB storage, under the Modified MIT License license.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
IQuest-Coder-V1-40B-Loop-Instruct 是 IQuestLab 发布的 IQuest-Coder-V1 代码大模型系列中的 Loop 架构指令版本,面向通用编码助手、代码生成与代码理解等任务。官方将 IQuest-Coder-V1 描述为面向自主软件工程与代码智能的开源代码模型家族。
训练范式方面,该系列被描述为 code-flow multi-stage training:训练过程中不仅关注静态代码本身,也关注代码库的演化过程(如提交历史与变更轨迹),以学习更贴近真实开发流程的动态软件逻辑。后训练阶段官方区分 Instruct 与 Thinking 两条路径;本条目为 Instruct 路径。
Loop 架构特点方面,官方材料称 Loop 变体引入循环/递归式机制(recurrent mechanism / looped design,并提到共享参数的多次迭代计算),用于优化“模型容量—部署体量”的权衡,从而在相同标称参数规模下改善部署与推理侧的效率/成本表现(具体实现细节以官方技术报告为准)。
架构与技术规格方面,官方描述该系列原生支持 128K 上下文窗口,并采用 Grouped Query Attention (GQA);词表规模为 76,800。工程使用上,模型卡提示该系列依赖 Hugging Face 的 auto_map 自定义建模代码,并建议使用 transformers>=4.52.4 进行加载与推理。
性能与评测方面,官方在仓库/模型卡中给出该系列在多个代码基准上的公开成绩(例如 SWE-Bench Verified 81.4%、BigCodeBench 49.9%、LiveCodeBench v6 81.1%),用于展示其在代理式软件工程、竞赛编程与复杂工具使用等维度的覆盖能力(评测设置与对比口径以官方材料为准)。
应用场景与限制方面,官方材料强调:模型生成代码不会自动执行,需在隔离环境中验证;在高度专业或私有框架场景下表现可能波动;模型也可能生成“看似合理但不正确”的实现,关键逻辑应进行充分测试与审阅。
访问方式与许可方面,本模型已在 Hugging Face 发布权重并提供 Transformers 方式加载;官方 GitHub 仓库提供技术报告与使用说明。许可证在公开页面上以项目自定义/变体形式呈现,落库字段按你系统可选项填为“Modified MIT License”。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
