Kimi K2.6
Kimi K2.6 是由 Moonshot AI 发布的 AI 模型,发布时间为 2026-04-20,定位为 推理大模型,参数规模约为 10000.0B,上下文长度为 256K,采用 Modified MIT 许可。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
Kimi K2.6是由月之暗面(Moonshot AI)于2026年4月20日正式发布并开源的原生多模态Agent模型。该模型是K2系列的第三次重大迭代,继K2.5(2026年1月)之后推出的升级版本[reference:0][reference:1]。其核心演进方向已从单纯追求模型性能提升,转向构建具备任务接管、流程编排与多Agent协同能力的系统级架构,目标定位为Agent的操作系统(OS)[reference:2]。与上一代K2.5相比,K2.6在代码能力上提升约20%,Agent Swarm规模从100个子Agent/1500步扩展至300个子Agent/4000步[reference:3][reference:4]。
Kimi K2.6延续了K2.5的混合专家(MoE)架构,总参数量为1万亿(1T),每个token激活的参数量为320亿(32B)[reference:5][reference:6]。模型包含61层(其中1层为Dense层),共384个专家,每token激活8个专家,另含1个始终处于激活状态的共享专家[reference:7][reference:8]。注意力机制采用多头潜在注意力(MLA),激活函数为SwiGLU,注意力隐藏维度7168,MoE专家隐藏维度2048,注意力头数为64[reference:9][reference:10]。上下文窗口为256K tokens(从K2.5的128K升级而来),词表大小160K[reference:11][reference:12]。视觉方面,K2.6原生支持多模态,搭载MoonViT视觉编码器(参数量400M),原生支持图像和视频输入[reference:13][reference:14]。模型部署推荐使用vLLM、SGLang或KTransformers,需transformers版本≥4.57.1、<5.0.0[reference:15]。训练数据的具体构成官方未公开披露。
模态支持:Kimi K2.6是原生多模态模型,支持文本、图像、视频的输入理解,但不具备图像/视频的生成输出能力[reference:16][reference:17]。
长程编码(Long-Horizon Coding):支持跨语言泛化(Rust、Go、Python等)和跨领域任务(前端开发、DevOps、性能优化)。在官方实测中,K2.6在Mac上使用Zig语言持续优化推理流程12小时、完成4000余次工具调用,吞吐量从约15 tokens/s提升至193 tokens/s;另一案例中自主重构8年历史的开源金融撮合引擎exchange-core,耗时13小时、修改超过4000行代码,中值吞吐提升185%[reference:18][reference:19]。
代码驱动设计(Coding-Driven Design):支持从单条prompt生成带动效的前端界面、调用图像/视频生成工具输出视觉素材,以及覆盖登录、数据库等基础全栈功能[reference:20]。
Agent集群(Agent Swarm):支持横向扩展到300个子Agent并行协同执行4000个协调步骤,K2.6负责全局调度与任务失败后的自动重分配[reference:21]。
主动式编排(Proactive Orchestration):可驱动7×24小时后台运行的自主Agent,主动管理日程、执行代码、跨平台操作。月之暗面RL基础设施团队使用K2.6驱动的Agent已连续自主运行5天,负责监控、故障响应和系统运维[reference:22]。
在编程与Agent任务评测中,K2.6的表现如下:
在内部基准Kimi Code Bench上,K2.6较K2.5有显著提升[reference:28]。据CodeBuddy内测数据,工具调用成功率达96.60%;factory.ai独立评估显示K2.6整体较K2.5提升约15%[reference:29]。在纯数学和推理能力方面,K2.6相对闭源模型仍有一定差距:AIME 2026得分96.4%(GPT-5.4为99.2%),GPQA-Diamond得分落后Gemini 3.1 Pro约2—4分[reference:30]。
推荐用例:(1)复杂软件工程项目的长期编码与重构;(2)需要多Agent并行协作的批处理任务(如批量生成简历、网页);(3)全栈应用开发与前端界面设计生成;(4)7×24小时自动化运维与系统监控;(5)需要视觉理解的多模态任务(如UI识别、代码驱动的视觉创作)。
已知局限:(1)纯数学推理任务(如AIME 2026)中与GPT-5.4等闭源模型仍有2—4分差距[reference:31];(2)GPQA-Diamond等深度推理基准中落后于Gemini 3.1 Pro约2—4分[reference:32];(3)Toolathlon(50.0)和MCPMark(55.9)等工具调用测试中低于GPT-5.4[reference:33];(4)视觉理解能力整体落后于GPT-4.5[reference:34]。
Kimi K2.6已上线Kimi.com官网、最新版Kimi应用、Kimi API和Kimi Code编程助手,所有用户均可使用[reference:35]。模型权重已在Hugging Face开源,采用Modified MIT License(修改版MIT许可)——允许免费用于一般用途,但对于月活用户超过1亿或年收入超过2000万美元的企业,需在界面中明确标注“Kimi K2.6”[reference:36][reference:37]。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
