DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Page navigation
目录
Model catalogKimi k1.5 (Long-CoT)
KI

Kimi k1.5 (Long-CoT)

Kimi k1.5 (Long-CoT)

Release date: 2025-01-22更新于: 2025-02-15 19:46:44811
Live demoGitHubHugging FaceCompare
Parameters
Not disclosed
Context length
128K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

Kimi k1.5 (Long-CoT)

Model basics

Reasoning traces
Supported
Thinking modes
Thinking modes not supported
Context length
128K tokens
Max output length
No data
Model type
推理大模型
Release date
2025-01-22
Model file size
No data
MoE architecture
No
Total params / Active params
No data / N/A
Knowledge cutoff
No data
Kimi k1.5 (Long-CoT)

Open source & experience

Code license
不开源
Weights license
不开源- 不开源
GitHub repo
https://github.com/MoonshotAI/Kimi-k1.5
Hugging Face
Hugging Face link unavailable
Live demo
No live demo
Kimi k1.5 (Long-CoT)

Official resources

Paper
Kimi k1.5: Scaling Reinforcement Learning with LLMs
DataLearnerAI blog
No blog post yet
Kimi k1.5 (Long-CoT)

API details

API speed
No data
No public API pricing yet.
Kimi k1.5 (Long-CoT)

Benchmark Results

Thinking

数学推理

1 evaluations
Benchmark / mode
Score
Rank/total
MATH-500
default
96.20
18 / 42
查看评测深度分析与其他模型对比
Kimi k1.5 (Long-CoT)

Publisher

普林斯顿大学
普林斯顿大学
View publisher details
Kimi k1.5 (Long-CoT)

Model Overview

Kimi 1.5是月之暗面(Kimi)团队发布的多模态推理大语言模型,致力于提升推理能力。Kimi 1.5分为多个版本,其中Long-CoT(长链式推理)版本专注于深度推理和复杂任务解决,能够处理需要长时间思考的推理任务。

Long-CoT模型特点

Kimi 1.5 Long-CoT版本通过扩展上下文窗口和强化学习技术,能够处理更加复杂的推理任务。相比Short-CoT模型,Long-CoT能够在更长的上下文中进行推理,适用于需要多个推理步骤的复杂问题。

  1. 深度推理能力:通过长上下文窗口(最大128k tokens)和强化学习,Long-CoT模型可以深入分析复杂问题并生成多步骤推理,适用于难度较高的推理任务。
  2. 多模态协同:该模型不仅处理文本数据,还可以处理视觉数据,适应图文结合的任务,能够在多模态场景中进行深度推理,如MathVista和MMMU等任务。
  3. 优化推理策略:引入了在线镜像下降等优化技术,使得模型在复杂任务中依然保持高效的推理能力,不依赖于传统的复杂推理技术,如蒙特卡洛树搜索。

基准测试结果

Kimi 1.5 Long-CoT在多个基准测试中表现出色,尤其在处理需要深度推理的任务时,展现了强大的能力:

  • MATH-500:得分96.2,在数学推理任务中表现卓越。
  • AIME 2024:Pass@1得分77.5,在数学挑战中领先。
  • Codeforces:94th percentile,在编程任务中展现了强大的问题解决能力。

与其他模型如GPT-4o和Claude 3.5相比,Kimi 1.5 Long-CoT在复杂推理任务上表现更好,尤其在多步骤问题解决和长链式推理能力上具有优势。

应用前景

由于其强大的推理能力,Kimi 1.5 Long-CoT非常适合用于需要深度推理和多步骤分析的场景,如:

  • 高难度数学和逻辑推理:例如学术研究、数据分析等领域。
  • 复杂编程任务:解决编程中的挑战性问题,适用于AI辅助开发工具。
  • 跨模态推理:结合图像和文本的复杂任务,如视觉推理和图文问答。

结语

Kimi 1.5 Long-CoT通过扩展上下文窗口和优化推理策略,极大地提升了模型处理复杂任务的能力。其在多模态推理、深度分析和复杂问题解决方面的优势,使其成为未来高难度推理任务的理想选择。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码