DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
页面导航
大模型列表InternLM Chat 7B 8K
IN

InternLM Chat 7B 8K

聊天大模型

InternLM Chat 7B 8K

发布时间: 2023-06-03更新于: 2023-08-24 15:49:39.452580
在线体验GitHubHugging FaceCompare
模型参数
70亿
上下文长度
8K
中文支持
支持
推理能力

InternLM Chat 7B 8K 是由 上海人工智能实验室 发布的 AI 模型,发布时间为 2023-06-03,定位为 聊天大模型,参数规模约为 70.0B,上下文长度为 8K,模型文件大小约 14.5GB,采用 免费商用授权 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

InternLM Chat 7B 8K

模型基本信息

推理过程
不支持
思考模式
不支持思考模式
上下文长度
8K tokens
最大输出长度
暂无数据
模型类型
聊天大模型
发布时间
2023-06-03
模型文件大小
14.5GB
MoE架构
否
总参数 / 激活参数
70 亿 / 不涉及
知识截止
暂无数据
InternLM Chat 7B 8K

开源和体验地址

代码开源状态
Apache 2.0
预训练权重开源
免费商用授权
GitHub 源码
https://github.com/InternLM/InternLM
Hugging Face
https://huggingface.co/internlm/internlm-chat-7b-8k
在线体验
暂无在线体验地址
InternLM Chat 7B 8K

官方介绍与博客

官方论文
InternLM: A Multilingual Language Model with Progressively Enhanced Capabilities
DataLearnerAI博客
暂无介绍博客
InternLM Chat 7B 8K

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
InternLM Chat 7B 8K

评测结果

当前尚无可展示的评测数据。

和其他模型对比

暂时没有为该模型整理的相关对比页面。

想自定义其他组合?打开对比工具

InternLM Chat 7B 8K

发布机构

上海人工智能实验室
上海人工智能实验室
查看发布机构详情
InternLM Chat 7B 8K

模型解读

InternLM是由上海AI实验室、商汤科技、香港中文大学、上海交通大学一起发布的一个支持中文的多语言大模型。该模型在1.6万亿tokens上训练得到。


InternLM在多个方面都取得了很好的效果,包括只是理解、阅读理解、数学、编码等。根据官方的描述,InternLM比开源模型好很多,甚至好于ChatGPT!


更重要的是,InternLM对中文的支持很好,也非常理解中国文化。


下图是与当前著名大模型的对比,可以看到,InternLM基本上是除了GPT-4外最好的模型!


InternLM模型在AGIEval上的测试结果:


DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码