IN

InternLM2-Base-20B

InternLM2-Base-20B

发布时间: 2024-01-17556
模型参数
200.0亿
上下文长度
200K
中文支持
支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
200K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2024-01-17
模型文件大小
40GB
MoE架构
总参数 / 激活参数
200.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
预训练权重开源
免费商用授权- 免费商用授权
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

上海人工智能实验室
查看发布机构详情

模型解读

上海人工智能实验室最新开源的大语言模型,是InternLM系列模型的第二代,相比较第一代模型,上下文长度最长扩展到200K,综合性能上升明显。


InternLM2-Base-20B是其200亿参数的基座模型,与Yi-34B模型水平差不多,在MMLU评测上得分接近GPT-3.5。


评测数据集InternLM2-7BInternLM2-Chat-7BInternLM2-20BInternLM2-Chat-20BChatGPTGPT-4
MMLU65.863.767.766.569.183.0
AGIEval49.947.253.050.339.955.1
BBH65.061.272.168.370.186.7
GSM8K70.870.776.179.678.291.4
MATH20.223.025.531.928.045.8
HumanEval43.359.848.867.173.274.4
MBPP(Sanitized)51.851.463.065.878.979.0


DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码