InternLM2-Base-20B
InternLM2-Base-20B
模型参数
200.0亿
上下文长度
200K
中文支持
支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
200K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2024-01-17
模型文件大小
40GB
MoE架构
否
总参数 / 激活参数
200.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
预训练权重开源
免费商用授权- 免费商用授权
GitHub 源码
在线体验
暂无在线体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
上海人工智能实验室
查看发布机构详情 模型解读
上海人工智能实验室最新开源的大语言模型,是InternLM系列模型的第二代,相比较第一代模型,上下文长度最长扩展到200K,综合性能上升明显。
InternLM2-Base-20B是其200亿参数的基座模型,与Yi-34B模型水平差不多,在MMLU评测上得分接近GPT-3.5。
| 评测数据集 | InternLM2-7B | InternLM2-Chat-7B | InternLM2-20B | InternLM2-Chat-20B | ChatGPT | GPT-4 |
|---|---|---|---|---|---|---|
| MMLU | 65.8 | 63.7 | 67.7 | 66.5 | 69.1 | 83.0 |
| AGIEval | 49.9 | 47.2 | 53.0 | 50.3 | 39.9 | 55.1 |
| BBH | 65.0 | 61.2 | 72.1 | 68.3 | 70.1 | 86.7 |
| GSM8K | 70.8 | 70.7 | 76.1 | 79.6 | 78.2 | 91.4 |
| MATH | 20.2 | 23.0 | 25.5 | 31.9 | 28.0 | 45.8 |
| HumanEval | 43.3 | 59.8 | 48.8 | 67.1 | 73.2 | 74.4 |
| MBPP(Sanitized) | 51.8 | 51.4 | 63.0 | 65.8 | 78.9 | 79.0 |
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
