加载中...
InternLM2-Base-7B
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
上海人工智能实验室最新开源的大语言模型,是InternLM系列模型的第二代,相比较第一代模型,上下文长度最长扩展到200K,综合性能上升明显。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送