加载中...
Yi-6B-200K
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
Yi-6B-200K是零一万物开源的60亿参数规模版本的大语言模型,最大的特点是支持200K tokens的上下文长度。是迄今为止开源模型中上下文长度支持最高的模型。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送