加载中...
MPT-7B-8K
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
MPT最新的支持8K上下文长度的模型
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送