OpenChat-8192 - OpenChat-8192

模型详细情况和参数

OpenChat-8192

模型全称
OpenChat-8192
模型简称
OpenChat-8192
模型类型
聊天大模型
发布日期
2023-07-02
预训练文件大小
26GB
是否支持中文(中文优化)
最高支持的上下文长度
8K
模型参数数量(亿)
130.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
开源不可商用 - 不可以商用
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
...
LLaMA
查看详情
发布机构

OpenChat-8192 简介

OpenChat是一系列开源语言模型,在多轮对话的多样化和高质量数据集上进行了微调。OpenChat仅从约90K个ShareGPT会话中筛选出约6K个GPT-4会话,旨在用有限的数据实现高性能。


OpenChat-8192是基于LLaMA 13B模型微调后得到的,但是将上下文长度的限制拓展到了8K,即8192个tokens(原始LLaMA只支持2K的上下文长度的输入)。OpenChat-8192在Vicuna GPT-4测试中超过了ChatGPT。在AlpacaEval测试中获得了79.5分。比OpenChat略低。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

OpenChat-8192所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

OpenChat-8192相关的任务
问答系统

问答系统

Question Answering

35个资源