Ziya-LLaMA-13B-v1 - Ziya-LLaMA-13B-v1

模型详细情况和参数

Ziya-LLaMA-13B-v1

模型全称
Ziya-LLaMA-13B-v1
模型简称
Ziya-LLaMA-13B-v1
模型类型
基础大模型
发布日期
2023-05-16
预训练文件大小
26
是否支持中文(中文优化)
最高支持的上下文长度
4K
模型参数数量(亿)
130.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
开源不可商用 - 不可以商用
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
暂无
基础模型
...
LLaMA
查看详情
发布机构

Ziya-LLaMA-13B-v1 简介

姜子牙通用大模型V1是基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Ziya-LLaMA-13B-v1所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Ziya-LLaMA-13B-v1相关的任务
问答系统

问答系统

Question Answering

35个资源