ChatGLM2-6B - Chat General Language Model 2 - 6B

模型详细情况和参数

ChatGLM2-6B

模型全称
Chat General Language Model 2 - 6B
模型简称
ChatGLM2-6B
模型类型
聊天大模型
发布日期
2023-06-25
预训练文件大小
12GB
是否支持中文(中文优化)
最高支持的上下文长度
32K
模型参数数量(亿)
62.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
ChatGLM2-6B Model License - 免费商用授权
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
发布机构

Chat General Language Model 2 - 6B 简介

关于ChatGLM2-6B的详细介绍可以参考: https://www.datalearner.com/blog/1051687694704581 


ChatGLM2-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)发布的ChatGLM-6B模型的第二代。于2023年6月25日发布。


相比较第一代的ChatGLM-6B,ChatGLM2-6B模型的性能更加强大,并支持更长的上下文。


ChatGLM2-6B 使用了 Multi-Query Attention,提高了生成速度。生成 2000 个字符的平均速度对比如下

Model推理速度 (字符/秒)
ChatGLM-6B31.49
ChatGLM2-6B44.62


ChatGLM2-6B的推理显存需求:

量化等级编码 2048 长度的最小显存生成 8192 长度的最小显存
FP16 / BF1613.1 GB12.8 GB
INT88.2 GB8.1 GB
INT45.5 GB5.1 GB


ChatGLM2-6B模型的预训练文件下载地址

HuggingFace地址: https://huggingface.co/THUDM/chatglm2-6b/tree/main 

清华大学云盘地址: https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/ 


注意,所有的bin文件都要下载,而且config.json也要下载,这个文件只能在HuggingFace上下载,缺少这个文件会报配置错误。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

ChatGLM2-6B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

ChatGLM2-6B相关的任务
问答系统

问答系统

Question Answering

35个资源