PaLM 2 - Pathways Language Model 2

模型详细情况和参数

PaLM 2

模型全称
Pathways Language Model 2
模型简称
PaLM 2
模型类型
基础大模型
发布日期
2023-05-10
预训练文件大小
未知
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
3400.0
模型代码开源协议
不开源
预训练结果开源商用情况
不开源 - 不开源
模型GitHub链接
暂无
模型HuggingFace链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
PaLM 2 Technical Report
基础模型
无基础模型
发布机构

Pathways Language Model 2 简介

-----------------------------2023年5月18日更新---------------------------------

2023年5月17日,CNBC报道了PaLM2的进一步信息。它是基于3.6万亿tokens数据训练的。而PaLM第一代的训练数据只包含了0.78万亿tokens。也就是说PaLM2的训练数据中的tokens约是PaLM的5倍。同时,PaLM2的参数约3400亿,也比前一代5400亿参数规模小很多。

参考链接: https://www.cnbc.com/2023/05/16/googles-palm-2-uses-nearly-five-times-more-text-data-than-predecessor.html 



Google发布的第二代语言模型,提升了多语言、推理和编码的能力。




Google在2023年的I/O大会上宣布了PaLM2模型。


作为PaLM的继任者,PaLM2的发布被谷歌寄予厚望。与OpenAI类似,谷歌官方没有透露很多关于模型的技术细节,虽然发布了一个92页的技术报告,但是,正文内容仅仅27页,引用和作者14页,剩余51页都是展示大量的测试结果。而前面的27页内容中也没有过多的细节描述。尽管如此,这里面依然有几个十分重要的结论供大家参考。

简要的结论如下:

  • PaLM2支持一百多种语言
  • PaLM2的模型参数比PaLM更小,但是能力更强
  • PaLM2与GPT-4相比很有竞争力
  • PaLM2有多个版本,最小的版本可以在移动端离线使用


关于PaLM2的技术分析可以参考: https://www.datalearner.com/blog/1051683818033012 





欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

PaLM 2所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

PaLM 2相关的任务
问答系统

问答系统

Question Answering

35个资源