DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表PaLM 2
PA

PaLM 2

基础大模型

Pathways Language Model 2

发布时间: 2023-05-10更新于: 2023-08-16 22:05:21.318700
在线体验GitHubHugging FaceCompare
模型参数
3400.0亿
上下文长度
2K
中文支持
不支持
推理能力

Pathways Language Model 2 是由 Google Research 发布的 AI 模型,发布时间为 2023-05-10,定位为 基础大模型,参数规模约为 3400.0B,上下文长度为 2K,采用 不开源 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

PaLM 2

模型基本信息

推理过程
不支持
思考模式
不支持思考模式
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-05-10
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
3400.0 亿 / 不涉及
知识截止
暂无数据
PaLM 2

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
PaLM 2

官方介绍与博客

官方论文
PaLM 2 Technical Report
DataLearnerAI博客
暂无介绍博客
PaLM 2

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
PaLM 2

评测结果

当前尚无可展示的评测数据。
PaLM 2

发布机构

Google Research
Google Research
查看发布机构详情
Pathways Language Model 2

模型解读

-----------------------------2023年5月18日更新---------------------------------

2023年5月17日,CNBC报道了PaLM2的进一步信息。它是基于3.6万亿tokens数据训练的。而PaLM第一代的训练数据只包含了0.78万亿tokens。也就是说PaLM2的训练数据中的tokens约是PaLM的5倍。同时,PaLM2的参数约3400亿,也比前一代5400亿参数规模小很多。

参考链接: https://www.cnbc.com/2023/05/16/googles-palm-2-uses-nearly-five-times-more-text-data-than-predecessor.html 



Google发布的第二代语言模型,提升了多语言、推理和编码的能力。




Google在2023年的I/O大会上宣布了PaLM2模型。


作为PaLM的继任者,PaLM2的发布被谷歌寄予厚望。与OpenAI类似,谷歌官方没有透露很多关于模型的技术细节,虽然发布了一个92页的技术报告,但是,正文内容仅仅27页,引用和作者14页,剩余51页都是展示大量的测试结果。而前面的27页内容中也没有过多的细节描述。尽管如此,这里面依然有几个十分重要的结论供大家参考。

简要的结论如下:

  • PaLM2支持一百多种语言
  • PaLM2的模型参数比PaLM更小,但是能力更强
  • PaLM2与GPT-4相比很有竞争力
  • PaLM2有多个版本,最小的版本可以在移动端离线使用


关于PaLM2的技术分析可以参考: https://www.datalearner.com/blog/1051683818033012 





DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码