DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Page navigation
目录
Model catalogPaLM
PA

PaLM

Pathways Language Model

Release date: 2022-04-05更新于: 2023-08-16 22:04:56.850710
Live demoGitHubHugging FaceCompare
Parameters
5400.0亿
Context length
2K
Chinese support
Not supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

PaLM

Model basics

Reasoning traces
Not supported
Context length
2K tokens
Max output length
No data
Model type
基础大模型
Release date
2022-04-05
Model file size
No data
MoE architecture
No
Total params / Active params
5400.0B / N/A
Knowledge cutoff
No data
Inference modes
No mode data
PaLM

Open source & experience

Code license
不开源
Weights license
不开源- 不开源
GitHub repo
GitHub link unavailable
Hugging Face
Hugging Face link unavailable
Live demo
No live demo
PaLM

Official resources

Paper
PaLM: Scaling Language Modeling with Pathways
DataLearnerAI blog
No blog post yet
PaLM

API details

API speed
No data
No public API pricing yet.
PaLM

Benchmark Results

No benchmark data to show.
PaLM

Publisher

Google Research
Google Research
View publisher details
Pathways Language Model

Model Overview

近年来,为语言理解和生成而训练的大型神经网络在广泛的任务中取得了令人印象深刻的结果。GPT-3首次表明,大型语言模型(LLMs)可用于少量的学习,并且无需大规模的特定任务数据收集或模型参数更新即可取得令人印象深刻的结果。最近的LLM,如GLaM、LaMDA、Gopher和Megatron-Turing NLG,通过扩大模型规模、使用稀疏的激活模块和在更多来源的更大的数据集上进行训练,在许多任务上取得了最先进的几发结果。然而,当我们推动模型规模的极限时,在理解几率学习所出现的能力方面还有很多工作要做。


去年,谷歌研究部宣布了我们对Pathways的愿景,即一个可以跨领域和任务通用的单一模型,同时具有很高的效率。实现这一愿景的一个重要里程碑是开发新的Pathways系统来协调加速器的分布式计算。在 "PaLM:用Pathways扩展语言建模 "中,我们介绍了Pathways语言模型(PaLM),这是一个用Pathways系统训练的5400亿个参数、仅有密集解码器的Transformer模型,它使我们能够在多个TPU v4 Pod上有效地训练一个模型。我们在数百个语言理解和生成任务上对PaLM进行了评估,发现它在大多数任务中实现了最先进的几率性能,在许多情况下都有显著的优势。


DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码