PaLM-E
Pathways Language Model-Embodied
模型参数
5620.0亿
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-03-06
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
5620.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Google Research
查看发布机构详情 模型解读
PaLM-E是谷歌发布的最新的多模态预训练大模型。该模型是从PaLM( 模型卡:https://www.datalearner.com/ai-models/pretrained-models/PaLM )演化。
大型语言模型已经被证明可以完成复杂的任务。然而,在现实世界中实现一般推理,例如用于机器人问题,提出了接地的挑战。我们提出了具身语言模型,以直接将现实世界的连续传感器模式纳入语言模型,从而建立单词和感知之间的联系。我们的具身语言模型的输入是多模式的句子,这些句子交织着视觉、连续状态估计和文本输入编码。我们将这些编码与预先训练好的大型语言模型一起进行端到端训练,用于多个具身任务,包括连续的机器人操作计划、视觉问题回答和字幕。我们的评估表明,PaLM-E,一个单一的大型体现性多模态模型,可以解决各种体现性推理任务,来自各种观察模式,在多个体现性上,并且进一步表现出积极的转移:该模型从互联网规模的语言、视觉和视觉语言领域的不同联合训练中受益。我们最大的模型,PaLM-E-562B,有562B个参数,除了在机器人任务上进行训练外,还是一个视觉语言通才,在OK-VQA上有最先进的表现,并且随着规模的扩大,保持了通才的语言能力。

不过,这个模型目前没有开源。
DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
