Vision Transformers-22B
Vision Transformers-22B 是由 Google Research 发布的 AI 模型,发布时间为 2023-02-10,定位为 基础大模型,参数规模约为 220.0B,上下文长度为 2K。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
ViT-22B是谷歌最新发布的220亿参数的视觉大模型。此前,虽然语言模型的参数一直增长,但是在视觉领域,模型的参数只有40亿。而往上的规模训练会出现一些不稳定情况。因此谷歌精心设计了ViT模型,使其有很高的并行训练效率。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
