Yi-VL-34B - Yi-VL-34B

模型详细情况和参数

Yi-VL-34B

模型全称
Yi-VL-34B
模型简称
Yi-VL-34B
模型类型
多模态大模型
发布日期
2024-01-22
预训练文件大小
68GB
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
340.0
模型代码开源协议
Yi Series Models License Agreement
预训练结果开源商用情况
Yi Series Models License Agreement - 免费商用授权
模型HuggingFace链接
https://huggingface.co/01-ai/Yi-VL-34B
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
暂无
基础模型
无基础模型
发布机构

Yi-VL-34B 简介

Yi-VL-34B全称是Yi Visual Language - 34B的简称,是一个多模态大模型,该模型是基于LLaVA架构完成的。该模型可以接受文本和图片的输入,但是可以返回文本结果。Yi-VL-34B应该是目前开源的最高参数规模的多模态大模型。


Yi-VL-34B模型的训练过程

Yi-VL-34B多模态大模型的语言模型用的是Yi-34B,然后外接ViT模型得到。训练过程有3个步骤:

  1. 基于 LAION-400M的1亿张244×244像素图片做预训练;
  2. 将ViT模型的解析力提高到448×448像素,这个极端使用2500万图像文本对数据;
  3. 把语言模型和图像模型结合进行训练完整的多模态大模型。


Yi-VL-34B模型的多模态推理的硬件资源

Yi-VL-34B最低需要4个4090显卡才能允许,或者一个A800(80G)显卡。而60亿参数版本的需要RTX3090单卡即可允许,参考: https://www.datalearner.com/ai-resources/pretrained-models/Yi-VL-6B 


Yi-VL-6B可以在如下单张显卡推理:RTX 3090, RTX 4090, A10, A30



Yi-VL-34B模型的多模态评测结果

这个模型使用128个A800(80G)的GPU进行预训练,总共训练10天(6B版本训练了3天)。模型允许商用,免费商用授权。它在多模态评测得分如下:


Yi-VL-34B支持中英文两种语言,可以做图片的理解和文本的识别。根据官方的描述,这个模型可以用来抽取、组织并总结图片中的信息。最高支持448×448像素的图片输入。在中文的多模态评测如下:



该模型实测:




除了60亿参数模型外,还有340亿参数的Yi-VL-34B,这个模型取得了目前多模态评测榜单第一。






欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Yi-VL-34B所属的领域
多模态学习

多模态学习

Multimodal Learning

35个资源

Yi-VL-34B相关的任务
文本生成图片

文本生成图片

Text to Image

35个资源