Qw

Qwen-VL-MAX

多模态大模型

Qwen-VL-MAX

发布时间: 2024-01-25

模型参数(Parameters)
未披露
最高上下文长度(Context Length)
2K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果
暂无数据
模型类型

多模态大模型

发布时间

2024-01-25

模型预文件大小

0

开源和体验地址

代码开源状态
预训练权重开源
不开源 - 不开源
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Qwen-VL-MAX模型在各大评测榜单的评分

发布机构

模型介绍

Qwen-VL-Max是阿里巴巴发布的一个多模态大模型,可以完成图片理解相关的任务,是Qwen-VL多模态大的模型系列最强的模型。但是,它没有公开任何模型相关信息。


Qwen-VL系列是阿里巴巴发布的多模态大模型系列,最早在2023年9月份发布,早期开源的版本是基于70亿参数的Qwen-7B语言模型基础上进行多模态数据训练得到。而后来又做了2个版本的增强,一个是Qwen-VL-Plus,另一个就是本次发布的Qwen-VL-Max。这两个模型相比较基础版本的模型都有了巨大的提升,但是并没有开源。具体来说,提升如下:


  • 显著提高图像相关推理能力。
  • 在识别、提取和分析图像及其中的文本方面有显著提升。
  • 支持超过百万像素的高清图像和各种纵横比的图像。


其中Qwen-VL-Max是Qwen-VL系列中最强大的模型,进一步提高视觉推理和指令遵循能力,提供更高级别的视觉感知和认知理解。官方宣称Qwen-VL-Plus和Qwen-VL-Max在多个文本-图像多模态任务中与Gemini Ultra和GPT-4V相媲美,显著超越其他开源模型。Qwen-VL-Max在中文问答和中文文本理解任务中表现优于OpenAI的GPT-4V和Google的Gemini。


虽然官方没有开源模型,但是提供了免费使用的方式:


关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat