Ve

Veo 3.1 Generate (Preview)

视觉大模型

Google Veo 3.1 Generate (Preview)

发布时间: 2025-10-15

67
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度
暂无数据
最长输出结果
暂无数据
模型类型

视觉大模型

发布时间

2025-10-15

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

Veo 3.1 Generate (Preview)模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

Google Veo 3.1 Generate (Preview)模型解读

Veo 3.1 概览

Veo 3.1 是 Google(DeepMind)视频生成模型 Veo 系列在 3 代基础上的一次更新版本,第三方权威媒体与生态合作方称其将带来更长时长(最高可达约 1 分钟的 1080p)、多镜头/多场景叙事、一致的角色与场景保持,以及更自然的镜头运动与过渡等能力。当前信息主要来自发布前报道与生态平台页面,尚无官方技术白皮书或详细规格公开。

定位与核心目标

在 Veo 3 的文本/图像到视频生成功能之上,Veo 3.1 重点面向更复杂的叙事创作与镜头编排,旨在提升长镜头、一致性与可控性(如镜头/光影预设、多镜头拼接)。

架构与技术规格

  • 参数规模与 MoE:官方尚未披露。
  • 上下文窗口:视频生成模型不以 token 窗口计,官方未披露相关口径。
  • 训练数据:未披露。

核心能力与模态

  • 输入模态:文本提示,支持图像参考(多方报道与产品页)。
  • 输出模态:视频(据称 1080p,最长约 1 分钟),并延续 Veo 3 的原生音频合成能力(环境声、对白、音效)。
  • 镜头与叙事:多镜头/多场景、角色一致性、镜头运动与光影预设。

性能与评测

目前未见官方基准测试数据(如与 Sora 2 或其他模型的定量对比分数)。媒体与生态产品页多为功能性描述与示例。

应用场景与限制

  • 推荐用例:宣传片、产品演示、分镜脚本验证、短片叙事、多镜头剪辑草稿生成。
  • 已知限制:处于预发布与生态预览集成阶段,功能、时长/分辨率与可用性可能随正式发布而调整。

访问方式与许可

  • 访问:尚无该版本专属官方互动演示页可核验;部分第三方创作平台宣称接入预览能力。
  • 开源与许可:非开源,未见公开模型权重。

参考资料:Google DeepMind:Veo 官方页TechRadar:Veo 3.1 报道The Verge:Veo 3 更新(竖屏/1080p与价格);以及生态平台对 Veo 3.1 的预告(例如 ImagineArtHiggsfield)。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat