加载中...
加载中...
就在刚刚,阿里开源了全新的语音合成大模型Qwen3-TTS系列!本次开源的语音合成模型共5个版本,最小的仅0.6B参数规模,最大的模型参数也就1.7B,基本上手机端都可以运行。此次发布不仅在性能上宣称超越了许多商业级闭源模型(如 OpenAI 的 GPT-4o-Audio 和 ElevenLabs),更重要的这应该是阿里通义千问团队首次开源语音合成系列大模型。

本次发布的 Qwen3-TTS 主要包含两个核心能力方向:语音设计(Voice Design) 和 语音克隆(Voice Cloning),旨在解决传统 TTS 模型在情感表达、个性化定制和多语言适应性上的痛点。
本次开源的Qwen3-TTS系列包括5个模型,但也就2个参数规模,分为1.7B和0.6B两种参数规模。核心技术基于Qwen3-TTS-Tokenizer-12Hz多码本语音编码器,实现高效压缩和高保真语音重建。
这次开源的Qwen3-TTS又分为三个不同的版本,分别是VoiceDesign, CustomVoice 和 Base。其中VoiceDesign版本是基于用户描述进行语音设计,支持指令控制和流式生成。CustomVoice版本则是通过用户指令控制目标音色,支持9种优质音色(覆盖性别、年龄、语言和方言组合),支持指令控制和流式生成。而Base版本是基础模型,支持3秒快速语音克隆,可用于微调其他模型,支持流式生成。
本次开源的Qwen3-TTS模型虽然参数规模不大,但是很有特色,总结一下3个方面,即语音设计、语音克隆和多语言支持。
首先,Qwen3-TTS 引入了强大的 Voice Design 功能。与传统 TTS 只能选择预设音色不同,Qwen3-TTS 允许用户通过自然语言描述来定制声音。也就是我们可以使用自然语言描述来生成自定义语音,例如音色、情感、韵律、年龄、性别甚至背景角色。比如说,我们可以指示模型生成“高亢的男性声音带着兴奋”或无缝融入方言和口音。具体来说,包括:
另一个亮点是语音克隆,只需3秒钟的音频样本即可准确复制说话者的声音。Qwen3-TTS在时延方面体验很好,在单个字符输入后即可交付第一个音频包,端到端延迟低至97ms,非常适合实时应用如直播或互动对话,其它核心特点包括:
最后,Qwen3-TTS的多语言能力也很厉害,它支持10+ 主流语言:包括中文、英语、日语、韩语、德语、法语、西班牙语、意大利语、葡萄牙语、俄语等。
此外,也支持多个不同的方言,如粤语、四川话、东北话 等多种方言,能够精准捕捉方言的韵味和地道表达。
变体如Qwen3-TTS-Flash强调多音色和多方言支持,提供多达49种高质量声音和9种优质音色,涵盖各种性别、年龄和语言组合。 这包括对噪声输入的鲁棒性,能够处理特殊符号、拼音和罕见字符而不遗漏。
根据官方公布的技术报告,Qwen3-TTS 在语音克隆、语音设计及长音频稳定性等关键维度上均展现了很好的效果。在与 MiniMax、ElevenLabs、GPT-4o 等顶尖闭源模型的对比中,Qwen3-TTS证明了开源模型在复杂任务处理上的成熟度并不差。


以下是本次官方公布的评测中几个最具代表性的关键数据供大家参考:
此外,模型在长音频生成的稳定性上也取得了突破。在连续生成 10分钟 语音的压力测试下,中文和英文的词错误率分别控制在 2.36% 和 2.81%,配合说话人相似度高达 0.95 的高保真 Tokenizer,确保了长篇有声书或演讲内容的连贯与自然。
在底层,Qwen3-TTS采用通用端到端架构,结合离散多码本语言模型(LM),全面建模语音,避免了传统级联系统的缺陷。其中,阿里认为,他们自研的Qwen3-TTS-Tokenizer-12Hz多码本语音编码器可以在高效压缩音频信号的同时保留副语言细节和环境声学。轻量级非DiT(非扩散Transformer)架构处理高速重建,而双轨混合流式系统支持流式和非流式模式,提供灵活性。
Qwen3-TTS的全部5个模型均以Apache 2.0协议开源,意味着完全免费商用授权,最大的模型文件也就4.52 GB,有显卡的童鞋可以直接测试起来了。
五个模型的官方开源地址可以参考DataLearnerAI模型的大模型库:https://www.datalearner.com/ai-models/pretrained-models?q=qwen3-tts&page=1