DataLearner 标志DataLearnerAI
AI技术博客
大模型评测排行
大模型评测基准
AI大模型大全
AI资源仓库
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
目录
目录
  1. 首页/
  2. 博客列表/
  3. 博客详情

Qwen3家族新成员:阿里发布自动语音识别大模型Qwen3-ASR-Flash,中英文语音识别错误率低于GPT-4o和Gemini 2.5 Pro!

2025/09/09 03:31:42
800 阅读
ASRQwen3Qwen3-ASR

阿里发布了全新的语音识别大模型Qwen3-ASR-Flash,该模型是Qwen3系列模型中首个语音识别大模型,中英文语音识别错误率低于GPT-4o-transcribe和Gemini 2.5 Pro。不过,该模型目前仅通过API提供,不开源!

  • Qwen3-ASR-Flash模型的特点
  • Qwen3-ASR-Flash模型支持Prompt增强
  • Qwen3-ASR-Flash模型的识别错误率低于GPT-4o和Gemini 2.5 Pro!
  • Qwen3-ASR-Flash支持的语种
  • Qwen3-ASR-Flash接口能力总结和价格
  • Qwen3-ASR-Flash模型总结

Qwen3-ASR-Flash模型的特点

Qwen3-ASR-Flash模型来源于Qwen3-Omni模型。没错,就是还未发布的全模态大模型Qwen3-Omni。2025年3月27日,阿里开源了旗下的首个端到端全模特大模型Qwen2.5-Omni-7B,该模型支持文本、图像、音频、视频(无音频轨)的多模态输入与实时生成能力,可同步输出文本与自然语音的流式响应(详情参考:https://www.datalearner.com/ai-models/pretrained-models/Qwen2_5-Omni-7B )。而此次官方的信息透露,Qwen3-Omni模型也训练好了,只是不确定是否还会开源~

本次发布的Qwen3-ASR-Flash模型是基于Qwen3-Omni构建的专注于语音识别的模型。按照3月份开源的模型,我们可以合理猜测Qwen3-ASR-Flash模型很大概率是7B规模的版本。

Qwen3-ASR-Flash模型的主要特点包括:

  1. 一个模型支持11种语言的识别(中英西法阿等);
  2. 支持在语音输入基础上,提供prompt的输入来增强识别语音结果;
  3. 支持识别歌声中的语音;
  4. 支持带着噪音的语音识别(吵架、汽车、背景音等);
  5. 支持非语音片段的识别:即可以忽略语音中静默片段和背景噪音等

Qwen3-ASR-Flash模型支持Prompt增强

Qwen3-ASR-Flash模型最大的特点是支持基于文本+语音的输入,文本即Prompt。

按照官方的描述,语音识别中有一个很难解决的问题是专有名词的识别。例如,一些特殊的地名、人名等专有名词,语音识别模型几乎很难识别准确。这种情况下,只要你在语音识别的同时,给模型一些关键词。模型就能准确的识别。

换言之,Qwen3-ASR-Flash 支持无需预处理上下文信息即可实现定制化语音识别结果。用户只需提供任何形式的“背景文本”,模型就能自动理解并据此调整识别结果(即“有偏转写”或“上下文引导识别”),从而更准确地识别特定词汇、术语或语境内容。

支持的背景文本格式如下:

✅ 简单关键词列表:
  ["Qwen", "通义千问", "ASR", "Flash模型"]

✅ 完整段落或长文档:
  “本次会议将讨论Qwen3-ASR-Flash在医疗和金融场景中的落地应用,重点包括方言识别鲁棒性和热词绑定能力。”

✅ 混合格式:
  关键词 + 段落
  ["热词:科创板、北交所"] + “近期资本市场改革加速,北交所流动性提升明显…”

✅ 无意义/无关文本(不影响识别):
  “香蕉在跳舞,月亮吃火锅” ← 模型会忽略这类内容,不影响正常语音识别。

简单说:你想让模型“偏向”识别什么,就直接把相关文字“喂”给它 —— 不管多乱、多长、多杂,它都能聪明地抓住重点,还不被干扰。

例如,假设我们有一个场景如下: 某段音频正确识别结果应该为“投行圈内部的那些黑话,你了解哪些?首先,外资九大投行,Bulge Bracket,BB ...”。

那么,在不使用上下文增强的时候,识别结果如下:

投行圈内部的那些黑话,你了解哪些?首先,外资九大投行,Bird Rock,BB ...

部分投行公司名称识别有误,例如 “Bird Rock” 正确应为 “Bulge Bracket”。

但是,如果使用上下文增强(即将文字关键词和音频一起输入),那么对投行公司名称识别正确。

投行圈内部的那些黑话,你了解哪些?首先,外资九大投行,Bulge Bracket,BB ...”

这种带Prompt的语音识别模型在实际中应用价值很多,举例如下:

  • 专业领域优化:医疗、法律、金融等术语可通过提供术语表显著提升识别准确率。
  • 品牌/产品名绑定:输入公司名、产品名,避免被误识别为同音常见词。
  • 灵活易用:无需工程化预处理,业务人员可直接上传原始材料,降低使用门槛。

Qwen3-ASR-Flash模型的识别错误率低于GPT-4o和Gemini 2.5 Pro!

官方公布了Qwen3-ASR-Flash模型在不同语种上的语音识别错误率。下图展示了Qwen3-ASR-Flash模型在不同评测集上的测试结果:

Qwen3-ASR-Flash评测结果
Qwen3-ASR-Flash评测结果

如图所示,Qwen3-ASR-Flash模型在公开测试和内部测试中均表现出色,尤其在中文、带口音中文、英语及多语言场景下误差率显著低于主流竞品(如 Gemini-2.5-Pro、GPT4o-Transcribe、Paraformer-v2 和 Doubao-ASR)。其在复杂语音识别任务(如重口音、混合语言、歌曲识别)中也展现出强鲁棒性,整体性能领先。尽管在部分特定场景(如多语言支持)存在局限,但综合表现突出,体现了其在通用语音识别领域的强大能力。

以“Chinese”和“Chinese Accent”两类任务为例,Qwen3-ASR-Flash 的错误率分别为 3.97% 和 3.48%(公开测试),远低于其他模型(如 GPT4o-Transcribe 达 15.72% 和 17.07%)。这表明该模型对中文语音的建模能力强,尤其在处理方言或非标准发音时具备优异表现,适合中国本地化应用场景。

Qwen3-ASR-Flash支持的语种

官方给出的数据表示,Qwen3-ASR-Flash在单一模型内即可对多种语言、方言和口音实现高精度语音转写,具体支持的语言列表如下:

  • 中文:涵盖普通话,以及四川话、闽南语、吴语、粤语等主要方言。
  • 英语:支持英式、美式及其他多种地区口音。
  • 其他支持语言:法语、德语、俄语、意大利语、西班牙语、葡萄牙语、日语、韩语、阿拉伯语。

总共11种语言~还是非常实用的。

Qwen3-ASR-Flash接口能力总结和价格

目前Qwen3-ASR-Flash模型仅支持API访问,没有开源。支持录音URL、本地文件和流式三种形式,输入的文件支持aac、amr、avi、aiff、flac、flv、m4a、mkv、mp3、mp4、mpeg、ogg、opus、wav、webm、wma、wmv。

不过需要注意的是,Qwen3-ASR-Flash模型为单轮调用模型,不支持多轮对话和自定义Prompt(包括System Prompt和User Prompt)。

此外,当前Qwen3-ASR-Flash模型的文本输入最多支持10K,音频最多支持10MB或者不超过3分钟,音频采样率16kHz。

官方给出了Qwen3-ASR-Flash模型的价格,文本部分不收费,按照输入的音频时长收费,目前价格是一分钟为0.00192美元,也就是一分钟大概2美分。这里有个技巧,如果你想减低成本,可以将原始音频进行加速,这样阿里就会少收你很多钱了!

Qwen3-ASR-Flash模型总结

阿里发布的Qwen3-ARS-Flash模型虽然没有开源,不过收费也是非常公道的,而且这个准确率很惊喜了!

不过,更让我们惊喜的应该是它背后的Qwen3-Omni模型,相比较Qwen2.5-Omni会不会有很大的提升,此外,会不会开源呢~十分值得期待。

关于Qwen3-ASR-Flash模型的其它信息以及在线测试地址参考:https://www.datalearner.com/ai-models/pretrained-models/Qwen3-ASR-Flash

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • 智谱发布 GLM-ASR(闭源)与开源 1.5B GLM-ASR-Nano-2512:针对中文与方言场景的语音识别尝试
  • 三年后OpenAI再次发布自动语音识别和语音合成大模型(替换Whisper系列):不开源,仅提供API,英文错字率已经下降到2.46%
  • MetaAI发布语音识别错误率是OpenAI的Whisper模型的一半且支持1107种语言的ASR模型:MMS
  • 在消费级显卡上微调OpenAI开源的自动语言识别模型Whisper:8GB显存即可针对你自己的数据建立ASR模型
  • 比OpenAI原始的Whisper快70倍的开源语音识别模型Whisper JAX发布!
  • 重磅!阿里开源2个多模态向量大模型和重排序大模型:Qwen3-VL-Embedding和Qwen3-VL-Reranker,图片和视频也可以用来做RAG了!
  • 模型不能停,阿里又又又又要开源新模型:Qwen3-Next-80B-A3B
  • 阿里发布Qwen3小幅更新版本,放弃混合思考模式,发布全新的2个版本Qwen3-235B-A22B-2507模型,1/5的参数,性能直逼Kimi K2,推理模式版本评测结果接近o3

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署