MMS - Massively Multilingual Speech

模型详细情况和参数

MMS

模型全称
Massively Multilingual Speech
模型简称
MMS
模型类型
基础大模型
发布日期
2023-05-23
预训练文件大小
10.8GB
是否支持中文(中文优化)
最高支持的上下文长度
2K
模型参数数量(亿)
10.0
模型代码开源协议
预训练结果开源商用情况
-
模型HuggingFace链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
基础模型
无基础模型

Massively Multilingual Speech 简介

MMS模型的详细介绍: https://www.datalearner.com/blog/1051684857225321 


Massively Multilingual Speech简称MMS,是MetaAI发布的最新的语音模型,它可以完成自动语音识别(Auto Speech Recognition,ASR),也可以做语音合成(Text-to-Speech,TTS)。


现有的最大语音数据集最多覆盖100种语言。为了克服这一挑战,MetaAI转向了被翻译成许多不同语言的宗教文本,如圣经,这些翻译已经被广泛用于基于文本的语言翻译研究。通过这个项目,MetaAI创建了一个数据集,包含了在1100多种语言下的朗读《新约》的语音数据集,平均每种语言提供了32小时的数据。


MMS模型的一个显著特点是其覆盖的语言数量。通过使用wav2vec 2.0自我监督学习模型,MMS模型可以支持超过1100种语言的语音到文本和文本到语音转换,以及超过4000种语言的语言识别。这一点对于许多只有几百名使用者的语言来说,是非常重要的,因为对于这些语言,之前并没有语音技术的存在。


MMS比OpenAI的Whisper模型效果更好:

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

MMS所属的领域
多模态学习

多模态学习

Multimodal Learning

35个资源

MMS相关的任务
自动语音识别

自动语音识别

Automatic Speech Recognition

35个资源