MistralAI 简介

MistralAI

Mistral AI是一家新成立的法国人工智能初创企业,Mistral AI在2023年成立(上半年,具体月份不清),成立四周后就获得了1.13亿美元的投资(种子轮,估值2.6亿美元),用以训练发布大模型及相关的产品,引起了全球的广泛关注。这轮融资也是欧洲大模型初创企业获得的的最大融资,也被视为欧洲大模型企业之光~

Mistral AI的部分成员(也许是大部分)来自DeepMind和Meta公司,在加入MistralAI之前就从事大模型相关的工作。MistralAI的主要目标是向全球提供生成式AI技术,帮助解决人类的问题。

2023年9月27日,MistralAI发布了他们的首个大语言模型Mistral 7B(模型信息卡地址: https://www.datalearner.com/ai-models/pretrained-models/Mistral-7B ),声称是最好的70亿参数规模的大模型。Mistral 7B的参数是73亿,在所有的评测基准上都超过了LLaMA2-13B模型,同时它的代码能力接近CodeLlama 7B,表现十分亮眼。最重要的是,这个模型以Apache 2.0协议开源,意味着商用非常友好。

2023年12月8日,该公司在其推特官方账号上公布了一个8×7B的Mixture of Experts模型的下载链接,几乎是当前最好的MoE的开源实现(MoE是大模型领域非常重要的优化技术之一,具体参考: https://www.datalearner.com/llm-blogs/deep-dive-into-mixture-of-experts-in-large-models  )。而这种什么都没介绍,但是突然发布大模型下载链接的发布方式也引起了社区的诸多讨论。

Mistral AI最大的特点是当前发布的产品非常透明和开放,虽然在2023年9月份只发布了一个大语言模型,但是其友好的开源协议和透明的技术分享让很多人称赞。在Mistral AI官网上,他们介绍了自己的理念。Mistral AI认为尽管此前的私有模型服务(可能主要就是ChatGPT)虽然证明了生成式大模型的能力,但是,历史上注明的技术或者产品如浏览器(Webkkit)、操作系统(Linux)、云计算(Kubernets)等都有非常优秀的开源社区的领导,开源方案也会在大多数使用案例上迅速超越私有方案。而Mistral AI坚信,这条路也将帮助大模型克服偏见等问题。因此,MistralAI选择使用开源的方式发布产品。


目前,MistralAI已经发布了很多的模型和产品,主要包括:


模型名称模型简介模型的DataLearnerAI的信息卡地址
Mistral-7B最强大的70亿参数规模的大语言模型之一,指令遵从和多语言支持非常好。 https://www.datalearner.com/ai-models/pretrained-models/Mistral-7B-Instruct 
Mixtral-8×7b最具盛名的混合专家大模型,直接发布预训练结果,引起了广泛关注。效果超过GPT-3.5。 https://www.datalearner.com/ai-models/pretrained-models/Mistral-7B-MoE 
Mistral Medium闭源模型,各方面表现都接近GPT-4,但是价格更便宜
Mistral NextMistralAI发布的神秘模型,2024年2月16日出现在Areno体验上,没有任何信息,评测结果接近GPT-4。 https://www.datalearner.com/ai-models/pretrained-models/mistral-next 


MistralAI发布的大模型列表

Mistral 7B

73.0

亿个参数

2023-09-27

发布时间

免费商用授权

预训练结果开源

Mistral 7B Instruct

73.0

亿个参数

2023-09-27

发布时间

免费商用授权

预训练结果开源

Mistral-7B-Instruct-v0.2

73.0

亿个参数

2023-11-11

发布时间

免费商用授权

预训练结果开源

Mixtral-8×7B-MoE

450.0

亿个参数

2023-12-08

发布时间

免费商用授权

预训练结果开源

Mistral Next

0.0

亿个参数

2024-02-16

发布时间

不开源

预训练结果开源

Mistral Large

0.0

亿个参数

2024-02-26

发布时间

不开源

预训练结果开源

Mistral-7B-v0.2

73.0

亿个参数

2024-03-24

发布时间

免费商用授权

预训练结果开源

Mixtral-8×22B-MoE

1410.0

亿个参数

2024-04-17

发布时间

免费商用授权

预训练结果开源

Mixtral-8x22B-Instruct-v0.1

1410.0

亿个参数

2024-04-17

发布时间

免费商用授权

预训练结果开源