大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
Smaug-72B-v0.1 📑 🔶

722.9

80.48

76.02

89.27

77.15

76.67

85.08

78.7

LlamaForCausalLM

alpaca-dragon-72b-v1 📑 🔶

722.9

79.3

73.89

88.16

77.4

72.69

86.03

77.63

LlamaForCausalLM

TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO_f16 📑 🔶

608.1

77.91

74.06

86.74

76.65

72.24

83.35

74.45

MixtralForCausalLM

TomGrc_FusionNet_34Bx2_MoE_v0.1_full_linear_DPO 📑 🔶

608.1

77.52

74.06

86.67

76.69

71.32

83.43

72.93

MixtralForCausalLM

CCK_Asura_v1 📑 🔶

689.8

77.43

73.89

89.07

75.44

71.75

86.35

68.08

LlamaForCausalLM

LHK_DPO_v1 📑 🔶

128.8

77.43

74.74

89.37

64.87

79.88

88.16

67.55

MixtralForCausalLM

UNA-SimpleSmaug-34b-v1beta 📑 🔶

343.9

77.41

74.57

86.74

76.68

70.17

83.82

72.48

LlamaForCausalLM

FusionNet_34Bx2_MoE_v0.1 📑 🔶

608.1

77.38

73.72

86.46

76.72

71.01

83.35

73.01

MixtralForCausalLM

Tess-72B-v1.5b 📑 🔶

722.9

77.3

71.25

85.53

76.63

71.99

81.45

76.95

LlamaForCausalLM

Smaug-34B-v0.1 📑 🔶

343.9

77.29

74.23

86.76

76.66

70.22

83.66

72.18

LlamaForCausalLM

Truthful_DPO_TomGrc_FusionNet_34Bx2_MoE 📑 🔶

608.1

77.28

72.87

86.52

76.96

73.28

83.19

70.89

MixtralForCausalLM

DARE_TIES_13B 📑 🔶

128.8

77.1

74.32

89.5

64.47

78.66

88.08

67.55

MixtralForCausalLM

13B_MATH_DPO 📑 🔶

128.8

77.08

74.66

89.51

64.53

78.63

88.08

67.1

MixtralForCausalLM

FusionNet_34Bx2_MoE 📑 🔶

608.1

77.07

72.95

86.22

77.05

71.31

83.98

70.89

MixtralForCausalLM

MoE_13B_DPO 📑 🔶

128.8

77.05

74.32

89.39

64.48

78.47

88.0

67.63

MixtralForCausalLM

4bit_quant_TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO 📑 🔶

318

76.95

73.21

86.11

75.44

72.78

82.95

71.19

MixtralForCausalLM

Truthful_DPO_cloudyu_Mixtral_34Bx2_MoE_60B 📑 🔶

608.1

76.48

71.25

85.24

77.28

66.74

84.29

74.07

MixtralForCausalLM

CCK_Asura_v2.1 📑 🔶

689.8

76.41

72.53

88.75

74.96

67.33

85.87

68.99

LlamaForCausalLM

FusionNet_7Bx2_MoE_v0.1 📑 🔶

128.8

76.16

74.06

88.9

65.0

71.2

87.53

70.28

MixtralForCausalLM

NeuralTrix-7B-dpo 📑 🔶

72.4

76.15

72.27

88.91

64.06

79.06

84.61

68.01

MistralForCausalLM

MBX-7B-v3-DPO 📑 🔶

72.4

76.13

73.55

89.11

64.91

74.0

85.56

69.67

MistralForCausalLM

FusionNet_7Bx2_MoE_14B 📑 🔶

128.8

75.91

73.55

88.84

64.68

69.6

88.16

70.66

MixtralForCausalLM

MiquMaid-v2-2x70B-DPO 📑 🔶

1253.5

75.89

72.53

88.36

75.31

66.5

85.32

67.32

MixtralForCausalLM

AiMaven-Prometheus 📑 🔶

72.4

75.74

73.98

88.83

65.17

72.22

85.16

69.07

MistralForCausalLM

Pluto_24B_DPO_63 📑 🔶

128.8

75.63

73.98

88.17

64.49

79.36

81.69

66.11

MixtralForCausalLM

Phoenix_DPO_60B 📑 🔶

608.1

75.48

71.16

85.46

77.66

63.84

84.93

69.83

MixtralForCausalLM

Helion-4x34B 📑 🔶

1136.6

75.48

69.71

85.28

77.33

63.91

84.37

72.25

MixtralForCausalLM

UNA-34BeagleSimpleMath-32K-v1 📑 🔶

343.9

75.45

74.15

85.98

76.52

73.74

83.27

59.06

LlamaForCausalLM

Senku-70B-Full 📑 🔶

689.8

75.44

71.5

87.88

75.2

61.96

84.77

71.34

LlamaForCausalLM

UNA-34Beagles-32K-bf16-v1 📑 🔶

343.9

75.41

73.55

85.93

76.45

73.55

82.95

60.05

LlamaForCausalLM

Cosmosis-3x34B 📑 🔶

872.4

75.39

69.71

85.18

77.25

63.82

84.14

72.25

MixtralForCausalLM

WestLake-7B-v2-laser-truthy-dpo 📑 🔶

72.4

75.37

73.89

88.85

64.84

69.81

86.66

68.16

MistralForCausalLM

Senku-70B-Full 📑 🔶

689.8

75.36

71.33

87.86

75.14

61.95

84.53

71.34

LlamaForCausalLM

WestSeverus-7B-DPO-v2 📑 🔶

72.4

75.29

71.42

88.27

64.79

72.37

83.27

71.65

MistralForCausalLM

test3_sft_16bit 📑 🔶

72.4

75.28

73.55

88.87

64.63

69.77

84.45

70.43

MistralForCausalLM

Faraday-7B 📑 🔶

72.4

75.25

72.27

88.9

64.69

73.07

85.32

67.25

MistralForCausalLM

Astralis-4x34B 📑 🔶

1136.6

75.24

69.71

85.17

77.24

63.55

84.14

71.65

MixtralForCausalLM

Faraday-7B 📑 🔶

72.4

75.22

72.44

88.91

64.68

73.03

85.56

66.72

MistralForCausalLM

WestSeverus-7B-DPO 📑 🔶

72.4

75.17

70.73

88.01

64.93

70.53

83.5

73.31

MistralForCausalLM

Sectumsempra-7B-DPO 📑 🔶

72.4

75.14

71.5

88.7

64.9

72.49

83.19

70.05

MistralForCausalLM

MiquMaid-v1-70B 📑 🔶

700

75.12

71.67

87.96

74.9

61.79

85.08

69.29

LlamaForCausalLM

Bagel-Hermes-2x34B 📑 🔶

608.1

75.1

69.8

85.26

77.24

64.82

84.77

68.69

MixtralForCausalLM

WestLakeX-7B-EvoMerge-Variant2 📑 🔶

72.4

75.04

72.53

88.52

64.77

70.35

85.79

68.31

MistralForCausalLM

WestLake-7B-v2-laser 📑 🔶

72.4

74.78

73.29

88.66

64.72

67.04

86.74

68.23

MistralForCausalLM

60B_MoE_Coder_v3 📑 🔶

608.1

74.75

71.16

85.44

75.37

67.01

82.56

66.94

MixtralForCausalLM

nontoxic-bagel-34b-v0.2 📑 🔶

343.9

74.69

72.44

85.64

76.41

72.7

82.48

58.45

LlamaForCausalLM

WestLake-7B-v2 📑 🔶

72.4

74.68

73.04

88.65

64.71

67.06

86.98

67.63

MistralForCausalLM

MoMo-72B-LoRA-V1.4 📑 🔶

722.9

74.67

69.2

85.07

77.12

62.66

83.74

70.2

LlamaForCausalLM

MoMo-72B-LoRA-V1.4 📑 🔶

722.9

74.64

69.11

85.0

77.26

62.71

83.74

69.98

LlamaForCausalLM

bagel-dpo-34b-v0.2 📑 🔶

343.9

74.5

72.01

85.24

76.58

70.16

83.03

59.97

LlamaForCausalLM

Westlake-7B 📑 🔶

72.4

74.48

73.21

88.49

64.64

67.36

86.03

67.17

MistralForCausalLM

WestLakeX-7B-EvoMerge 📑 🔶

72.4

74.37

71.42

88.08

64.84

67.5

84.77

69.6

MistralForCausalLM

Patronum-7B 📑 🔶

72.4

74.27

71.67

88.33

64.84

70.41

81.85

68.54

MistralForCausalLM

SauerkrautLM-SOLAR-Instruct 📑 🔶

107.3

74.21

70.82

88.63

66.2

71.95

83.5

64.14

LlamaForCausalLM

UNA-SOLAR-10.7B-Instruct-v1.0 📑 🔶

107.3

74.2

70.56

88.18

66.08

72.05

83.66

64.67

LlamaForCausalLM

SOLAR-10.7b-Instruct-truthy-dpo 📑 🔶

107.3

74.11

72.1

88.44

65.45

76.75

82.72

59.21

LlamaForCausalLM

19B_MATH_DPO 📑 🔶

191.9

74.1

71.08

88.43

66.25

72.11

82.95

63.76

MixtralForCausalLM

UNA-POLAR-10.7B-InstructMath-v2 📑 🔶

107.3

74.07

70.73

88.2

66.03

71.73

82.95

64.75

LlamaForCausalLM

LMCocktail-10.7B-v1 📑 🔶

107.3

74.06

70.65

88.13

66.21

71.03

83.35

64.97

Unknown

UNAversal-2x7B-v1 📑 🔶

128.8

74.05

73.38

87.87

63.49

69.93

82.08

67.55

MixtralForCausalLM

MixTAO-7Bx2-MoE-DPO 📑 🔶

128.8

73.94

70.9

87.12

64.72

69.34

81.22

70.36

MixtralForCausalLM

meow 📑 🔶

107.3

73.94

70.48

88.08

66.25

70.49

83.43

64.9

Unknown

CCK_Gony_v3 📑 🔶

467

73.83

71.33

88.71

71.07

73.33

81.22

57.32

MixtralForCausalLM

UNAversal-8x7B-v1beta 📑 🔶

467

73.78

69.8

86.9

70.39

71.97

82.0

61.64

MixtralForCausalLM

Aurora-Nights-70B-v1.0 📑 🔶

689.8

73.77

71.33

88.33

70.47

62.81

83.35

66.34

LlamaForCausalLM

SuperBruphin-3x7B 📑 🔶

185.2

73.75

71.16

87.74

64.58

66.85

81.53

70.66

MixtralForCausalLM

Nous-Hermes-2-Yi-34B 📑 🔶

343.9

73.74

66.89

85.49

76.7

60.37

82.95

70.05

LlamaForCausalLM

MM-Orc-Vic-bagel-34b-c1000 📑 🔶

343.9

73.68

67.32

83.52

76.09

60.57

82.32

72.25

LlamaForCausalLM

CCK_Asura_v2 📑 🔶

689.8

73.62

70.82

88.09

74.72

56.97

85.24

65.88

LlamaForCausalLM

Experiment7-7B 📑 🔶

89.9

73.55

71.84

88.04

65.25

70.59

80.82

64.75

MistralForCausalLM

SOLAR-10.7b-Instruct-dpo 📑 🔶

107.3

73.54

71.76

88.08

66.06

71.98

82.32

61.03

LlamaForCausalLM

Experiment8-7B 📑 🔶

89.9

73.47

72.1

88.13

65.25

70.25

80.66

64.44

MistralForCausalLM

Mixtral_7Bx5_MoE_30B 📑 🔶

297.9

73.39

69.97

86.82

64.42

65.97

80.98

72.18

MixtralForCausalLM

Experiment9-7B 📑 🔶

89.9

73.39

72.01

88.06

65.32

70.42

80.74

63.76

MistralForCausalLM

Experiment1-7B 📑 🔶

89.9

73.39

72.53

88.17

65.28

69.98

80.82

63.53

MistralForCausalLM

Experiment2-7B 📑 🔶

89.9

73.38

72.18

88.15

65.1

69.97

81.22

63.68

MistralForCausalLM

Experiment4-7B 📑 🔶

89.9

73.38

72.18

88.09

65.03

70.39

81.14

63.46

MistralForCausalLM

Daredevil-7B 📑 🔶

72.4

73.36

69.37

87.17

65.3

64.09

81.29

72.93

MistralForCausalLM

Nous-Hermes-2-Mixtral-8x7B-DPO 📑 🔶

467

73.35

71.08

87.29

72.17

54.83

83.11

71.65

MixtralForCausalLM

multimaster-7b-v2 📑 🔶

354.3

73.33

70.48

87.59

65.09

60.63

84.29

71.87

MixtralForCausalLM

Nous-Hermes-2-MoE-2x34B 📑 🔶

608.1

73.3

66.64

85.73

76.49

58.08

83.35

69.52

MixtralForCausalLM

SOLAR-10.7B-NahIdWin 📑 🔶

107.3

73.21

64.51

85.67

64.17

76.73

80.51

67.7

LlamaForCausalLM

v-alpha-tross 📑 🔶

689.8

73.16

71.84

86.84

70.44

65.22

83.11

61.49

LlamaForCausalLM

multimaster-7b-v3 📑 🔶

354.3

73.07

70.39

87.65

65.07

59.7

84.06

71.57

MixtralForCausalLM

34b-beta 📑 🔶

343.9

73.04

70.56

84.2

85.6

58.38

81.29

58.23

LlamaForCausalLM

Marcoro14-7B-ties 📑 🔶

72.4

73.01

69.8

87.13

65.11

63.54

81.61

70.89

Unknown

notux-8x7b-v1 📑 🔶

467

72.97

70.65

87.72

71.39

66.21

80.74

61.11

MixtralForCausalLM

HuginnV5.5-12.6B 📑 🔶

129.1

72.93

72.01

86.7

64.5

70.45

81.29

62.62

MistralForCausalLM

SauerkrautLM-Mixtral-8x7B-Instruct 📑 🔶

467

72.89

70.48

87.75

71.37

65.71

81.22

60.8

MixtralForCausalLM

Severus-7B-DPO 📑 🔶

72.4

72.81

70.22

87.09

64.93

64.41

80.66

69.52

MistralForCausalLM

MPOMixtral-8x7B-Instruct-v0.1 📑 🔶

467

72.8

70.99

87.95

70.26

66.52

82.56

58.53

MixtralForCausalLM

19B_TRUTH_DPO 📑 🔶

191.9

72.8

71.67

88.63

65.78

72.23

82.16

56.33

MixtralForCausalLM

CCK_Gony_v3.3 📑 🔶

467

72.76

70.39

87.88

71.43

67.41

81.22

58.23

MixtralForCausalLM

SauerkrautLM-Mixtral-8x7B-Instruct 📑 🔶

467

72.73

70.56

87.74

71.08

65.72

81.45

59.82

MixtralForCausalLM

TenyxChat-8x7B-v1 📑 🔶

467

72.72

69.71

87.76

71.12

65.42

81.22

61.11

MixtralForCausalLM

Mixtral-8x7B-Instruct-v0.1 📑 🔶

467

72.7

70.14

87.55

71.4

64.98

81.06

61.11

MixtralForCausalLM

garten2-7b 📑 🔶

72.4

72.65

69.37

87.54

65.44

59.5

84.69

69.37

MistralForCausalLM

Fimbulvetr-11B-v2-Test-14 📑 🔶

107.3

72.64

70.05

87.79

66.78

63.43

82.95

64.82

LlamaForCausalLM

Severus-7B 📑 🔶

72.4

72.58

68.43

86.89

65.2

61.36

80.9

72.71

MistralForCausalLM

KuroMitsu-11B 📑 🔶

110

72.58

70.31

88.07

66.66

61.36

84.69

64.37

LlamaForCausalLM

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: Smaug-72B-v0.1 📑 🔶
参数大小:

722.9

平均分:

80.48

模型名称: alpaca-dragon-72b-v1 📑 🔶
参数大小:

722.9

平均分:

79.3

模型名称: TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO_f16 📑 🔶
参数大小:

608.1

平均分:

77.91

模型名称: TomGrc_FusionNet_34Bx2_MoE_v0.1_full_linear_DPO 📑 🔶
参数大小:

608.1

平均分:

77.52

模型名称: CCK_Asura_v1 📑 🔶
参数大小:

689.8

平均分:

77.43

模型名称: LHK_DPO_v1 📑 🔶
参数大小:

128.8

平均分:

77.43

模型名称: UNA-SimpleSmaug-34b-v1beta 📑 🔶
参数大小:

343.9

平均分:

77.41

模型名称: FusionNet_34Bx2_MoE_v0.1 📑 🔶
参数大小:

608.1

平均分:

77.38

模型名称: Tess-72B-v1.5b 📑 🔶
参数大小:

722.9

平均分:

77.3

模型名称: Smaug-34B-v0.1 📑 🔶
参数大小:

343.9

平均分:

77.29

模型名称: Truthful_DPO_TomGrc_FusionNet_34Bx2_MoE 📑 🔶
参数大小:

608.1

平均分:

77.28

模型名称: DARE_TIES_13B 📑 🔶
参数大小:

128.8

平均分:

77.1

模型名称: 13B_MATH_DPO 📑 🔶
参数大小:

128.8

平均分:

77.08

模型名称: FusionNet_34Bx2_MoE 📑 🔶
参数大小:

608.1

平均分:

77.07

模型名称: MoE_13B_DPO 📑 🔶
参数大小:

128.8

平均分:

77.05

模型名称: 4bit_quant_TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO 📑 🔶
参数大小:

318

平均分:

76.95

模型名称: Truthful_DPO_cloudyu_Mixtral_34Bx2_MoE_60B 📑 🔶
参数大小:

608.1

平均分:

76.48

模型名称: CCK_Asura_v2.1 📑 🔶
参数大小:

689.8

平均分:

76.41

模型名称: FusionNet_7Bx2_MoE_v0.1 📑 🔶
参数大小:

128.8

平均分:

76.16

模型名称: NeuralTrix-7B-dpo 📑 🔶
参数大小:

72.4

平均分:

76.15

模型名称: MBX-7B-v3-DPO 📑 🔶
参数大小:

72.4

平均分:

76.13

模型名称: FusionNet_7Bx2_MoE_14B 📑 🔶
参数大小:

128.8

平均分:

75.91

模型名称: MiquMaid-v2-2x70B-DPO 📑 🔶
参数大小:

1253.5

平均分:

75.89

模型名称: AiMaven-Prometheus 📑 🔶
参数大小:

72.4

平均分:

75.74

模型名称: Pluto_24B_DPO_63 📑 🔶
参数大小:

128.8

平均分:

75.63

模型名称: Phoenix_DPO_60B 📑 🔶
参数大小:

608.1

平均分:

75.48

模型名称: Helion-4x34B 📑 🔶
参数大小:

1136.6

平均分:

75.48

模型名称: UNA-34BeagleSimpleMath-32K-v1 📑 🔶
参数大小:

343.9

平均分:

75.45

模型名称: Senku-70B-Full 📑 🔶
参数大小:

689.8

平均分:

75.44

模型名称: UNA-34Beagles-32K-bf16-v1 📑 🔶
参数大小:

343.9

平均分:

75.41

模型名称: Cosmosis-3x34B 📑 🔶
参数大小:

872.4

平均分:

75.39

模型名称: WestLake-7B-v2-laser-truthy-dpo 📑 🔶
参数大小:

72.4

平均分:

75.37

模型名称: Senku-70B-Full 📑 🔶
参数大小:

689.8

平均分:

75.36

模型名称: WestSeverus-7B-DPO-v2 📑 🔶
参数大小:

72.4

平均分:

75.29

模型名称: test3_sft_16bit 📑 🔶
参数大小:

72.4

平均分:

75.28

模型名称: Faraday-7B 📑 🔶
参数大小:

72.4

平均分:

75.25

模型名称: Astralis-4x34B 📑 🔶
参数大小:

1136.6

平均分:

75.24

模型名称: Faraday-7B 📑 🔶
参数大小:

72.4

平均分:

75.22

模型名称: WestSeverus-7B-DPO 📑 🔶
参数大小:

72.4

平均分:

75.17

模型名称: Sectumsempra-7B-DPO 📑 🔶
参数大小:

72.4

平均分:

75.14

模型名称: MiquMaid-v1-70B 📑 🔶
参数大小:

700

平均分:

75.12

模型名称: Bagel-Hermes-2x34B 📑 🔶
参数大小:

608.1

平均分:

75.1

模型名称: WestLakeX-7B-EvoMerge-Variant2 📑 🔶
参数大小:

72.4

平均分:

75.04

模型名称: WestLake-7B-v2-laser 📑 🔶
参数大小:

72.4

平均分:

74.78

模型名称: 60B_MoE_Coder_v3 📑 🔶
参数大小:

608.1

平均分:

74.75

模型名称: nontoxic-bagel-34b-v0.2 📑 🔶
参数大小:

343.9

平均分:

74.69

模型名称: WestLake-7B-v2 📑 🔶
参数大小:

72.4

平均分:

74.68

模型名称: MoMo-72B-LoRA-V1.4 📑 🔶
参数大小:

722.9

平均分:

74.67

模型名称: MoMo-72B-LoRA-V1.4 📑 🔶
参数大小:

722.9

平均分:

74.64

模型名称: bagel-dpo-34b-v0.2 📑 🔶
参数大小:

343.9

平均分:

74.5

模型名称: Westlake-7B 📑 🔶
参数大小:

72.4

平均分:

74.48

模型名称: WestLakeX-7B-EvoMerge 📑 🔶
参数大小:

72.4

平均分:

74.37

模型名称: Patronum-7B 📑 🔶
参数大小:

72.4

平均分:

74.27

模型名称: SauerkrautLM-SOLAR-Instruct 📑 🔶
参数大小:

107.3

平均分:

74.21

模型名称: UNA-SOLAR-10.7B-Instruct-v1.0 📑 🔶
参数大小:

107.3

平均分:

74.2

模型名称: SOLAR-10.7b-Instruct-truthy-dpo 📑 🔶
参数大小:

107.3

平均分:

74.11

模型名称: 19B_MATH_DPO 📑 🔶
参数大小:

191.9

平均分:

74.1

模型名称: UNA-POLAR-10.7B-InstructMath-v2 📑 🔶
参数大小:

107.3

平均分:

74.07

模型名称: LMCocktail-10.7B-v1 📑 🔶
参数大小:

107.3

平均分:

74.06

模型名称: UNAversal-2x7B-v1 📑 🔶
参数大小:

128.8

平均分:

74.05

模型名称: MixTAO-7Bx2-MoE-DPO 📑 🔶
参数大小:

128.8

平均分:

73.94

模型名称: meow 📑 🔶
参数大小:

107.3

平均分:

73.94

模型名称: CCK_Gony_v3 📑 🔶
参数大小:

467

平均分:

73.83

模型名称: UNAversal-8x7B-v1beta 📑 🔶
参数大小:

467

平均分:

73.78

模型名称: Aurora-Nights-70B-v1.0 📑 🔶
参数大小:

689.8

平均分:

73.77

模型名称: SuperBruphin-3x7B 📑 🔶
参数大小:

185.2

平均分:

73.75

模型名称: Nous-Hermes-2-Yi-34B 📑 🔶
参数大小:

343.9

平均分:

73.74

模型名称: MM-Orc-Vic-bagel-34b-c1000 📑 🔶
参数大小:

343.9

平均分:

73.68

模型名称: CCK_Asura_v2 📑 🔶
参数大小:

689.8

平均分:

73.62

模型名称: Experiment7-7B 📑 🔶
参数大小:

89.9

平均分:

73.55

模型名称: SOLAR-10.7b-Instruct-dpo 📑 🔶
参数大小:

107.3

平均分:

73.54

模型名称: Experiment8-7B 📑 🔶
参数大小:

89.9

平均分:

73.47

模型名称: Mixtral_7Bx5_MoE_30B 📑 🔶
参数大小:

297.9

平均分:

73.39

模型名称: Experiment9-7B 📑 🔶
参数大小:

89.9

平均分:

73.39

模型名称: Experiment1-7B 📑 🔶
参数大小:

89.9

平均分:

73.39

模型名称: Experiment2-7B 📑 🔶
参数大小:

89.9

平均分:

73.38

模型名称: Experiment4-7B 📑 🔶
参数大小:

89.9

平均分:

73.38

模型名称: Daredevil-7B 📑 🔶
参数大小:

72.4

平均分:

73.36

模型名称: Nous-Hermes-2-Mixtral-8x7B-DPO 📑 🔶
参数大小:

467

平均分:

73.35

模型名称: multimaster-7b-v2 📑 🔶
参数大小:

354.3

平均分:

73.33

模型名称: Nous-Hermes-2-MoE-2x34B 📑 🔶
参数大小:

608.1

平均分:

73.3

模型名称: SOLAR-10.7B-NahIdWin 📑 🔶
参数大小:

107.3

平均分:

73.21

模型名称: v-alpha-tross 📑 🔶
参数大小:

689.8

平均分:

73.16

模型名称: multimaster-7b-v3 📑 🔶
参数大小:

354.3

平均分:

73.07

模型名称: 34b-beta 📑 🔶
参数大小:

343.9

平均分:

73.04

模型名称: Marcoro14-7B-ties 📑 🔶
参数大小:

72.4

平均分:

73.01

模型名称: notux-8x7b-v1 📑 🔶
参数大小:

467

平均分:

72.97

模型名称: HuginnV5.5-12.6B 📑 🔶
参数大小:

129.1

平均分:

72.93

模型名称: SauerkrautLM-Mixtral-8x7B-Instruct 📑 🔶
参数大小:

467

平均分:

72.89

模型名称: Severus-7B-DPO 📑 🔶
参数大小:

72.4

平均分:

72.81

模型名称: MPOMixtral-8x7B-Instruct-v0.1 📑 🔶
参数大小:

467

平均分:

72.8

模型名称: 19B_TRUTH_DPO 📑 🔶
参数大小:

191.9

平均分:

72.8

模型名称: CCK_Gony_v3.3 📑 🔶
参数大小:

467

平均分:

72.76

模型名称: SauerkrautLM-Mixtral-8x7B-Instruct 📑 🔶
参数大小:

467

平均分:

72.73

模型名称: TenyxChat-8x7B-v1 📑 🔶
参数大小:

467

平均分:

72.72

模型名称: Mixtral-8x7B-Instruct-v0.1 📑 🔶
参数大小:

467

平均分:

72.7

模型名称: garten2-7b 📑 🔶
参数大小:

72.4

平均分:

72.65

模型名称: Fimbulvetr-11B-v2-Test-14 📑 🔶
参数大小:

107.3

平均分:

72.64

模型名称: Severus-7B 📑 🔶
参数大小:

72.4

平均分:

72.58

模型名称: KuroMitsu-11B 📑 🔶
参数大小:

110

平均分:

72.58