DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
  1. Home/
  2. Blog/
  3. Tag: 高斯分布
Tag

Articles tagged "高斯分布"

A curated list of original AI and LLM articles related to "高斯分布", updated regularly.

Tags:#高斯分布
Wishart分布简介

Wishart分布简介

Wishart分布在多元高斯的贝叶斯推断中非常重要。它通常作为正态分布的协方差矩阵的逆矩阵的共轭先验存在。这篇博客将详细讲述Wishart分布及其作用。

2017/11/04 09:29:4640,155
#Wishart分布#分布
高斯分布的贝叶斯推断总结

高斯分布的贝叶斯推断总结

高斯分布是最常见的分布,也是数据挖掘和人工智能中相关统计学习方法所涉及到的最重要的分布之一。使用贝叶斯理论进行统计推断是目前最流行的推断方式。

2017/11/04 09:25:067,277
#正态分布#统计
多元高斯分布(多元正态分布)简介

多元高斯分布(多元正态分布)简介

高斯分布是一种非常常见的分布,对于一元高斯分布我们比较熟悉,对于高斯分布的多元形式有很多人不太理解。这篇博客的材料主要来源Andrew Ng在斯坦福机器学习课的材料。

2017-01-28 23:02:4336,898
#正态分布#统计基础

Topic Collections

RAG (Retrieval-Augmented Generation)
Long Context (Large Language Models)
AI Agent Practices

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

Today's Picks

  • Saleforce发布最新的开源语言-视觉处理深度学习库LAVIS
  • 分解机(Factorization Machine, FM)模型简介以及如何使用SGD、ALS和MCMC求解分解机
  • 狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)
  • LiveCodeBench:全面的 LLM 代码评测基准基准
  • DataLearnerAI-GPT:可以回答关于大模型评测结果的GPT
  • 重磅!第二代通义千问大模型开源,阿里巴巴一口气开源了30个不同参数规模的模型,其中Qwen1.5-72B仅次于GPT-4.
  • 流浪地球2的数字生命计划可能快实现了!HeyGen即将发布下一代AI真人视频生成技术,效果逼真到无法几乎分辨!
  • tokens危机到来该怎么办?新加坡国立大学最新研究:为什么当前的大语言模型的训练都只有1次epoch?多次epochs的大模型训练是否有必要?