数据学习
登录
注册
原创博客
期刊会议
学术世界
期刊出版社
领域期刊
SCI/SCIE/SSCI/EI简介
期刊列表
会议列表
所有期刊分区
学术期刊信息检索
JCR期刊分区查询
CiteScore期刊分区查询
中科院期刊分区查询
领域期刊分区
管理 - UTD24期刊列表
管理 - AJG(ABS)期刊星级查询
管理 - FMS推荐期刊列表
计算机 - CCF推荐期刊会议列表
高校期刊分区
南大核心(CSSCI)
合工大小核心
合工大大核心
AI资源仓库
AI领域与任务
AI研究机构
AI学术期刊
AI论文快讯
AI预训练模型
AI数据集
AI开源工具
数据推荐
网址导航
我的网址导航
程序员必备网站
最小二乘法(Least Squares)详细介绍
标签:
#优化#
#机器学习#
#统计#
时间:2018/10/16 15:08:25
作者:小木
最小二乘法(Least Squares)是回归分析中的一种标准方法,它是用来近似[超定系统(Overdetermined System)](https://en.wikipedia.org/wiki/Overdetermined_system "超定系统(Overdetermined System)")答案的一种方法。超定系统是指数学中的一种概念,一组包含未知数的方程组中,如果方程的数量大于未知数的数量,那么这个系统就是一个超定系统(超定方程组)。超定系统(超定方程组)一般是无解的,只能求近似解。而最小二乘法就是求超定方程组近似解的一种方法。 举个通俗的例子,如下二维平面图中有很多个点,假设我们想用一条直线来拟合数据,即期望能找到一条直线能最好地穿过这些数据点。

那么图中,一个点就可以构造一个方程,而未知数显然只有两个(直线的斜率和截距),因此这就是一个超定系统,我们是没有办法找到一条完美的直线,使得上述的点都在直线上。因此,我们只能期望找到一条最好的“适配(best fitting line)”直线来拟合这些数据。那么,什么样的直线才是我们需要的呢?在定义这样的直线之前,我们先定义一些变量: 首先,使用$y\_i$表示数据$x\_i$的观测结果,即真实值,或者是观测的响应变量(observed response)。 其次,$x\_i$表示第$i$个数据,即第$i$个预测变量(predictor value) 最后,$\hat{y}\_i$表示第$i$个数据的实验结果,即预测的响应变量(predicted response)。 注意,上述表述中没有严格区分变量和数值的含义。那么,我们假设最佳的直线表示如下: ```math \hat{y} = \beta x_i + \beta_0 ``` 有了这条直线之后,我们就可以使用已知的$x$来预测其对应的标签$y$。例如,假设$x$是某个学生的体重,$y$是某个学生的身高,建立了学生的体重和身高之间的回归方程之后我们就可以在已知学生的体重的情况下来预测学生的身高了。但是实际上,我们的预测未必是准确的,例如体重为32公斤的学生,实际身高是1.27米,但是我们预测的结果可能是1.17米,那么我们预测的结果和真实的结果之间就有了一个预测误差/prediction error(残差,residual error)。这个之间的差值是0.1米。某个我们最终确定的直线在训练集中会产生$n$个这样的误差。我们希望这$n$个误差的平均值越小越好。最小误差的那个直线就是我们期望找到的直线。 因此,找一条直线能使得所有点离这个直线的距离平均值最小的这种近似的结果就是回归分析的目标。 最小二乘(Least squares)的含义就是在整体的优化方案中,最小化每个方程结果的[残差](https://www.datalearner.com/blog/1051537434933671 "残差")平方和。 最小二乘法主要包含了两大类方法,一种是线性最小二乘法(Linear Least Squares),一种是非线性最小二乘法(Nonlinear Least Squares)。 线性最小二乘法主要包括如下三种类型: - 普通最小二乘法(Ordinary Least Squares, OLS) - 加权最小二乘法(Weighted Least Squares, WLS) - 广义最小二乘法(Generalized Least Squares, GLS ) 线性模型的形式(参考:[线性回归的符号表示和相关公式](https://www.datalearner.com/blog/1051539229329870 "线性回归的符号表示和相关公式")): ```math \bold{\hat{y}} = \bold{X}\bold{\beta}^T ``` 其中,$\bold{\bold{\beta}}$是回归系数(包含了偏差),也是我们待求的结果。数据就是给定的$(\bold{X},\bold{y})$。一般情况下这个方程是无解的,我们希望能找到一个最优的$\bold{\beta}$可以最好的适配数据: ```math \bold{\hat{\beta}} = \arg min _\bold{\beta} S(\bold{\beta}) ``` 其中$S(\bold{\beta})$是目标函数: ```math S(\bold{\beta}) = \sum_{i=1}^m |y_i - \sum_{j=1}^n x_{ij}\beta_j|^2 = ||y- \bold{X} \bold{\beta}^T||^2 ``` 为什么要采用这个形式的目标函数呢?因为这样的最小化问题在$\bold{X}$的列是线性独立的情况下,有唯一的解。 #### 普通最小二乘法(Ordinary Least Squares) 普通最小二乘法是应用最广泛的一种最小二乘法,它的目标是求得一个使得全局残差平方和最小的参数。 普通最小二乘法要求残差满足Gauss-Markov假设,即: ```math E(\beta_0) = 0 ``` ```math Cov(\beta_0) = \sigma^2I ``` ```math Cov(\beta_0, x) = 0 ``` 也就是说,残差的期望为0,协方差是单位矩阵,与自变量的协方差为0。 关于普通最小二乘法(OLS)的参数估计和推导,参考[普通最小二乘法的详细推导](https://www.datalearner.com/blog/1051539312290417 "普通最小二乘法的详细推导")。 #### 加权最小二乘法(Weighted Least Squares) 加权最小二乘法和普通最小二乘法形式类似,只是残差不满足Gauss-Markov假设,其残差的协方差不要求是单位矩阵,而是对角阵,且对角线的值不相等。即: ```math E(\beta_0) = 0 ``` ```math Cov(\beta_0) = \sigma^2\sum ``` ```math Cov(\beta_0, x) = 0 ``` 这里的$\sum$是对角阵,对角线上的值不相等。 前面说到,我们回归的目标函数是: ```math S(\bold{\beta}) = \sum_{i=1}^m (y_i - \sum_{j=1}^n x_{ij}\beta_j)^2 ``` 但是有时候我们希望给某些观测值更高的权重,那么我们的目标函数就变成了: ```math S(\bold{\beta}) = \sum_{i=1}^m w_i(y_i - \sum_{j=1}^n x_{ij}\beta_j)^2 ``` 这就是加权最小二乘法。为什么要使用这个权重呢?在普通最小二乘法中,我们的因变量方差是一个常数,即: ```math var(y_i) = \sigma_i^2 ``` 假设我们使用如下权重: ```math w_i = \frac{1}{\sigma_i^2} ``` 那么,WLS比普通最小二乘法有更小的标准差。实际上使用上述权重可以得到最小的标准差,是最优的结果。 参考: https://www.zhihu.com/question/37930145 https://onlinecourses.science.psu.edu/stat501/node/352/ https://pdfs.semanticscholar.org/presentation/204e/c48833c58a45b4bdc4c44cdf52fcd4c4e1f9.pdf
相关博客
最热博客