深度学习技巧之Batch Normalization
一、概念简介
Batch Normalization是深度学习中最重要的技巧之一。是由Sergey Ioffe和Christian Szeged创建的。Batch Normalization使超参数的搜索更加快速便捷,也使得神经网络鲁棒性更好。
一般来说,在训练类似逻辑回归或者深度学习的算法的时候,我们需要对输入数据进行标准化,这样可以保证输入的数据均值为0,且输入数据都在一定范围内,这样做主要原因是非标准化的数据优化的时候目标函数是一个扁平的结果,会影响学习的速度,而标准化之后的目标函数是接近圆形的结果,对于梯度下降求解来说能显著加快找到最优值的速度。如下图所示:



