痴货小逗逗
梯度下降法是一个一阶最优化算法,通常也称为最陡下降法,但是不该与近似积分的最陡下降法(英语:Method of steepest descent)混淆。
梯度下降算法使用当前位置的梯度迭代计算下一个点,然后对其进行缩放(按学习率)并从当前位置减去获得的值(迈出一步)。它减去该值,因为我们想要最小化函数(最大化它会增加)。
注意事项
从数学上的角度来看,梯度的方向是函数增长速度最快的方向,那么梯度的反方向就是函数减少最快的方向。那么,如果想计算一个函数的最小值,就可以使用梯度下降法的思想来做。
注意得到的函数临界点,临界点并不一定是全局最大值或者全局最小值,甚至不是局部的最大值或者局部最小值。

wangeunice
梯度下降法(英语:Gradient descent)是一个一阶最优化算法,通常也称为最陡下降法,但是不该与近似积分的最陡下降法(英语:Method of steepest descent)混淆。
要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。
如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;这个过程则被称为梯度上升法。
梯度下降算法使用当前位置的梯度迭代计算下一个点,然后对其进行缩放(按学习率)并从当前位置减去获得的值(迈出一步)。它减去该值,因为我们想要最小化函数(最大化它会增加)。
缺点
梯度下降法的缺点包括:
1、靠近局部极小值时速度减慢。
2、直线搜索可能会产生一些问题。
3、可能会“之字型”地下降。