梯度下降法
梯度下降法(Gradient Descent,GD)是一种常见的一阶(first-order)优化方法,是求解 无约束优化问题 最简单、最经典的方法之一。,在最优化、统计学以及机器学习等领域有着广泛的应用。 所谓的一阶方法就是仅使用目标函数的一阶导数,不利用其高阶导数。 那什么是无约束优化问题呢?举个例子,在一元函数法 f ( x ) f(x) f ( x ) 的图像中,求无约束最优化问题,即不对定义域或值域做任何限制的情况下,求解函数 f ( x ) f(x) f ( x ) 的最小值。 1、场景假设 梯度下降法的基本思想可以类比为一个下山的过程。 假设这样一个场景:一个人需要从红色山顶得 某处 开始下山, 尽快 到达蓝色得山底。在下山之前他需要确认两件事: 下山的方向 下山的距离 按照梯度下降算法的思想,它将按如下操作达到最低点: 第一步,明确自己现在所处的位置 第二步,找到相对于该位置而言下降最快的方向( 下山的方向 ) 第三步, 沿着第二步找到的方向走一小步( 下山的距离 ),到达一个新的位置,此时的位置肯定比原来低 第四部, 回到第一步,重复执行这个过程,直到到达山底 这一过程形象的描述了梯度下降法求解无约束最优化问题的过程,下面我们将例子里的关键信息与梯度下降法中的关键信息对应起来: 山代表了需要优化的函数表达式; 山的最低点就是该函数的最优值,也就是我们的目标;