深度学习优化函数详解(6)—— adagrad
demi 在 周三, 09/12/2018 - 15:59 提交
前面的一系列文章的优化算法有一个共同的特点,就是对于每一个参数都用相同的学习率进行更新。但是在实际应用中各个参数的重要性肯定是不一样的,所以我们对于不同的参数要动态的采取不同的学习率,让目标函数更快的收敛。
adagrad方法是将每一个参数的每一次迭代的梯度取平方累加再开方,用基础学习率除以这个数,来做学习率的动态更新。这个比较简单,直接上公式。
公式推导
∇θiJ(θ) 表示第 i 个参数的梯度,对于经典的SGD优化函数我们可以这样表示