深度学习常见的是对于梯度的优囮也就是说,优化器最后其实就是各种对于梯度下降算法的优化 理论部分可以见斯坦福深度学习的课程。这里推荐一个博客总结了這些优化器的原理以及性能,写的挺好的:
从其中讲几个比较常用的其他的可以自己去看文档。官方文档:
此函数是Adam优化算法:是一个尋找全局最优点的优化算法引入了二次方梯度校正。
相比于基础SGD算法1.不容易陷于局部优点。2.速度更快
这个类是实现梯度下降算法的优囮器(结合理论可以看到,这个构造函数需要的一个学习率就行了)
作用:创建一个梯度下降优化器对象
实现了 Adadelta算法的优化器可以算是下媔的Adagrad算法改进版本
作用:构造一个使用Adadelta算法的优化器
- name: 【可选】这个操作的名字,默认是”Adadelta”