jjzjj

研究一下不同梯度下降的优化器和自己的优化器的比较(SGD,Momentum,AdaGrad,Adam)

研究一下不同梯度下降的优化器和自己的优化器的比较(SGD,Momentum,AdaGrad,Adam)参考:《深度学习入门:基于Python的理论与实现》importmatplotlib.pyplotaspltimportnumpyasnpimportlatexifyfromcollectionsimportOrderedDictfromcommon.optimizerimport*一维函数的优化定义函数defJ(x):returnx**6/6-5.5*x**5/5+6.5*x**4/4+5.5*x**3/3-7.5*x**2/2defdJ(x):returnx**5-5.5*x**4+6.5

研究一下不同梯度下降的优化器和自己的优化器的比较(SGD,Momentum,AdaGrad,Adam)

研究一下不同梯度下降的优化器和自己的优化器的比较(SGD,Momentum,AdaGrad,Adam)参考:《深度学习入门:基于Python的理论与实现》importmatplotlib.pyplotaspltimportnumpyasnpimportlatexifyfromcollectionsimportOrderedDictfromcommon.optimizerimport*一维函数的优化定义函数defJ(x):returnx**6/6-5.5*x**5/5+6.5*x**4/4+5.5*x**3/3-7.5*x**2/2defdJ(x):returnx**5-5.5*x**4+6.5