matlab梯度下降法函數(shù) adagrad算法使用的是不是一階差分?
adagrad算法使用的是不是一階差分?還有很多,一步割線法,擬牛頓法,量子化共軛梯度法,彈性梯度下降法等等。詳細(xì)內(nèi)容可以在MATLAB的幫助文件訓(xùn)練函數(shù)中查看。路徑是:神經(jīng)網(wǎng)絡(luò)工具箱>函數(shù)>
adagrad算法使用的是不是一階差分?
還有很多,一步割線法,擬牛頓法,量子化共軛梯度法,彈性梯度下降法等等。詳細(xì)內(nèi)容可以在MATLAB的幫助文件訓(xùn)練函數(shù)中查看。路徑是:神經(jīng)網(wǎng)絡(luò)工具箱>函數(shù)>訓(xùn)練函數(shù)。您可以看到函數(shù)和各種算法的詳細(xì)介紹