通俗理解梯度下降法 梯度下降法和隨機梯度下降法的區(qū)別?
梯度下降法和隨機梯度下降法的區(qū)別?梯度下降算法是一個寬泛的概念,意思是:當你優(yōu)化一個函數/分類器時,如何減少它的誤差?你不妨選擇梯度下降的方向,這很可能是最好的方向。既然你知道方向是梯度,你要走多久?
梯度下降法和隨機梯度下降法的區(qū)別?
梯度下降算法是一個寬泛的概念,意思是:當你優(yōu)化一個函數/分類器時,如何減少它的誤差?你不妨選擇梯度下降的方向,這很可能是最好的方向。既然你知道方向是梯度,你要走多久?答案是:隨機的。因此,梯度下降算法包括隨機梯度下降算法。
深度學習最終會淘汰掉其他所有機器學習算法嗎?
謝謝。我可以確切地說,不!也許首先,為什么深度學習被稱為“深度”?從當前技術的角度來看,深度學習結合底層特征,形成更抽象的屬性類別或特征的高層表示,從而發(fā)現數據的分布式特征表示。
深度學習屬于前者,它有很多參數需要調整,是一個非常大的參數模型。一般的機器學習模型屬于后者,它需要強大的特征來分離數據,最終得到不同的類別。
一般來說,目前深度學習確實有很多優(yōu)勢。例如,對我來說,這是非常簡單和暴力的。它不需要很長時間來調整參數,清理數據,并把它扔進去看看結果。如果不好,調整參數繼續(xù)嘗試。一般的機器學習模型不是這樣的。它需要大量的特征工程。但是,深度學習有一個問題,到目前為止還沒有解決的工程。它是一個可解釋性差的“黑匣子”,導致系統(tǒng)出現錯誤,無法快速找出原因或追溯以前的錯誤。所以在工程中,我們實際上更喜歡特征少的工程和解釋性強的模型來獲得更好的結果。我們期待著深學在未來科學技術的進一步發(fā)展。
我將在這里發(fā)表所有關于算法、機器學習和深度學習的有趣文章。
編寫代碼不容易。如果這篇文章對你有幫助,請喜歡