python生成指定長度的數(shù)組 機器學習與深度學習有什么異同?
機器學習與深度學習有什么異同?深度學習和一般機器學習的區(qū)別是什么1:一般機器學習一般指決策樹、邏輯回歸、支持向量機、xgboost等,深度學習的主要特點是使用深度神經(jīng)網(wǎng)絡(luò):深度卷積網(wǎng)絡(luò)、深度循環(huán)網(wǎng)絡(luò),
機器學習與深度學習有什么異同?
深度學習和一般機器學習的區(qū)別是什么
1:一般機器學習一般指決策樹、邏輯回歸、支持向量機、xgboost等,深度學習的主要特點是使用深度神經(jīng)網(wǎng)絡(luò):深度卷積網(wǎng)絡(luò)、深度循環(huán)網(wǎng)絡(luò),遞歸網(wǎng)絡(luò)等。算法在層次上沒有相似性。很難說相似性可能是每個人的函數(shù)都要擬合的高維函數(shù)。 ] ]2:一般機器學習在分析低維和可解釋的任務(wù)時表現(xiàn)更好。例如,數(shù)據(jù)挖掘和推薦算法。它們的特點是,總體而言,所收集的數(shù)據(jù)維數(shù)不高。以廣告推送任務(wù)為例,一般分析的數(shù)據(jù)維度僅包括性別、年齡、學歷、職業(yè)等,參數(shù)調(diào)整方向明確。
3:深度學習算法擅長分析高維數(shù)據(jù)。例如,圖像、聲音等。例如,圖像可以具有千萬像素,相當于千萬特征向量維,并且像素之間的關(guān)系不是特別明顯。在這種情況下,卷積神經(jīng)網(wǎng)絡(luò)能夠有效地處理這一問題,基本上能夠非常準確地掌握圖像的特征。但各維度的解釋力很弱,參數(shù)調(diào)整的方向也不明確(神經(jīng)元個數(shù)、隱層個數(shù)等)。綜上所述,兩者其實有很大的不同。近年來,深度學習得到了發(fā)展。傳統(tǒng)的機器學習算法大多來源于概率論和信息學。在編程方面,傳統(tǒng)的機器學習模型基本上集成到sklearn包中。對于深度學習,可以使用tensorflow作為框架。對于傳統(tǒng)機器學習的詳細理解,可以從李航的統(tǒng)計原理或周志華的機器學習(又稱西瓜書)中看到。由于近兩年關(guān)于深度學習的書籍不多,我們可以參考近兩年關(guān)于深度學習的論文。當然,它們都需要一個堅實的數(shù)學基礎(chǔ),主要是三本書:線性代數(shù)或高等代數(shù),高等數(shù)學或數(shù)學分析,概率論或隨機過程
!分類問題和回歸問題都需要根據(jù)訓練樣本找到一個真正的解決方案?;貧w問題是:給定一個新的模式,根據(jù)訓練集推斷出相應(yīng)的輸出y(實數(shù))。
換句話說,y=g(x)用于推斷任何輸入x的相應(yīng)輸出值。分類問題是:給定一個新模式,根據(jù)訓練集推斷其相應(yīng)的類別(如:1,-1)。也就是說,用y=sign(g(x))來推斷任何輸入x對應(yīng)的類別,綜上所述,回歸問題和分類問題的本質(zhì)是一樣的,唯一的區(qū)別是它們的輸出值范圍不同。在分類問題中,只有兩個值可以作為輸出,而在回歸問題中,任何實數(shù)都可以作為輸出。
支持向量機回歸與分類的區(qū)別?
謝謝。我可以確切地說,不!也許首先,為什么深度學習被稱為“深度”?從當前技術(shù)的角度來看,深度學習結(jié)合底層特征,形成更抽象的屬性類別或特征的高層表示,從而發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。
深度學習屬于前者,它有很多參數(shù)需要調(diào)整,是一個非常大的參數(shù)模型。一般的機器學習模型屬于后者,它需要強大的特征來分離數(shù)據(jù),最終得到不同的類別。
一般來說,目前深度學習確實有很多優(yōu)勢。例如,對我來說,這是非常簡單和暴力的。它不需要很長時間來調(diào)整參數(shù),清理數(shù)據(jù),并把它扔進去看看結(jié)果。如果不好,調(diào)整參數(shù)繼續(xù)嘗試。一般的機器學習模型不是這樣的。它需要大量的特征工程。但是,深度學習有一個問題,到目前為止還沒有解決的工程。它是一個可解釋性差的“黑匣子”,導致系統(tǒng)出現(xiàn)錯誤,無法快速找出原因或追溯以前的錯誤。所以在工程中,我們實際上更喜歡特征少的工程和解釋性強的模型來獲得更好的結(jié)果。我們期待著深學在未來科學技術(shù)的進一步發(fā)展。
我將在這里發(fā)表所有關(guān)于算法、機器學習和深度學習的有趣文章。
編寫代碼不容易。如果這篇文章對你有幫助,請喜歡