決策樹算法的應(yīng)用場景 既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來建立更好的預(yù)
既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來建立更好的預(yù)測模型。許多大型互聯(lián)網(wǎng)公司更喜歡深度學(xué)習(xí)算法,因為他們獲得的用戶數(shù)據(jù)是數(shù)以億計的海量數(shù)據(jù),這更適合于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。
如果樣本數(shù)量較少,則更適合使用SVM、決策樹和其他機器學(xué)習(xí)算法。如果你有一個大的數(shù)據(jù)集,你可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)和其他深度學(xué)習(xí)算法。
以下是一個圖表,用于說明根據(jù)樣本數(shù)量和數(shù)據(jù)集大小選擇的任何機器學(xué)習(xí)算法。
如果你認為它對你有幫助,你可以多表揚,也可以關(guān)注它。謝謝您
決策樹樹算法目前的應(yīng)用場景有哪些?
這兩種應(yīng)用場景是不同的。KD樹是k近鄰優(yōu)化搜索的常用方法。如果非要找出差異,典型的是KD樹在建樹過程中會反復(fù)使用全維特征,決策樹方法的關(guān)鍵步驟如下:1。繪制決策樹。決策樹的繪制過程就是對未來可能發(fā)生的各種事件進行仔細思考和預(yù)測的過程。最后,我們繪制了概率分支。
2. 概率值由專家估計法或試驗數(shù)據(jù)計算,概率值寫在概率分支的位置上。
3. 損益的預(yù)期值是從樹的頂部,從右到左計算的。采用期望值法進行計算。如果決策目標(biāo)是盈利,則比較每個分支,選擇期望值最高的分支,然后修剪其他分支。
1. 決策樹易于理解和實現(xiàn)。經(jīng)過解釋,人們有能力理解決策樹的含義。
2. 對于決策樹來說,數(shù)據(jù)準(zhǔn)備往往是簡單的或不必要的。其他技術(shù)通常需要數(shù)據(jù)泛化,例如刪除冗余或空白屬性。
3. 它可以同時處理數(shù)據(jù)類型和常規(guī)類型屬性。其他技術(shù)通常需要單個數(shù)據(jù)屬性。
4. 在相對較短的時間內(nèi),對于大數(shù)據(jù)源可以取得可行的、良好的效果。
5. 它對缺少的值不敏感
6。它可以處理無關(guān)的特征數(shù)據(jù)
7。效率高。決策樹只需構(gòu)建一次,重復(fù)使用。每個預(yù)測的最大計算次數(shù)不超過決策樹的深度。
很難預(yù)測連續(xù)場。
2. 對于具有時間序列的數(shù)據(jù),需要進行大量的預(yù)處理。
3. 當(dāng)類別太多時,錯誤可能會增加得更快。
4. 一般算法分類,只根據(jù)一個字段進行分類。
5. 在處理特征相關(guān)性強的數(shù)據(jù)時,性能不是很好