決策樹(shù)和隨機(jī)森林比較 隨機(jī)森林為什么隨著樹(shù)的數(shù)目增多,分類(lèi)準(zhǔn)確率可能會(huì)下降?
隨機(jī)森林為什么隨著樹(shù)的數(shù)目增多,分類(lèi)準(zhǔn)確率可能會(huì)下降?隨機(jī)森林是一種集成分類(lèi)器。分析了影響隨機(jī)林性能的參數(shù)。結(jié)果表明,隨機(jī)林中的樹(shù)數(shù)對(duì)隨機(jī)林的性能有重要影響。研究總結(jié)了林木株數(shù)的確定方法和隨機(jī)森林經(jīng)營(yíng)
隨機(jī)森林為什么隨著樹(shù)的數(shù)目增多,分類(lèi)準(zhǔn)確率可能會(huì)下降?
隨機(jī)森林是一種集成分類(lèi)器。分析了影響隨機(jī)林性能的參數(shù)。結(jié)果表明,隨機(jī)林中的樹(shù)數(shù)對(duì)隨機(jī)林的性能有重要影響。研究總結(jié)了林木株數(shù)的確定方法和隨機(jī)森林經(jīng)營(yíng)指數(shù)的評(píng)價(jià)方法。
以分類(lèi)精度為評(píng)價(jià)方法,利用UCI數(shù)據(jù)集分析了隨機(jī)森林中決策樹(shù)數(shù)目與數(shù)據(jù)集之間的關(guān)系。實(shí)驗(yàn)結(jié)果表明,對(duì)于大多數(shù)數(shù)據(jù)集,當(dāng)樹(shù)數(shù)為100時(shí),分類(lèi)精度可以滿(mǎn)足要求。實(shí)驗(yàn)結(jié)果表明,隨機(jī)森林的分類(lèi)性能與支持向量機(jī)相當(dāng)。
既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類(lèi)問(wèn)題,那SVM、決策樹(shù)這些算法還有什么意義呢?
這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來(lái)建立更好的預(yù)測(cè)模型。許多大型互聯(lián)網(wǎng)公司更喜歡深度學(xué)習(xí)算法,因?yàn)樗麄儷@得的用戶(hù)數(shù)據(jù)是數(shù)以?xún)|計(jì)的海量數(shù)據(jù),這更適合于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。
如果樣本數(shù)量較少,則更適合使用SVM、決策樹(shù)和其他機(jī)器學(xué)習(xí)算法。如果你有一個(gè)大的數(shù)據(jù)集,你可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)和其他深度學(xué)習(xí)算法。
這是一個(gè)機(jī)器學(xué)習(xí)算法,可選擇任意數(shù)量的樣本和圖形大小。
如果你認(rèn)為它對(duì)你有幫助,你可以多表?yè)P(yáng),也可以關(guān)注它。謝謝您!