bp神經(jīng)網(wǎng)絡(luò)過擬合解決方法 深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?
深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?這不可能是一樣的。1. 過度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對許多情況給出正確的答案。即使它是過度安裝,你也無法證明它。此外,即使它能工作和排氣
深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?
這不可能是一樣的。
1. 過度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對許多情況給出正確的答案。即使它是過度安裝,你也無法證明它。此外,即使它能工作和排氣,也沒有壞處。
2. 是否過擬合與我們的神經(jīng)網(wǎng)絡(luò)模型和訓(xùn)練集有關(guān)。當(dāng)二者的組合過擬合時,它在訓(xùn)練集上運行良好,在驗證集上也會出現(xiàn)問題?,F(xiàn)在有一些方法可以對訓(xùn)練集的數(shù)據(jù)進行預(yù)處理、多次輸入和多次訓(xùn)練。
3. 目前,過度擬合的問題是不可避免的。培訓(xùn)本身就是一種適應(yīng)過程。如果未來在數(shù)學(xué)原理或應(yīng)用這方面有質(zhì)的突破,可能有解決的機會。
既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來建立更好的預(yù)測模型。許多大型互聯(lián)網(wǎng)公司更喜歡深度學(xué)習(xí)算法,因為他們獲得的用戶數(shù)據(jù)是數(shù)以億計的海量數(shù)據(jù),這更適合于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。
如果樣本數(shù)量較少,則更適合使用SVM、決策樹和其他機器學(xué)習(xí)算法。如果你有一個大的數(shù)據(jù)集,你可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)和其他深度學(xué)習(xí)算法。
以下是一個圖表,用于說明根據(jù)樣本數(shù)量和數(shù)據(jù)集大小選擇的任何機器學(xué)習(xí)算法。
如果你認(rèn)為它對你有幫助,你可以多表揚,也可以關(guān)注它。謝謝您
請教大牛神經(jīng)網(wǎng)絡(luò)的過擬合問題?
你的問題很模糊。你想知道神經(jīng)網(wǎng)絡(luò)的過擬合是什么樣的嗎?為什么會有過擬合。對于第一個問題,神經(jīng)網(wǎng)絡(luò)的過擬合類似于支持向量機、高斯混合模型等建模方法的過擬合,說明訓(xùn)練數(shù)據(jù)集的建模效果很好,而測試數(shù)據(jù)集的建模效果很差,由于強學(xué)習(xí)能力是預(yù)測模型中的噪聲會湮滅有用信息,導(dǎo)致泛化能力差。對于第二個問題,產(chǎn)生上述現(xiàn)象的主要原因是隱層節(jié)點過多(隱層節(jié)點越多,學(xué)習(xí)能力越強),這使得預(yù)測模型在訓(xùn)練過程中挖掘訓(xùn)練數(shù)據(jù)集中的噪聲,即噪聲會湮滅有用信息。因此,在使用神經(jīng)網(wǎng)絡(luò)建模時,必須處理模型過擬合的問題。一方面,我們可以增加樣本數(shù)據(jù)集,另一方面,我們可以使用交叉驗證來選擇適當(dāng)數(shù)量的隱層節(jié)點,在精度和泛化能力之間做出權(quán)衡。最常用的方法是加入正則化項,在一定程度上可以防止模型過擬合的問題。(機器學(xué)習(xí)算法和python學(xué)習(xí))
卷積神經(jīng)網(wǎng)絡(luò)作為特征提取器,用訓(xùn)練集訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)可以提取訓(xùn)練集的特征嗎?還是只能提取測試集的?
1。卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
2。卷積神經(jīng)網(wǎng)絡(luò)開發(fā)
3。反向傳播
當(dāng)用訓(xùn)練集訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(CNN)時,卷積神經(jīng)網(wǎng)絡(luò)正向傳播的卷積池過程就是特征提取過程。最后,計算損失函數(shù),然后根據(jù)鏈求導(dǎo)規(guī)則對反向傳播算法進行改進,得到新的CNN的權(quán)值參數(shù)。這是調(diào)整各層網(wǎng)絡(luò)和卷積核的特征抽取器的參數(shù)(各層的特征和功能不同)。
訓(xùn)練是為了使整個卷積神經(jīng)網(wǎng)絡(luò)的特征提取效果更好(越來越適合于訓(xùn)練集),所以訓(xùn)練后的卷積神經(jīng)網(wǎng)絡(luò)可以提取訓(xùn)練集的特征。
運行測試集的目的是測試特征提取器的能力。此時,通過訓(xùn)練集對CNN各層的參數(shù)進行訓(xùn)練,可以提取出相似訓(xùn)練集的參數(shù)(圖像、聲音、文本)。此時,我們需要再次運行測試集來測試CNN的特征提取能力。
數(shù)據(jù)集:機器學(xué)習(xí)任務(wù)中使用的一組數(shù)據(jù),每個數(shù)據(jù)集稱為一個樣本。反映樣品在某一方面的性能或性質(zhì)的項目或?qū)傩苑Q為特征。
訓(xùn)練集:訓(xùn)練過程中使用的數(shù)據(jù)集,其中每個訓(xùn)練樣本稱為訓(xùn)練樣本。從數(shù)據(jù)中學(xué)習(xí)模型的過程稱為學(xué)習(xí)(訓(xùn)練)。
測試集:學(xué)習(xí)模型后,將其用于預(yù)測的過程稱為測試,使用的數(shù)據(jù)集稱為測試集,每個樣本稱為測試樣本。