softmax交叉熵?fù)p失函數(shù) 為什么交叉熵cross-entropy可以用于計(jì)算代價(jià)?
為什么交叉熵cross-entropy可以用于計(jì)算代價(jià)?如果你是一個(gè)面試者,怎么判斷一個(gè)面試官的機(jī)器學(xué)習(xí)水平?請(qǐng)問(wèn)神經(jīng)網(wǎng)絡(luò)有多個(gè)輸出的回歸問(wèn)題,損失函數(shù)如何定義比較合理?在我看來(lái),多重輸出與損失函數(shù)的
為什么交叉熵cross-entropy可以用于計(jì)算代價(jià)?
如果你是一個(gè)面試者,怎么判斷一個(gè)面試官的機(jī)器學(xué)習(xí)水平?
請(qǐng)問(wèn)神經(jīng)網(wǎng)絡(luò)有多個(gè)輸出的回歸問(wèn)題,損失函數(shù)如何定義比較合理?
在我看來(lái),多重輸出與損失函數(shù)的類型選擇沒(méi)有直接關(guān)系。一般來(lái)說(shuō),使用交叉熵是沒(méi)有問(wèn)題的,即使MSE也不會(huì)產(chǎn)生特別顯著的差異。但是,最好添加范數(shù)的正則化因子(計(jì)算量較少)。然而,輸出的大小是影響算法收斂性的關(guān)鍵因素,因?yàn)槿绻枰獙?duì)結(jié)果進(jìn)行歸一化也是非常耗時(shí)的。如果有太多的輸出,例如,超過(guò)1000,您可以嘗試分層softmax。有關(guān)代碼,請(qǐng)參閱word2vec。希望對(duì)您有所幫助
這個(gè)問(wèn)題很常見(jiàn),因?yàn)榫W(wǎng)絡(luò)的損耗函數(shù)是自己設(shè)計(jì)的。如果不指定,則有兩種損失函數(shù):均方誤差和交叉熵。損失函數(shù)的結(jié)果如下。中誤差當(dāng)然是指輸出和標(biāo)簽之間的差的平方和的平均值。計(jì)算方法如下:
卷及神經(jīng)網(wǎng)絡(luò)中l(wèi)oss怎么計(jì)算?
torch是目前非常流行的深度學(xué)習(xí)框架。如果你想學(xué)習(xí)它,最好先學(xué)習(xí)一些python編程基礎(chǔ),因?yàn)楹芏嘤脩舳际褂盟琾ython的代碼都是用python開(kāi)發(fā)的。在學(xué)習(xí)了一點(diǎn)Python之后,它將有助于你理解和學(xué)習(xí)更多關(guān)于Python的知識(shí)。比如,要蓋房子,就要打好基礎(chǔ)。
網(wǎng)上有很多關(guān)于Python的免費(fèi)教程。在今天的文章中,我寫(xiě)了一篇關(guān)于學(xué)習(xí)python的文章。在理解了python的一些基本語(yǔ)法之后,我可以編寫(xiě)和運(yùn)行一些簡(jiǎn)單的python程序,然后我就可以開(kāi)始學(xué)習(xí)python了。在其官方網(wǎng)站上有一個(gè)學(xué)習(xí)教程供參考:http:http:www.python.com//pytorch.org/教程/