tensorflow模型預(yù)測太慢 如何理解tensorflow中的多線程?
如何理解tensorflow中的多線程?深度學(xué)習(xí)的模型訓(xùn)練是基于批量學(xué)習(xí)的。因此,每次執(zhí)行梯度更新時(shí),不需要完整的數(shù)據(jù)集,只需要一批數(shù)據(jù)。如果使用TF記錄,tensorflow不會(huì)將100000個(gè)圖像
如何理解tensorflow中的多線程?
深度學(xué)習(xí)的模型訓(xùn)練是基于批量學(xué)習(xí)的。因此,每次執(zhí)行梯度更新時(shí),不需要完整的數(shù)據(jù)集,只需要一批數(shù)據(jù)。如果使用TF記錄,tensorflow不會(huì)將100000個(gè)圖像完全讀取到內(nèi)存中,而是會(huì)自動(dòng)優(yōu)化每個(gè)批提取,并且只從TF記錄中讀取相應(yīng)的批。因此,強(qiáng)烈建議使用TF-record,它可以大大提高內(nèi)存使用和數(shù)據(jù)提取的效率,以及模型的整體訓(xùn)練效率
如果你想用少量的代碼盡快建立和測試神經(jīng)網(wǎng)絡(luò),keras是最快的,而且序列API和模型的功能非常強(qiáng)大。而且keras的設(shè)計(jì)非常人性化。以數(shù)據(jù)輸入和輸出為例,與keras的簡單操作相比,tensorflow編譯碼的構(gòu)造過程非常復(fù)雜(尤其對于初學(xué)者來說,大量的記憶過程非常痛苦)。此外,keras將模塊化作為設(shè)計(jì)原則之一,用戶可以根據(jù)自己的需求進(jìn)行組合。如果你只是想快速建立通用模型來實(shí)現(xiàn)你的想法,keras可以是第一選擇。
但是,包裝后,keras將變得非常不靈活,其速度相對較慢。如果高度包裝,上述缺點(diǎn)將更加明顯。除了一些對速度要求較低的工業(yè)應(yīng)用外,由于tensorflow的速度較高,因此會(huì)選擇tensorflow
如果您在驗(yàn)證您的想法時(shí),想定義損失函數(shù)而不是使用現(xiàn)有的設(shè)置,與keras相比,tensorflow提供了更大的個(gè)性空間。此外,對神經(jīng)網(wǎng)絡(luò)的控制程度將在很大程度上決定對網(wǎng)絡(luò)的理解和優(yōu)化,而keras提供的權(quán)限很少。相反,tensorflow提供了更多的控制權(quán),比如是否訓(xùn)練其中一個(gè)變量、操作梯度(以獲得訓(xùn)練進(jìn)度)等等。
盡管它們都提供了深度學(xué)習(xí)模型通常需要的功能,但如果用戶仍然追求一些高階功能選擇,例如研究特殊類型的模型,則需要tensorflow。例如,如果您想加快計(jì)算速度,可以使用tensorflow的thread函數(shù)來實(shí)現(xiàn)與多個(gè)線程的相同會(huì)話。此外,它還提供了調(diào)試器功能,有助于推斷錯(cuò)誤和加快操作速度。
Keras還是TensorFlow,程序員該如何選擇深度學(xué)習(xí)框架?
模型本身只是一組參數(shù)和框架。使用多個(gè)線程運(yùn)行取決于應(yīng)用程序方法,與訓(xùn)練無關(guān)。如果能夠部署分布式計(jì)算,就可以實(shí)現(xiàn)多線程、多服務(wù)器的分布式計(jì)算。如果我們不能部署它,那就沒辦法了。