tensorflow多gpu并行計(jì)算 為什么tensorflow訓(xùn)練用GPU比CPU更慢了?
為什么tensorflow訓(xùn)練用GPU比CPU更慢了?最重要的因素可能是GPU的利用率不足。例如,我的機(jī)器運(yùn)行時(shí)尚MNIST,GPU的利用率只有3%左右,而且GPU的速度是CPU的兩倍。GPU性能一般
為什么tensorflow訓(xùn)練用GPU比CPU更慢了?
最重要的因素可能是GPU的利用率不足。例如,我的機(jī)器運(yùn)行時(shí)尚MNIST,GPU的利用率只有3%左右,而且GPU的速度是CPU的兩倍。
GPU性能一般,怎么實(shí)現(xiàn)分布式模型訓(xùn)練?
如果同一臺(tái)機(jī)器上有多個(gè)GPU
請(qǐng)使用多塔結(jié)構(gòu)(詳細(xì)信息請(qǐng)參閱tensorflow官方教程)
如果總共只有一個(gè)GPU
請(qǐng)使用AWS云GPU服務(wù)器,最多可租用8塊并行特斯拉V100計(jì)算圖形卡
歡迎關(guān)注標(biāo)題|機(jī)器學(xué)習(xí)干貨
補(bǔ)充:
所謂多塔結(jié)構(gòu)就是讓每個(gè)GPU承擔(dān)一個(gè)小批量的一小部分,并計(jì)算每個(gè)小批量中每個(gè)參數(shù)的導(dǎo)數(shù)值。最后,你可以通過(guò)平均這些導(dǎo)數(shù)值來(lái)完成一批訓(xùn)練
tensorflow是由Google開(kāi)發(fā)的人工智能框架?,F(xiàn)在有了中國(guó)的官方網(wǎng)站和他們的社區(qū)。你可以按照官方網(wǎng)站的例子來(lái)學(xué)習(xí)。如果不懂,可以去tensorflow社區(qū)查看,或者提問(wèn),當(dāng)然GitHub在這方面也有很多知識(shí),可以參考學(xué)習(xí),如果沒(méi)有GPU,可以使用谷歌的colab,免費(fèi)的GPU