python編程 CUDA有什么用?
CUDA有什么用?CUDA(Compute Unified Device Architecture)是NVIDIA推出的計(jì)算平臺(tái)。隨著圖形卡的發(fā)展,GPU的功能越來越強(qiáng)大,GPU對(duì)顯示圖像進(jìn)行了優(yōu)化,
CUDA有什么用?
CUDA(Compute Unified Device Architecture)是NVIDIA推出的計(jì)算平臺(tái)。隨著圖形卡的發(fā)展,GPU的功能越來越強(qiáng)大,GPU對(duì)顯示圖像進(jìn)行了優(yōu)化,在計(jì)算方面已經(jīng)超過了普通CPU。如果這樣一個(gè)功能強(qiáng)大的芯片僅僅用作顯卡,那就太浪費(fèi)了。因此,NVIDIA推出了CUDA,它使圖形卡可以用于圖像計(jì)算以外的其他用途。由于GPU具有數(shù)據(jù)密集處理和并行計(jì)算的特點(diǎn),CUDA非常適合需要大規(guī)模并行計(jì)算的領(lǐng)域。目前CUDA可以用C語言開發(fā),并提供FORTRAN應(yīng)用接口。預(yù)計(jì)CUDA未來將支持C語言,可廣泛應(yīng)用于圖形動(dòng)畫、科學(xué)計(jì)算、地質(zhì)、生物、物理模擬等領(lǐng)域。
Python語言其實(shí)很慢,為什么機(jī)器學(xué)習(xí)這種快速算法步驟通常還是用呢?
對(duì)于那些使用了多種開發(fā)語言(Java、C#、nodejs、Erlang)然后轉(zhuǎn)用Python進(jìn)行機(jī)器學(xué)習(xí)的人,我想談?wù)勎业目捶ā?/p>
首先,Python真的很慢嗎?我的回答是真的。非常慢。for循環(huán)比CPP慢兩個(gè)數(shù)量級(jí)。
那么為什么要使用Python呢?如果我們遍歷超過一億個(gè)數(shù)據(jù),兩個(gè)數(shù)量級(jí)的差異是不可接受的。但是,如果我們使用Python來執(zhí)行頂層邏輯并阻塞數(shù)以億計(jì)的數(shù)據(jù),Python只會(huì)循環(huán)十幾次,剩下的就留給CPU和GPU了。所以兩個(gè)數(shù)量級(jí)無關(guān)緊要?一毫秒和100毫秒在整個(gè)系統(tǒng)中并不重要。
Python最大的優(yōu)點(diǎn)是它可以非常優(yōu)雅地將數(shù)據(jù)拋出到高效的C、CUDA中進(jìn)行計(jì)算。Numpy、panda、numba這些優(yōu)秀的開源庫可以非常方便高效地處理海量數(shù)據(jù),借助ZMQ、cell等還可以做分布式計(jì)算,gevent借助epoll系統(tǒng)IO優(yōu)化。因此,它不需要花費(fèi)太多的精力就可以優(yōu)雅高效地完成海量數(shù)據(jù)處理和機(jī)器學(xué)習(xí)任務(wù)。這就是Python如此流行的原因。
好好想想。同樣的性能,代碼只有CPP或Java的三分之一或更少,不是很吸引人嗎?
人工智能和python是什么關(guān)系?
人工智能是一個(gè)大概念,具體落地人工智能項(xiàng)目會(huì)聯(lián)系機(jī)器學(xué)習(xí)和深度學(xué)習(xí)框架,這些框架大多是基于Python開發(fā)的,所以為了進(jìn)一步人工智能項(xiàng)目的開發(fā),Python語言的學(xué)習(xí)也是很有必要的!