成分分析 圖像的PCA降維原理?
K-L變換是離散變換的縮寫(xiě),也稱(chēng)為主成分變換(PCA)。它是多光譜圖像X的線(xiàn)性組合,利用K-L變換矩陣a產(chǎn)生一組新的多光譜圖像y,表達(dá)式如下:y=ax其中X是變換前多光譜空間的像素向量;y是變換前Ho
K-L變換是離散變換的縮寫(xiě),也稱(chēng)為主成分變換(PCA)。它是多光譜圖像X的線(xiàn)性組合,利用K-L變換矩陣a產(chǎn)生一組新的多光譜圖像y,表達(dá)式如下:
y=ax
其中X是變換前多光譜空間的像素向量;
y是變換前Houde主成分空間的像素向量;
A是變換矩陣,是X空間中協(xié)方差矩陣∑X的特征向量矩陣的轉(zhuǎn)置矩陣。
從幾何角度看,變換后的主分量空間坐標(biāo)系相對(duì)于原多光譜空間坐標(biāo)系旋轉(zhuǎn)一個(gè)角度,新坐標(biāo)系的坐標(biāo)軸必須指向數(shù)據(jù)信息量大的方向。就新譜帶的主成分而言,它們包含了不同的信息,并呈現(xiàn)出下降的趨勢(shì)。
我建議大家看一下張崢、王艷萍、薛貴祥等主編的《數(shù)字圖像處理與機(jī)器視覺(jué)》第10章。
圖像的PCA降維原理?
PCA是主成分分析技術(shù),又稱(chēng)主成分分析。主成分分析法又稱(chēng)主成分分析法,其目的是利用降維的思想將多個(gè)指標(biāo)轉(zhuǎn)化為多個(gè)綜合指標(biāo)。在統(tǒng)計(jì)學(xué)中,主成分分析是一種簡(jiǎn)化數(shù)據(jù)集的技術(shù)。這是一個(gè)線(xiàn)性變換。此轉(zhuǎn)換將數(shù)據(jù)轉(zhuǎn)換為新的坐標(biāo)系,以便任何數(shù)據(jù)投影的第一個(gè)主方差位于第一個(gè)坐標(biāo)(稱(chēng)為第一主分量)上,第二個(gè)主方差位于第二個(gè)坐標(biāo)(第二主分量)上,依此類(lèi)推。主成分分析(PCA)通常用于降低數(shù)據(jù)集的維數(shù),同時(shí)保持對(duì)平方誤差貢獻(xiàn)最大的數(shù)據(jù)集的特征。這是通過(guò)保留低階主成分而忽略高階主成分來(lái)實(shí)現(xiàn)的。這樣,低階組件通??梢员A魯?shù)據(jù)的最重要方面。然而,這并不一定,這取決于具體的應(yīng)用。
PCA的概念是什么?
數(shù)學(xué)對(duì)于計(jì)算機(jī)算法編程非常重要。我將主要從以下兩個(gè)方面來(lái)解釋為什么它如此重要
數(shù)學(xué)和算法編程需要很強(qiáng)的邏輯思維能力。程序代碼的邏輯結(jié)構(gòu)、連接方式和處理方式需要較強(qiáng)的邏輯思維能力。如果你學(xué)好數(shù)學(xué),有很強(qiáng)的邏輯思維能力,你通常會(huì)對(duì)算法編程有更深的理解。
這應(yīng)該是為什么數(shù)學(xué)和算法編程更相關(guān)的一個(gè)重要原因。無(wú)論是計(jì)算機(jī)的底層還是底層,數(shù)學(xué)知識(shí)都處處體現(xiàn)。例如,計(jì)算機(jī)底層的二進(jìn)制、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的梯度求導(dǎo)、SVD分解、張量分解、PCA特征值、優(yōu)化問(wèn)題、密碼學(xué)的大數(shù)分解、概率圖模型等都與數(shù)學(xué)有著密切的關(guān)系。我舉兩個(gè)例子來(lái)實(shí)現(xiàn)
代碼實(shí)現(xiàn)如下
代碼比(float)(1.0/sqrt(x))快4倍,計(jì)算性能有了質(zhì)的飛躍。為此,專(zhuān)門(mén)有一篇論文《快速平方根逆》來(lái)解釋這段代碼的數(shù)學(xué)原理。感興趣的同學(xué)可以找這篇文章學(xué)習(xí)。
如果不直接使用數(shù)學(xué)知識(shí)和搜索,時(shí)間復(fù)雜度為O(n),效率較低,很難按照目前的計(jì)算機(jī)水平進(jìn)行計(jì)算。如果我們知道Brahmagupta–Fibonacci恒等式、Pollard-Rho分解法、二次同余方程的解、歐氏除法等數(shù)學(xué)知識(shí),那么求解這個(gè)問(wèn)題的時(shí)間復(fù)雜度就大大降低,結(jié)果保證在0.2秒之內(nèi)。
如果工作是算法崗位,數(shù)學(xué)更重要,因?yàn)闄C(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、NLP等方向的基本原理基本上都離不開(kāi)數(shù)學(xué)。