A. 矩陣奇異值分解手工演算法
當然是可以的。
如果A=USV'是精簡的奇異值分解,也就是說S是r階非奇異的方對角陣,這里r是A的秩,U和V分別是兩個正交陣(或酉陣)的r列。
那麼先計算出A'A的譜分解A'A=Q*D*Q',要求D中特徵值是降序排列的,取S^2是D的最大非奇異主子陣(r階),V是Q中相應的前r列,然後就有U=AVS^{-1}。
如果要完整的SVD分解,那麼先得到精簡分解之後再把U和V分別張成滿的正交陣即可,這個可以通過鏡像變換或者Gram-Schmidt正交化來做。
B. 奇異值分解
由小波包理論可知,小波包分解層數並非越多越能詳細的分離出圖像的雜訊,隨著分解層數的增多,運算量增大,原有信息丟失嚴重,因此,選擇最佳的分解層數對於高光譜數據的去噪與分類有著重要的作用。
奇異值分解(Singular Values Decomposition,SVD)的過程是:設小波分解獲得的細節系數(即高頻系數)構成一個矩陣序列 {aij,i=1,2,…,m;j=1,2,…,n}1~N(蔡鐵等,2006),即:
圖4.4 高光譜影像的小波包最佳分解層數獲取演算法及降噪研究思路
圖4.5 AVIRIS原始高光譜影像
高光譜遙感影像信息提取技術
對矩陣A進行奇異值分解:
高光譜遙感影像信息提取技術
則
高光譜遙感影像信息提取技術
式中:U,V分別為m階酉矩陣和n階酉矩陣;H為Hermite矩陣;Δ=diag(λ1,λ2,…,λr),奇異值矩陣△中,λ1≥λ2≥…≥λr>0,它表示了序列m×n的能量方向;r為矩陣維數。
C. 奇異值分解法<sup>[1,9]</sup>
設有任意M×N矩陣G,均可分解為G=UWVT。其中U為M×r矩陣;V為N×r矩陣;W為r×r對角矩陣,除對角線外其他元素全為零[1],即
地球物理反演教程
式(4.4)中:r為矩陣G的秩;δ1≥δ2≥…≥δr為矩陣的奇異值,是GTG或GGT的r個非零特徵值之正根。
U是GGT的M×r特徵向量矩陣,V是GTG的N×r特徵向量矩陣。它們是半正交矩陣[1]:
UTU=Ir,VTV=Ir,UUT≠Ir,VVT≠Ir(4.5)
其中:Ir為r階單位矩陣。
當奇異值較大時,G為非奇異矩陣,有廣義逆矩陣:
G-g=VW-1UT (4.6)
其中:
地球物理反演教程
D. 矩陣分解的奇異值分解法
奇異值分解 (singular value decomposition,SVD) 是另一種正交矩陣分解法;SVD是最可靠的分解法,但是它比QR 分解法要花上近十倍的計算時間。[U,S,V]=svd(A),其中U和V分別代表兩個正交矩陣,而S代表一對角矩陣。 和QR分解法相同, 原矩陣A不必為正方矩陣。使用SVD分解法的用途是解最小平方誤差法和數據壓縮。
MATLAB以svd函數來執行svd分解法, 其語法為[S,V,D]=svd(A)。
E. 將矩陣化簡為行最簡形矩陣有什麼技巧,或者一般有什麼特定的步驟么
對調兩行;以非零數k乘以某一行的所有元素;把某一行所有元素的k倍加到另一行對應元素上去。
下列三種變換稱為矩陣的行初等變換:
(1)對調兩行;
(2)以非零數k乘以某一行的所有元素;
(3)把某一行所有元素的k倍加到另一行對應元素上去。
行最簡形矩陣是由方程組唯一確定的,行階梯形矩陣的行數也是由方程組唯一確定的。
將定義中的「行」換成「列」,即得到矩陣的初等列變換的定義。矩陣的初等行變換與矩陣的初等列變換,統稱為矩陣的初等變換。
(5)奇異值分解簡便方法擴展閱讀:
將矩陣化簡為行最簡形矩陣的定理:
1、任一矩陣可經過有限次初等行變換化成階梯形矩陣;
2、任一矩陣可經過有限次初等行變換化成行最簡形矩陣;
矩陣在經過初等行變換化為最簡形矩陣後,再經過初等列變換,還可以化為最簡形矩陣,因此,任一矩陣可經過有限次初等變換化成標准形矩陣。
F. 什麼是奇異值分解
矩陣的跡
trace 方陣對角元素之和
Singular value decompostion
奇異值分解非常有用,對於矩陣A(p*q),存在U(p*p),V(q*q),B(p*q)(由對角陣與增廣行或列組成),滿足A = U*B*V
U和V中分別是A的奇異向量,而B中是A的奇異值。AA'的特徵向量組成U,特徵值組成B'B,A'A的特徵向量組成V,特徵值(與AA'相同)組成BB'。因此,奇異值分解和特徵值問題緊密聯系。
如果A是復矩陣,B中的奇異值仍然是實數。
SVD提供了一些關於A的信息,例如非零奇異值的數目(B的階數)和A的階數相同,一旦階數確定,那麼U的前k列構成了A的列向量空間的正交基。
在數值分析中,由於數值計算誤差,測量誤差,雜訊以及病態矩陣,零奇異值通常顯示為很小的數目。
將一個矩陣分解為比較簡單或者性質比較熟悉的矩陣之組合,方便討論和計算。由於矩陣的特徵值和特徵向量在化矩陣為對角形的問題中佔有特殊位置, 因此矩陣的特徵值分解。。。盡管矩陣的特徵值具有非常好的性質,但是並不是總能正確地表示矩陣的「大小」。矩陣的奇異值和按奇異值分解是矩陣理論和應用中十分重要的內容,已成為多變數反饋控制系統最重要最基本的分析工具之一,奇異值實際上是復數標量絕對值概念的推廣, 表示了反饋控制系統的輸出/輸入增益,能反映控制系統的特性。《魯棒控制。。傾斜轉彎導彈》
昨天看了一個網頁,,知道了奇異值分解就是把矩陣A分解成hanger,stretcher,aligner的三重積。從幾何意義上講矩陣A乘以幾何圖形(用數值序列x,y代表),相當於對幾何圖形先扭轉,再拉伸,再扭轉。從這里也知道,「正交」的概念特別有用。一對最簡單的正交基(orthogonal basis,perpframe)是p1 = [cos(s) sin(s)],p2 = [-sin(s) cos(s)],它可以用於幾何變換。
G. 奇異值分解的方法
假設M是一個m×n階矩陣,其中的元素全部屬於域
K,也就是
實數域或復數域。如此則存在一個分解使得
M
=
UΣV*,
其中U是m×m階酉矩陣;Σ是半正定m×n階對角矩陣;而V*,即V的共軛轉置,是n×n階酉矩陣。這樣的分解就稱作M的奇異值分解。Σ對角線上的元素Σi,i即為M的奇異值。
常見的做法是為了奇異值由大而小排列。如此Σ便能由M唯一確定了。(雖然U和V仍然不能確定。)
奇異值分解在某些方面與對稱矩陣或Hermite矩陣基於特徵向量的對角化類似。然而這兩種矩陣分解盡管有其相關性,但還是有明顯的不同。對稱陣特徵向量分解的基礎是譜分析,而奇異值分解則是譜分析理論在任意矩陣上的推廣。
H. 奇異值分解是什麼原理
這是矩陣論裡面的一種矩陣分解方法,先找矩陣的奇異值,然後按照步驟做就可以將一個矩陣分解三個矩陣的相乘。奇異值分解:是線性代數中一種重要的矩陣分解,為矩陣分析中正規矩陣酉對角化的推廣,主要應用在信號處理、統計學等領域。奇異值分解在某些方面與對稱矩陣,基於特徵向量的對角化類似。然而這兩種矩陣分解盡管有其相關性,但還是有明顯的不同。對稱陣特徵向量分解的基礎是譜分析,而奇異值分解則是譜分析理論在任意矩陣上的推廣。