求矩陣的跡要化成上三角嗎?
來(lái)源:高三網(wǎng) 2021-11-29 23:24:16
不需要。對(duì)矩陣進(jìn)行初等變換時(shí),特征值也發(fā)生了變化,所以化出來(lái)的上三角矩陣的特征值一般不是原矩陣的特征值。在線性代數(shù)中,一個(gè)n×n矩陣A的主對(duì)角線(從左上方至右下方的對(duì)角線)上各個(gè)元素的總和被稱為矩陣A的跡(或跡數(shù)),一般記作tr(A)。
1求證上三角正規(guī)矩陣一定是對(duì)角陣
因?yàn)殡A梯型矩陣的每行的第一個(gè)非零元的列號(hào)應(yīng)該是依次遞增的。
0 1 0
0 2 0
0 0 1
是上三角矩陣,但不是階梯型矩陣,因?yàn)榍皟尚械姆橇阍牧刑?hào)都為2
0 0 0
0 1 0
0 0 2
是對(duì)角矩陣,但零行在上面的確不一定是
2矩陣的跡性質(zhì)
1.跡是所有主對(duì)角元素的和
2.跡是所有特征值的和
3.某些時(shí)候也利用tr(AB)=tr(BA)來(lái)求跡
4.tr(mA+nB)=m tr(A)+n tr(B)
(2)奇異值分解(Singular value decomposition )
奇異值分解非常有用,對(duì)于矩陣A(p*q),存在U(p*p),V(q*q),B(p*q)(由對(duì)角陣與增廣行或列組成),滿足A = U*B*V
U和V中分別是A的奇異向量,而B(niǎo)是A的奇異值。AA'的特征向量組成U,特征值組成B'B,A'A的特征向量組成V,特征值(與AA'相同)組成BB'。因此,奇異值分解和特征值問(wèn)題緊密聯(lián)系。
如果A是復(fù)矩陣,B中的奇異值仍然是實(shí)數(shù)。
SVD提供了一些關(guān)于A的信息,例如非零奇異值的數(shù)目(B的階數(shù))和A的階數(shù)相同,一旦階數(shù)確定,那么U的前k列構(gòu)成了A的列向量空間的正交基。
(3)在數(shù)值分析中,由于數(shù)值計(jì)算誤差,測(cè)量誤差,噪聲以及病態(tài)矩陣,零奇異值通常顯示為很小的數(shù)目。
相關(guān)推薦:
高考數(shù)學(xué)知識(shí)點(diǎn)匯總
最新高考資訊、高考政策、考前準(zhǔn)備、志愿填報(bào)、錄取分?jǐn)?shù)線等
高考時(shí)間線的全部重要節(jié)點(diǎn)
盡在"高考網(wǎng)"微信公眾號(hào)
相關(guān)推薦
高考院校庫(kù)(挑大學(xué)·選專業(yè),一步到位。
高校分?jǐn)?shù)線
專業(yè)分?jǐn)?shù)線
- 日期查詢