若當標準型是和矩陣的相似密不可分的.
我們知道一種非常特殊的矩陣是可以進行矩陣的相似對角化的.例如實對稱矩陣.當把矩陣相似對角化之後,第一對於解矩陣的行列式的值,跡的值,特徵值,等等具有"相似不變性性質"的東西都是很有幫助的.
第二,例如我們要研究線性變換A的性質,我們知道它在不同的基底下的矩陣表示是不一樣的,而這種不同基底下的矩陣之間是相似關係,因此相似的另一個用途是:已知線性變換在某基底下的矩陣表示為A,A很"複雜",我們可以求他的簡單的相似矩陣B(比如發現A有相似對角形,相似上三角形或若當型),那麼就可以捨棄A而研究B,因為B也是那個線性變換在某個基下的表示.以上是從矩陣(代數)和空間(幾何)兩個方面分析得到的相似這個概念的重要性.
第三點,若當標準型常用來判斷兩個矩陣是否相似.如果兩個矩陣有相同的相似標準型(有理標準型,初等因子友陣型或若當標準型),那麼兩個矩陣必相似.
我們看到了相似的重要概念,然後學過了任何實矩陣A都可正交相似上三角化,實對稱矩陣可以正交相似對角化(譜分解定理).
我們知道對角化對角線上只有n個元素,上三角矩陣的元素個數太多.對一般矩陣我們要尋求一種簡單方便的標準型,容易進行各種運算例如冪運算.經過數學家的不斷努力,終於得到了"若當型"
若當型對矩陣的冪運算,指數運算exp(A),秩的觀察等都有很好的效果,因此是一個有效的方便的標準型.
一大堆廢話後解釋他和特徵值特徵向量的關係:
第一,若當標準型的對角線上n個元素一定是矩陣的n個特徵值.
第二,若當標準型與特徵向量無直接關係(但是,從構造思路上有聯絡~)
這兩個結論可以直接從書中若當標準型的證明中看出來,不變因子組性質.至於第二里邊的括號內容"思路上與特徵向量有關係",要用若當型另一種證明方法才能看出來。書中的"不變因子"的方法,可以看成是代數學的方法,我們還可以用"幾何學"的方法來證明,就是空間分解的方法.
我們知道矩陣A可以看成是線性變換線上性空間V的一個矩陣表出,如果V的基底選的特殊一點,那麼就會得到線性變換的另一種矩陣表出B,其中A,B相似.如果A有n個線性無關的特徵向量,以此為V的基底,那麼這個線性變換在此基下的表出B就是對角形.用代數寫出來就是P逆AP=B,B是對角陣對角線上是A的n個特徵值.P是A的n個特徵向量的排列.
可是對於一般矩陣A,不一定有n個線性無關的特徵向量啊,(矩陣A代數重數大於幾何重數時)?換句話說,對於一般的矩陣A,不一定可以相似對角化啊!
數學家們引進了"特徵多項式"和"最小多項式"的概念,用最小多項式的每個"素因子",找到了A在每個素因子下的"廣義特徵向量",然後用廣義特徵向量組成一組V的基底,就得到了A的相似矩陣.這種空間分解方法叫"準素分解".這是若當標準型思維上唯一用到特徵向量的地方.
若當標準型,是對空間V進行準素分解再進行迴圈分解後得到的相似型.迴圈分解就不給你講了.
若當標準型是和矩陣的相似密不可分的.
我們知道一種非常特殊的矩陣是可以進行矩陣的相似對角化的.例如實對稱矩陣.當把矩陣相似對角化之後,第一對於解矩陣的行列式的值,跡的值,特徵值,等等具有"相似不變性性質"的東西都是很有幫助的.
第二,例如我們要研究線性變換A的性質,我們知道它在不同的基底下的矩陣表示是不一樣的,而這種不同基底下的矩陣之間是相似關係,因此相似的另一個用途是:已知線性變換在某基底下的矩陣表示為A,A很"複雜",我們可以求他的簡單的相似矩陣B(比如發現A有相似對角形,相似上三角形或若當型),那麼就可以捨棄A而研究B,因為B也是那個線性變換在某個基下的表示.以上是從矩陣(代數)和空間(幾何)兩個方面分析得到的相似這個概念的重要性.
第三點,若當標準型常用來判斷兩個矩陣是否相似.如果兩個矩陣有相同的相似標準型(有理標準型,初等因子友陣型或若當標準型),那麼兩個矩陣必相似.
我們看到了相似的重要概念,然後學過了任何實矩陣A都可正交相似上三角化,實對稱矩陣可以正交相似對角化(譜分解定理).
我們知道對角化對角線上只有n個元素,上三角矩陣的元素個數太多.對一般矩陣我們要尋求一種簡單方便的標準型,容易進行各種運算例如冪運算.經過數學家的不斷努力,終於得到了"若當型"
若當型對矩陣的冪運算,指數運算exp(A),秩的觀察等都有很好的效果,因此是一個有效的方便的標準型.
一大堆廢話後解釋他和特徵值特徵向量的關係:
第一,若當標準型的對角線上n個元素一定是矩陣的n個特徵值.
第二,若當標準型與特徵向量無直接關係(但是,從構造思路上有聯絡~)
這兩個結論可以直接從書中若當標準型的證明中看出來,不變因子組性質.至於第二里邊的括號內容"思路上與特徵向量有關係",要用若當型另一種證明方法才能看出來。書中的"不變因子"的方法,可以看成是代數學的方法,我們還可以用"幾何學"的方法來證明,就是空間分解的方法.
我們知道矩陣A可以看成是線性變換線上性空間V的一個矩陣表出,如果V的基底選的特殊一點,那麼就會得到線性變換的另一種矩陣表出B,其中A,B相似.如果A有n個線性無關的特徵向量,以此為V的基底,那麼這個線性變換在此基下的表出B就是對角形.用代數寫出來就是P逆AP=B,B是對角陣對角線上是A的n個特徵值.P是A的n個特徵向量的排列.
可是對於一般矩陣A,不一定有n個線性無關的特徵向量啊,(矩陣A代數重數大於幾何重數時)?換句話說,對於一般的矩陣A,不一定可以相似對角化啊!
數學家們引進了"特徵多項式"和"最小多項式"的概念,用最小多項式的每個"素因子",找到了A在每個素因子下的"廣義特徵向量",然後用廣義特徵向量組成一組V的基底,就得到了A的相似矩陣.這種空間分解方法叫"準素分解".這是若當標準型思維上唯一用到特徵向量的地方.
若當標準型,是對空間V進行準素分解再進行迴圈分解後得到的相似型.迴圈分解就不給你講了.