如果你把A*x=lambda*x中的A看做一種變換,一種作用,那麼那些在這種作用下,只改變長短不改變方向的那些向量x就是特徵向量,而特徵值就是lambda,是伸縮係數,起能量增幅或者削減作用。 特徵值特徵向量在各學術領域均有很高階的作用,首先介紹PCA,主成分分析。如果你面前有大維陣列,處理起來非常棘手,直接帶入問題處理速度又慢,第一想法就是能不能從中取出最有用,最有代表性的內容,俗話說:撈乾的。回想tr跡這個性質,trA=A所有特徵向量的和,主對角線元的意義非凡,暫且認為主對角線和就是這個矩陣所蘊含的能量。而特徵向量就是這些能量集中爆發的方向,如果你很清楚特徵分解的幾何意義,就知道特徵向量就是資料在空間中的對稱軸,特徵分解就是把其他方面的能量都投影在對稱軸上,所以特徵分解完或者說投影完,中間就只剩一個對角陣了,非對角元全是0. 此時你把最大的那幾個特徵向量摘出來,其餘的拋掉,如此能很大程度降低你資料的維度,但資訊損失仍在可控的範圍。假設你求出100個特徵值,頭五個最大的和能達到這100個和的95%,那麼其餘95個丟掉,相對應的特徵向量也丟掉。此時你的100*100的方陣只剩下5*5了,但資訊量儲存了95%。 金融業,銀行業,保險業大量使用。 網際網路,Google的PageRank,就是 對www連結關係的修正鄰接矩陣的,主要特徵向量的投影分量,給出了頁面平分。也就是搜尋排名,憑什麼我靠前你靠後。 人像識別,我們把影象A看成矩陣,進一步看成線性變換矩陣,把這個訓練影象的特徵矩陣求出來(假設取了n個能量最大的特徵向量)。用A乘以這個n個特徵向量,得到一個n維向量a,也就是A在特徵空間的投影。 還有聚類分析,訊號處理等等。所以這塊你一定要學透。
如果你把A*x=lambda*x中的A看做一種變換,一種作用,那麼那些在這種作用下,只改變長短不改變方向的那些向量x就是特徵向量,而特徵值就是lambda,是伸縮係數,起能量增幅或者削減作用。 特徵值特徵向量在各學術領域均有很高階的作用,首先介紹PCA,主成分分析。如果你面前有大維陣列,處理起來非常棘手,直接帶入問題處理速度又慢,第一想法就是能不能從中取出最有用,最有代表性的內容,俗話說:撈乾的。回想tr跡這個性質,trA=A所有特徵向量的和,主對角線元的意義非凡,暫且認為主對角線和就是這個矩陣所蘊含的能量。而特徵向量就是這些能量集中爆發的方向,如果你很清楚特徵分解的幾何意義,就知道特徵向量就是資料在空間中的對稱軸,特徵分解就是把其他方面的能量都投影在對稱軸上,所以特徵分解完或者說投影完,中間就只剩一個對角陣了,非對角元全是0. 此時你把最大的那幾個特徵向量摘出來,其餘的拋掉,如此能很大程度降低你資料的維度,但資訊損失仍在可控的範圍。假設你求出100個特徵值,頭五個最大的和能達到這100個和的95%,那麼其餘95個丟掉,相對應的特徵向量也丟掉。此時你的100*100的方陣只剩下5*5了,但資訊量儲存了95%。 金融業,銀行業,保險業大量使用。 網際網路,Google的PageRank,就是 對www連結關係的修正鄰接矩陣的,主要特徵向量的投影分量,給出了頁面平分。也就是搜尋排名,憑什麼我靠前你靠後。 人像識別,我們把影象A看成矩陣,進一步看成線性變換矩陣,把這個訓練影象的特徵矩陣求出來(假設取了n個能量最大的特徵向量)。用A乘以這個n個特徵向量,得到一個n維向量a,也就是A在特徵空間的投影。 還有聚類分析,訊號處理等等。所以這塊你一定要學透。