2014年7月29日 星期二

李娘二姊不辣:特徵值 Eigenvalue

現在想想還是開一個新分類好了,沒想到矩陣這麼麻煩。


特徵分析的未來就全靠這條方程式了!

我呢,下意識討厭特徵值。

噗哈哈哈wwwwww,所以說呢,言歸正傳,對一個非零向量x作用變換A,若等同於該向量乘上一個純量λ時,稱該純量λ為變換A之特徵值

什麼是「變換」呢?若此變換為線性的,則此變換可寫作矩陣。不不不,等等,你真的會以為我會對前面那句文謅謅的話妥協嗎?當然不是囉,我又不是寫維基百科。

要講起「線性變換」(或稱「線性映射」,Linear Map),要先從「基向量」談起。所謂「基向量」(基底向量,Basis Vector),顧名思義,就是刻畫一個向量的基本工具(更精確地說,是包含向量、定義向量的向量空間(Vector Space))。

譬如在一個二維的向量空間中,要描述一個向量的基本工具有xy兩個。
而這些「基向量」可不是隨隨便便就可以訂出來的。向量空間中的這些「基向量」們必須要是線性無關,意即,一個基向量不能用有限個其他基向量來表達。二維空間中兩個向量(2,6)和(6,18)不是線性無關,因為後者是前者的三倍;(1,0)和(0,1)即是線性無關,可做為基向量。

現在把這些基向量分別以ei的方式命名之,並且將他們集合起來,其集合稱為「基」(Basis),以B命名之,一個向量空間有幾維,全看有幾個基向量。今在n維向量空間V中考慮一個向量u


其中evi為向量空間V的其中一個基向量,λi為純量。考慮一個函數,將V上的向量線性映射(規定集合間元素對應關係)到另一個向量空間W,即f : V→W是線性的,可知:


且向量空間W的基Bw可以這樣定義:


我們從先前的映射得知映射過後的向量可以映射過後的基向量表示。既然我們不能保證V的基映射後會和W的基完全相同,但基於V的基向量映射後仍為向量,我們用W的基向量來描述那些應設過後的基向量。也就是說:


注意那個μ,每個evi都有一組這種純量,然後再來看看f(u):


也就是說,在設定好eviewi的情況下,我只要掌握了μij,就可以掌握f(u)了。看哪!μij可是有兩個參數ij呢,照理來說一個f(u)應該會有i*j個μ才對,這種二維的狀況可以寫進矩陣,這對於同樣可以寫成矩陣的向量來說是件好事。



實際考慮一個旋轉九十度的變化T,我們得知她可以寫成矩陣後,來猜猜看他的長相如何:


給定一個向量v,來看看實際運作:



嗯嗯,旋轉九十度了,不錯不錯。這就是變換(Map),不過這似乎沒有特徵值呢......很難看出來。諸看倌在猜想這種旋轉有沒有特徵值時,我在此斷言他有



要找特徵值,首先我們要先知道單位矩陣I。所謂單位矩陣 (Identity Matrix),就是n*n的方陣,裡面只有左上—右下這條對角線上有1這個數字。


而對於一個m*n的矩陣A而言,有A=AIn=ImA。不難理解,在AIn的乘法中,I的第一行會將A的第一列中第一個元素保存下來,放入新矩陣中第一行第一列的位置。回過頭來考慮本文一開始的那條式子,我們發現即使兩邊都有x向量還是無法運算(A為矩陣,λ為純量),何不乘個I看看呢?


這裡為了讓Ix有意義,I的大小必定和A一樣。若且唯若x非零,則矩陣AI映射到純量之數值為零。而將方塊矩陣映射成純量的函數,就是行列式(Determinant)(有關行列式證明或高階行列式運算,可參考這篇)。也就是說:


不要忘了我們要求的特徵值λ就在裡面。現在讓我們設定矩陣A的內容:


然後做一點運算:


並得到一條一元二次方程式:


這一條方程式我們稱之為特徵多項式(Characteristic Polynomial)。並得特徵值λ=1,6。對於一個矩陣同時擁有兩個特徵值不必感到驚訝。我們把這條多項式冠上特徵之名並不是出於隨意,而是這條方程式包含了方陣的行列式、特徵值和跡(Trace)。所謂跡,指的就是左上—右下對角線(主對角線)上所有元素的和。我們的矩陣A,其跡便是7,也出現在特徵方程式裡。


要注意這是二階的狀況。



除了特徵值外,對於方陣每個可能的特徵值都有一個特徵向量(Eigenvector)。讓我們繼續考慮上一段的矩陣A和向量x,我們知道兩種情況:


這兩種情況,作用在x上的變換A有如純量一樣,而這種向量是需要精挑細選並非誰來都可以的。我們可以把向量x寫作矩陣,藉此得到好幾組方程式。



經過一番計算後,我們得到了特徵向量:


其中c是任意實數,任何符合上述形式的向量都是矩陣A的特徵向量。比如說考慮幾個向量:


真神奇啊,傑克!矩陣作用居然和純數積一樣!



每個方陣都有特徵值,無論是只有一個相異值或有虛數單位。所以不會有「大眾方陣」出現。

沒有留言:

張貼留言