免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
線性代數(shù)本質(zhì)(七)

我將通過多個系列的文章來講述人工智能技術重要組成部分,線性代數(shù)作為人工智能數(shù)學理論基礎,是非常重要的一部分,我將用一個系列的文章來講解線性代數(shù)的本質(zhì),本文是本系列第七篇。

目錄

特征向量與特征值

向量究竟是什么?

向量的線性組合,基與線性相關

矩陣與線性相關

矩陣乘法與線性變換復合

三維空間中的線性變換

行列式

逆矩陣,列空間,秩與零空間

克萊姆法則

非方陣

點積與對偶性

叉積

以線性變換眼光看叉積

基變換

特征向量與特征值

抽象向量空間

快速計算二階矩陣特征值

張量,協(xié)變與逆變和秩

特征向量與特征值

特征向量和特征值不好理解的主要原因是:它過于抽象,不太直觀,為了讓大家更好的理解,今天的內(nèi)容將盡量為大家呈現(xiàn)一種直觀解釋,其實只要大家掌握了前面所講的內(nèi)容,特征向量和特征值并不復雜,再次提醒大家:要時刻記住把矩陣看作是一種線性變換,除此之外,還要對基向量,線性方程組,以及基變換有一定的了解。

接下來,讓我們以一個線性變換出發(fā),假如現(xiàn)在有一個線性變換,它將基向量

變換到了
,把基向量
變換到了
,如果用矩陣來表達該變換,則該變換矩陣為:
。

下面,讓我們關注該變換對一個特定向量的作用,如下圖黃色箭頭代表的向量,粉色線代表由該向量張成的空間,也就是將黃色線縮放不同的比例后到達的所有點的集合,經(jīng)過線性變換后,該向量偏離了其張成的空間,這種情況很常見,如果變換后還落在其張成的直線上,這倒是像一個巧合了。

但確實存在這樣的向量,在變換后仍留在他張成的空間里,這意味著,矩陣對這些向量的作用僅僅是拉伸或者壓縮,就像一個標量對向量的作用一樣。

在前面的例子中,經(jīng)過矩陣

變換后,我們發(fā)現(xiàn),基向量
仍然落在它張成的空間中,也就是仍然在X軸上,只不過其長度變?yōu)樵瓉淼娜?,同樣,在X軸上的其他所有向量也都是方向保持不變,長度變?yōu)樵瓉淼娜丁?/span>

除了X軸上的向量,還有一個不太容易被發(fā)現(xiàn)的向量

,也具有同樣的性質(zhì):變換后仍停留在其張成的直線上,只不過長度變?yōu)樵瓉淼膬杀叮指鶕?jù)線性變換的性質(zhì):直線上的其他向量變換后同樣長度變?yōu)閮杀锻A粼谥本€上。

以上兩條直線上的向量是滿足變換后仍停留在其張成的空間里的全部向量了,這兩條直線之外的任何向量,經(jīng)過變換后,都會或多或少發(fā)生旋轉,離開其張成的空間。

到這里,大家可能已經(jīng)猜到了,這些向量稱為變換(矩陣)的特征向量,每一個特征向量都會對應一個所屬的值,這個值被稱為“特征值”,特征值就是特征向量在變換中被它拉伸或者被它壓縮的比例因子。

前面這個例子,特征值都是正的,那么特征值可以是負數(shù)嗎?讓我們換一個例子,假設現(xiàn)在有一個變換矩陣

,假設有一個特征值為-1/2的特征向量,意味著這個向量在變換后,被反向且被壓縮為原來的1/2,但仍停留在其張成的直線上。

那我們?yōu)槭裁匆接懱卣飨蛄亢吞卣髦的??舉個例子,在三維旋轉中,如果能找到旋轉矩陣的特征向量,那么該特征向量就是旋轉的旋轉軸。

而且把一個三維旋轉看成是繞某個旋轉軸旋轉一定角度,要比處理一個3*3旋轉矩陣直觀的多。

順便提一下,對于上面的三維旋轉,特征值必須為1,因為旋轉不會改變特征向量長度,也就是不會改變物體的大小。

更一般的,我們將特征向量和特征值轉換為如下公式:

A

=

第一眼看到上面的公式,大家可能會很困惑,因為等式左側代表矩陣向量的乘積,而等式右側代表向量的數(shù)乘,所以我們的第一步就是將右側向量數(shù)乘的形式寫成矩陣向量乘積的形式。

而我們要求的這個矩陣,它的作用效果是:把任意向量乘以數(shù)

,該矩陣每一列代表的是變換后的每個基向量,而把每個基向量乘以數(shù)
,得出的矩陣就可以實現(xiàn)用
縮放任意向量的作用。

如上圖所示,該矩陣對角線元素都是

,其余元素都是0,我們稱之為對角矩陣,更進一步的,我們將
提取出來,就變成了
乘以一個單位矩陣。

到這里,等式兩邊就都變成了矩陣與向量乘積的形式了:

把等號右邊的移動到等號左邊:

然后提出因子

(A-

)我們得到一個新的矩陣:

我們現(xiàn)在的任務是尋找一個向量

,使得這個新矩陣與
相乘后變成零向量,如果
本身就是一個零向量,等式恒成立,但這沒什么意義,我們是要找一個非零向量使得上述式子成立。

如果我們掌握了前面所學的行列式的知識的話,我們知道當矩陣代表的變換將空間壓縮到更低的維度時,才會讓一個矩陣和一個非零向量的乘積為零向量。

而壓縮空間所對應的就是變換矩陣的行列式為0:

接下來,讓我們舉個具體的例子,如下圖所示,讓我們將

賦予不同的值,然后求矩陣的行列式,例如,當
=0.56時,矩陣的行列式值為1.73,代表經(jīng)該矩陣變換后,面積放大到原來的1.73倍,我們想找到一個
的值,能將矩陣的行列式值為零,意味著按此
的調(diào)整后的變換,把空間壓縮到了一個更低的維度上。

       在這個例子中,如下圖所示,當

=1.0時,矩陣的行列式正好等于0

如上圖,以上就是一開始提到的,要理解特征向量和特征值的概念,需要前面章節(jié)所學習的知識,如果大家對行列式?jīng)]有足夠的了解,以及為什么他們與具有非零解的線性方程組有關,那么這個等式det(A-

) =0會讓人感到出乎意料。

為了探討特征向量和特征值的求解過程,我們還是以開頭的那個矩陣為例,如下圖,該變換矩陣為:

為了求解特征值

,我們讓上述矩陣對角線元素減去
,然后計算此行列式
,根據(jù)前面章節(jié)講解的計算行列的公式可得:

 =(3-
)(2-
)-1*0

只有令該行列式為零時,

才會是特征值,所以令(3-
)(2-
)=0,求解該二次多項式可以得出:
=2或者
=3是該多項式的解。

得到了特征值后,接下來就可以求解特征向量了,我們把

=2帶入A-
中,然后求解出被這個矩陣變換后成為0的向量。

如上圖所示,求解特征向量

,這不正是求線性方程組的解嘛!計算后我們發(fā)現(xiàn),x+y=0,y=-x,屬于特征值為2的全部特征向量。

但并不是所有矩陣都有特征向量,例如,二維空間中的旋轉90度的變換矩陣

,他并沒有特征向量,因為空間中的所有向量都發(fā)生了旋轉,離開了其張成的空間,如果我們偏不信,就想去計算特征值的話,按照剛才的步驟,首先對角線減去
可得:
,然后求該矩陣行列式的值
2+1=0,可見
沒有實數(shù)解,只有虛數(shù)解i與-i。

另一個例子是剪切變換,其變換矩陣為

,由下圖可見,處于X軸上的向量都是特征向量,且特征值為1,我們不妨去計算一下,首先計算A-
,得到
,求行列式可得(1-
)(1-
)-1*0 =0;求解多項式可得
=1

這里還要注意一下,存在一個特征值,其對應的特征向量不在同一條直線上的情況,一個簡單的例子是將所有向量放大兩倍的線性變換

,該矩陣的特征值為2,但特征向量是空間中的所有向量,因為所有向量只是長度變?yōu)閮杀?,變換后方向沒變。

最后,讓我們以“特征基”來結束今天的內(nèi)容,該內(nèi)容依賴于前面章節(jié)所講的基變換的思想。

如果基向量恰好是特征向量時,會發(fā)生什么?例如,把

變?yōu)樵瓉淼?1倍,把
變?yōu)樵瓉淼膬杀叮敲丛撟儞Q矩陣為
,其中-1和2也就是該矩陣的特征值。

我們發(fā)現(xiàn),特征值都位于矩陣的主對角線上,矩陣其余元素為0,這種矩陣我們稱為對角矩陣,這種矩陣,所有基向量都是特征向量,矩陣主對角線上的元素是對應特征向量所屬的特征值。

使用對角矩陣處理問題,在很多情況下會非常簡便,例如:

 =
,其中一個重要的方面是,矩陣與自己的多次相乘的結果會更容易計算,例如3次相乘后:

由于應用對角矩陣的效果,都只是將每個基向量(特征向量)按照對應的特征值進行縮放,因此多次應用該矩陣,例如,應用100次該矩陣,相比于非對角矩陣,計算上會簡單地多。

       雖然很少有基向量就是特征向量的巧合,但如果我們有很多特征向量,如下圖所示,足夠我們找到一組特征向量來張成整個空間,那我們就能變換我們的坐標系,使得這些特征向量稱為基向量,

我們在上一個章節(jié)已經(jīng)討論過基變換了,已經(jīng)知道了如何在不同的語言之間進行轉換,如下圖,首先使用兩個新的特征向量的坐標作為新的基向量,組成基變換矩陣:

,原始變換右側是該基變換矩陣,左側放基變換逆矩陣,這三個矩陣的復合變換代表的其實是同一個變換,即中間矩陣代表的變換,只不過是同新的基向量的角度看的。

用特征向量作為基向量來討論的意義在于這個新的復合矩陣必然是對角矩陣,而且其主對角線上的元素為特征值,它所處的坐標系的基向量在變換中只進行了縮放,一組基向量(特征向量)構成的集合被稱為“特征基”,所以大家要計算這個矩陣

100次冪,一種更簡單的方法是先變換到特征基,在這個坐標系中計算100次冪,然后再變換回原來的坐標系但并不是所有變換都能這么做,例如,剪切變換的特征向量不能張成整個空間,所以不能作為特征基。

本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
學術一把——理解矩陣和特征向量的本質(zhì)
線性代數(shù)知識體系
「Deep Learning」讀書系列分享第二章:線性代數(shù) | 分享總結
線性代數(shù)(高等代數(shù))的基本思想
高等代數(shù)研究生入學考試試題-按學校分類(一)
「圖解線性代數(shù)」-以動畫方式輕松理解線性代數(shù)的本質(zhì)與幾何意義
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服