[理工] 線代 特徵向量空間

看板Grad-ProbAsk作者 (重慶酸辣粉酸4辣1)時間4年前 (2019/10/17 12:35), 編輯推噓0(0015)
留言15則, 2人參與, 4年前最新討論串1/1
大大們 https://i.imgur.com/9kL69JP.jpg
第七題的b小題要找A^-1 取到最後發現 所有eigenspace疊加起來形成 Identity Matrix,這是為什麼呢? 是因為spectral decomposition會要求每個P的行向量長度都要 normalize嗎 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.120.21.92 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Grad-ProbAsk/M.1571286922.A.8F7.html

10/17 12:37, 4年前 , 1F
orthogonal matrix
10/17 12:37, 1F

10/17 12:45, 4年前 , 2F
不過你講的會讓人看不懂,什麼叫eigenspace疊加起來形
10/17 12:45, 2F

10/17 12:46, 4年前 , 3F
成Identity Matrix?
10/17 12:46, 3F

10/17 12:54, 4年前 , 4F
抱歉我沒想多就說了,指的是ΣPi=I這裡
10/17 12:54, 4F

10/17 12:54, 4年前 , 5F
這些orthogonal matrix加在一起怎麼變成 I了呢
10/17 12:54, 5F

10/17 12:56, 4年前 , 6F
orthogonal matrix本來就有normalize
10/17 12:56, 6F

10/17 13:24, 4年前 , 7F
那他們加總有什麼幾何意義嗎
10/17 13:24, 7F

10/17 13:24, 4年前 , 8F
如果這些正交單範向量空間互相垂直那加起來怎麼變[1
10/17 13:24, 8F

10/17 13:24, 4年前 , 9F
00]^t[010]^t[001]^t這樣的向量
10/17 13:24, 9F

10/17 13:25, 4年前 , 10F
還是說你的疑問並不是有沒有normalize?
10/17 13:25, 10F

10/17 13:26, 4年前 , 11F
你就直接從原本的對角化看,A = SΛS^-1
10/17 13:26, 11F

10/17 13:28, 4年前 , 12F
這些P就是S的行向量跟S^-1的列向量相乘出來的矩陣
10/17 13:28, 12F

10/17 13:29, 4年前 , 13F
現在直接看I = SS^-1,就會得到ΣPi=I
10/17 13:29, 13F

10/17 13:30, 4年前 , 14F
你要先知道譜分解到底是怎麼分的才行
10/17 13:30, 14F

10/17 13:42, 4年前 , 15F
謝謝你 我去了解
10/17 13:42, 15F
文章代碼(AID): #1Tf--AZt (Grad-ProbAsk)