Diagonalisering

Diagonalisering är inom linjär algebra en omvandling av en matris till en diagonalmatris. En sådan omvandling sker med en transformationsmatris T {\displaystyle T} , så att A = T D T 1 {\displaystyle A=TDT^{-1}} för en matris A {\displaystyle A} och en diagonalmatris D {\displaystyle D} . Man säger att en matris är diagonaliserbar om den kan diagonaliseras, med andra ord är en matris A {\displaystyle A} diagonaliserbar om det finns en matris T {\displaystyle T} sådan att A = T D T 1 {\displaystyle A=TDT^{-1}} för en diagonalmatris D {\displaystyle D} .

Villkor för diagonaliserbarhet

En matris A {\displaystyle A} med format n × n {\displaystyle n\times n} , med andra ord en linjär avbildning från ett vektorrum till sig själv A : V V {\displaystyle A:V\to V} , är diagonaliserbar om och endast om dimensionen av dess egenrum är n {\displaystyle n} . Detta inträffar då A {\displaystyle A} har n {\displaystyle n} egenvektorer som är en bas för vektorrummet. Då kan A {\displaystyle A} uttryckas som A = T D T 1 {\displaystyle A=TDT^{-1}} , där T {\displaystyle T} har A {\displaystyle A} :s egenvektorer som kolonnvektorer och D {\displaystyle D} har A {\displaystyle A} :s egenvärden i diagonalen.

Egenvektorerna till en matris är en bas för hela rummet om alla egenvärden har en geometrisk multiplicitet som är lika med deras algebraiska multiplicitet, och alltså är en matris diagonaliserbar under dessa förutsättningar.

Ett tillräckligt (men ej nödvändigt) villkor för att en matris med format n × n {\displaystyle n\times n} ska ha en bas av egenvektorer är att matrisen har n {\displaystyle n} distinkta egenvärden

Speciella matriser

Nilpotenta matriser är ej diagonaliserbara, då de endast har egenvärdet 0. Detta skulle innebära att diagonalmatrisen skulle bli en nollmatris och A = T D T 1 = 0 {\displaystyle A=TDT^{-1}=0} , vilket inte är sant.

Projektioner är diagonaliserbara, och har talen 1 och 0 i diagonalen.

Enligt spektralsatsen är reella symmetriska matriser diagonaliserbara, och deras egenvektorer är ortogonala. Samma sak gäller för komplexa hermiteska matriser och normala matriser. Då egenvektorerna är ortogonala kan transformationsmatrisen skrivas som en ortogonal matris i det reella fallet och en unitär matris i det komplexa fallet, så att en symmetrisk matris kan skrivas A = T D T T {\displaystyle A=TDT^{T}} , det vill säga med en transponerad istället för en inverterad transformationsmatris till höger, vilket är mycket lättare att räkna ut.

Exempel

Diagonalisera matrisen

A = ( 10 4.5 2.5 16 7 5 12 6 4 ) {\displaystyle A={\begin{pmatrix}10&-4.5&-2.5\\16&-7&-5\\12&-6&-4\end{pmatrix}}}

Först beräknas matrisens egenvärden:

λ 1 = 1     λ 2 = 2     λ 3 = 4 {\displaystyle \lambda _{1}=1~~\lambda _{2}=2~~\lambda _{3}=-4}

De tre egenvärdena är distinkta och därför är A {\displaystyle A} diagonaliserbar. Egenvektorerna till egenvärdena beräknas sedan:

v 1 = ( 1 2 0 )     v 2 = ( 2 3 1 )     v 3 = ( 1 2 2 ) {\displaystyle \mathbf {v_{1}} ={\begin{pmatrix}1\\2\\0\end{pmatrix}}~~\mathbf {v_{2}} ={\begin{pmatrix}2\\3\\1\end{pmatrix}}~~\mathbf {v_{3}} ={\begin{pmatrix}1\\2\\2\end{pmatrix}}}

Dessa bildar en bas för vektorrummet. Matrisen T {\displaystyle T} bildas från vektorerna v 1 , v 2 , v 3 {\displaystyle \mathbf {v_{1}} ,\mathbf {v_{2}} ,\mathbf {v_{3}} } och dess invers beräknas. A = T D T 1 {\displaystyle A=TDT^{-1}} blir då

( 10 4.5 2.5 16 7 5 12 6 4 ) = ( 1 2 1 2 3 2 0 1 2 ) ( 1 0 0 0 2 0 0 0 4 ) ( 2 1.5 0.5 2 1 0 1 0.5 0.5 ) {\displaystyle {\begin{pmatrix}10&-4.5&-2.5\\16&-7&-5\\12&-6&-4\end{pmatrix}}={\begin{pmatrix}1&2&1\\2&3&2\\0&1&2\end{pmatrix}}{\begin{pmatrix}1&0&0\\0&2&0\\0&0&-4\end{pmatrix}}{\begin{pmatrix}-2&1.5&-0.5\\2&-1&0\\-1&0.5&0.5\end{pmatrix}}}

Tillämpningar

Om en matris A {\displaystyle A} är diagonaliserbar, kan detta användas för att beräkna potenser A n {\displaystyle A^{n}} effektivt, eftersom

A = T D T 1 {\displaystyle A=TDT^{-1}}
A 2 = ( T D T 1 ) 2 = T D T 1 T D T 1 = T D I D T 1 = T D 2 T 1 {\displaystyle A^{2}=(TDT^{-1})^{2}=TDT^{-1}TDT^{-1}=TDIDT^{-1}=TD^{2}T^{-1}}
A n = T D n T 1 {\displaystyle A^{n}=TD^{n}T^{-1}}

Kvadratroten ur en matris A {\displaystyle A} kan definieras som

A = T D T 1 {\displaystyle {\sqrt {A}}=T{\sqrt {D}}T^{-1}}

där diagonalelementen i D {\displaystyle {\sqrt {D}}} är roten ur D {\displaystyle D} :s diagonalelement. Detta ger att

A 2 = T D 2 T 1 = T D T 1 = A {\displaystyle {\sqrt {A}}^{2}=T{\sqrt {D}}^{2}T^{-1}=TDT^{-1}=A}

Se även


v  r
Linjär algebra
Grundläggande begrepp
Skalär · Vektor · Noll · Ortogonalitet · Ekvationssystem · Rum · Linjärkombination · Inre produkt · Oberoende · Bas · Radrum · Kolonnrum · Nollrum · Gram-Schimdt · Egenvärde · Hölje · Linjäritet
Bild på euklidiska rummet
Vektoralgebra
Matriser
Elementär · Block · Enhet · Determinant · Norm · Rang · Transformation · Rotation · Invers · Cramers regel · Trappstegsform · Spår · Transponat · Gausselimination · Symmetri · Addition
Multilinjär algebra
Geometrisk algebra · Yttre algebra · Bivektor · Multivektor · Tensor
Konstruktioner
Delrum · Dualrum · Funktionsrum · Kvotrum · Tensorprodukt
Numerik
Kategori Kategori