Schur-Zerlegung

Als Schur-Zerlegung oder Schursche Normalform (nach Issai Schur) bezeichnet man in der Linearen Algebra, einem Teilgebiet der Mathematik, eine wichtige Matrix-Zerlegung, genauer ein Trigonalisierungsverfahren.

Definition

A {\displaystyle A} sei eine quadratische Matrix mit Einträgen aus K {\displaystyle \mathbb {K} } (also A K n × n {\displaystyle A\in \mathbb {K} ^{n\times n}} , wobei K {\displaystyle \mathbb {K} } entweder für R {\displaystyle \mathbb {R} } oder für C {\displaystyle \mathbb {C} } steht). Zerfällt das charakteristische Polynom von A {\displaystyle A} über K {\displaystyle \mathbb {K} } in Linearfaktoren, so existiert eine unitäre Matrix U K n × n {\displaystyle U\in \mathbb {K} ^{n\times n}} , sodass

R = U A U {\displaystyle R=U^{*}AU\quad } ( U {\displaystyle U^{*}} ist die zu U {\displaystyle U} adjungierte Matrix)

eine obere Dreiecksmatrix ist. Da U {\displaystyle U} unitär ist, folgt A = U R U {\displaystyle A=URU^{*}} ; eine solche Darstellung heißt Schur-Zerlegung von A {\displaystyle A} .

Bemerkungen

  • Da R {\displaystyle R} eine obere Dreiecksmatrix ist, kann sie als Summe einer Diagonalmatrix D {\displaystyle D} und einer strikten oberen Dreiecksmatrix N {\displaystyle N} dargestellt werden ( D , N K n × n {\displaystyle D,N\in \mathbb {K} ^{n\times n}} ):
R = D + N {\displaystyle R=D+N}
Es gilt dann:
  • D {\displaystyle D} ist eindeutig bis auf die Reihenfolge der Diagonalelemente und wird als der Diagonalanteil der Schur-Zerlegung bezeichnet.
  • N {\displaystyle N} ist nilpotent, im Allgemeinen nur bezüglich ihrer Frobeniusnorm eindeutig und wird der nilpotente Anteil der Schur-Zerlegung genannt.
  • Die Frobeniusnorm von N {\displaystyle N} ist genau dann 0, wenn A {\displaystyle A} normal ist.
  • Wegen der Ähnlichkeit der Ausgangsmatrix A {\displaystyle A} und der oberen Dreiecksmatrix R {\displaystyle R} stehen auf der Hauptdiagonale von R {\displaystyle R} die Eigenwerte von A {\displaystyle A} .
  • Ist A {\displaystyle A} eine normale Matrix, dann ist R {\displaystyle R} sogar eine Diagonalmatrix und die Spaltenvektoren von U {\displaystyle U} sind Eigenvektoren von A {\displaystyle A} . Die Schur-Zerlegung von A {\displaystyle A} wird dann als Spektralzerlegung von A {\displaystyle A} bezeichnet.
  • Wenn A {\displaystyle A} positiv definit ist, dann ist die Schur-Zerlegung von A {\displaystyle A} dasselbe wie die Singulärwertzerlegung von A {\displaystyle A} .

Konstruktion einer Schur-Zerlegung

Sei A K n × n {\displaystyle A\in \mathbb {K} ^{n\times n}} . Zunächst muss ein Eigenwert λ 1 {\displaystyle \lambda _{1}} und ein entsprechender Eigenvektor v 1 {\displaystyle v_{1}} zu A {\displaystyle A} gefunden werden. Nun werden n 1 {\displaystyle n-1} Vektoren w 2 , , w n {\displaystyle w_{2},\ldots ,w_{n}} gewählt, so dass v 1 , w 2 , , w n {\displaystyle v_{1},w_{2},\ldots ,w_{n}} eine orthonormale Basis in K n {\displaystyle \mathbb {K} ^{n}} bilden. Diese Vektoren bilden die Spalten einer Matrix V 1 {\displaystyle V_{1}} mit

V 1 A V 1 = [ λ 1 0 A 1 ] {\displaystyle V_{1}^{*}AV_{1}={\begin{bmatrix}\lambda _{1}&*\\0&A_{1}\end{bmatrix}}} ,

wobei A 1 {\displaystyle A_{1}} eine ( n 1 ) × ( n 1 ) {\displaystyle (n-1)\times (n-1)} Matrix ist. Nun wird dieser Vorgang für A 1 {\displaystyle A_{1}} wiederholt. Es entsteht eine unitäre Matrix V 2 {\displaystyle V_{2}} mit

V 2 A 1 V 2 = [ λ 2 0 A 2 ] {\displaystyle V_{2}^{*}A_{1}V_{2}={\begin{bmatrix}\lambda _{2}&*\\0&A_{2}\end{bmatrix}}} ,

wobei A 2 {\displaystyle A_{2}} eine ( n 2 ) × ( n 2 ) {\displaystyle (n-2)\times (n-2)} Matrix ist. Dann gilt

Q 2 A Q 2 = [ λ 1 0 λ 2 0 0 A 2 ] {\displaystyle Q_{2}^{*}AQ_{2}={\begin{bmatrix}\lambda _{1}&*&*\\0&\lambda _{2}&*\\0&0&A_{2}\end{bmatrix}}} ,

wobei Q 2 = V 1 V ^ 2 {\displaystyle Q_{2}=V_{1}{\hat {V}}_{2}} mit V ^ 2 = [ 1 0 0 V 2 ] {\displaystyle {\hat {V}}_{2}={\begin{bmatrix}1&0\\0&V_{2}\end{bmatrix}}} gilt. Die gesamte Prozedur wird ( n 1 ) {\displaystyle (n-1)} -mal wiederholt, bis die Matrizen V 1 , , V ^ n 1 {\displaystyle V_{1},\ldots ,{\hat {V}}_{n-1}} vorliegen. Dann ist Q := V 1 V ^ 2 V ^ 3 V ^ n 1 {\displaystyle Q:=V_{1}{\hat {V}}_{2}{\hat {V}}_{3}\cdots {\hat {V}}_{n-1}} eine unitäre Matrix und R := Q A Q {\displaystyle R:=Q^{*}AQ} eine obere Dreiecksmatrix. Damit ist die Schur-Zerlegung der Matrix A {\displaystyle A} bestimmt.

Beispiel

Betrachte beispielsweise die Matrix A = [ 2 1 3 2 1 1 7 2 7 ] {\displaystyle A={\begin{bmatrix}-2&1&3\\2&1&-1\\-7&2&7\end{bmatrix}}} mit den Eigenwerten λ 1 = λ 2 = λ 3 = 2 {\displaystyle \lambda _{1}=\lambda _{2}=\lambda _{3}=2} (die Matrix ist nicht diagonalisierbar, weil die Dimension des mit diesem Eigenwert assoziierten Eigenraums 1 beträgt).

Wir wählen als Basis für den Anfang die Standard-Basis e 1 , e 2 , e 3 {\displaystyle \langle e_{1},e_{2},e_{3}\rangle } , wobei e j {\displaystyle e_{j}} den j {\displaystyle j} -ten Einheitsvektor bezeichnet.

Für A 1 = A {\displaystyle A_{1}=A} bestimmen wir einen Eigenvektor zu 2, zum Beispiel [ 1 1 1 ] {\displaystyle {\begin{bmatrix}1\\1\\1\end{bmatrix}}} mit Darstellung v 1 := 1 e 1 + 1 e 2 + 1 e 3 = [ 1 1 1 ] {\displaystyle v_{1}:=1e_{1}+1e_{2}+1e_{3}={\begin{bmatrix}1\\1\\1\end{bmatrix}}} und ergänzen ihn zu einer linear unabhängigen Basis, z. B. v 1 , e 1 , e 3 {\displaystyle \langle v_{1},e_{1},e_{3}\rangle } . Aus dieser neuen Basis erzeugen wir die Basistransformation V 1 = ( v 1 | e 1 | e 3 ) {\displaystyle V_{1}=(v_{1}|e_{1}|e_{3})} und berechnen V 1 1 A V 1 = [ 2 2 1 0 4 4 0 9 8 ] {\displaystyle V_{1}^{-1}AV_{1}={\begin{bmatrix}2&2&-1\\0&-4&4\\0&-9&8\end{bmatrix}}} daraus lässt sich ablesen, dass A 2 = [ 4 4 9 8 ] {\displaystyle A_{2}={\begin{bmatrix}-4&4\\-9&8\end{bmatrix}}} .

Für A 2 {\displaystyle A_{2}} bestimmen wir einen Eigenvektor zu 2, z. B. [ 2 3 ] {\displaystyle {\begin{bmatrix}2\\3\end{bmatrix}}} mit Darstellung v 2 := 0 v 1 + 2 e 1 + 3 e 3 = [ 2 0 3 ] {\displaystyle v_{2}:=0v_{1}+2e_{1}+3e_{3}={\begin{bmatrix}2\\0\\3\end{bmatrix}}} und ergänzen ihn zu einer linear unabhängigen Basis, z. B. v 1 , v 2 , e 3 {\displaystyle \langle v_{1},v_{2},e_{3}\rangle } . Aus dieser neuen Basis erzeugen wir die Basistransformation V 2 = ( v 1 | v 2 | e 3 ) {\displaystyle V_{2}=(v_{1}|v_{2}|e_{3})} und berechnen V 2 1 A V 2 = [ 2 1 1 0 2 2 0 0 2 ] {\displaystyle V_{2}^{-1}AV_{2}={\begin{bmatrix}2&1&-1\\0&2&2\\0&0&2\end{bmatrix}}} .

Wie oben gezeigt, kann die Basis beliebig gewählt werden, allerdings wird die Sache sehr einfach und interessant, wenn die Wahl der Standardbasis durchgezogen wird (sofern möglich). Dadurch ändern sich die vorherigen Schritte wie folgt:

Für A 1 = A {\displaystyle A_{1}=A} bestimmen wir einen Eigenvektor zu 2, z. B. [ 1 1 1 ] {\displaystyle {\begin{bmatrix}1\\1\\1\end{bmatrix}}} mit Darstellung v 1 := [ 1 1 1 ] {\displaystyle v_{1}:={\begin{bmatrix}1\\1\\1\end{bmatrix}}} und ergänzen ihn zu einer linear unabhängigen Basis, z. B. v 1 , e 2 , e 3 {\displaystyle \langle v_{1},e_{2},e_{3}\rangle } . Aus dieser neuen Basis erzeugen wir die Basistransformation V 1 = ( v 1 | e 2 | e 3 ) {\displaystyle V_{1}=(v_{1}|e_{2}|e_{3})} und berechnen V 1 1 A V 1 = [ 2 1 3 0 0 4 0 1 4 ] {\displaystyle V_{1}^{-1}AV_{1}={\begin{bmatrix}2&1&3\\0&0&-4\\0&1&4\end{bmatrix}}} daraus lässt sich ablesen, dass A 2 = [ 0 4 1 4 ] {\displaystyle A_{2}={\begin{bmatrix}0&-4\\1&4\end{bmatrix}}} .

Für A 2 {\displaystyle A_{2}} bestimmen wir einen Eigenvektor zu 2, z. B. [ 2 1 ] {\displaystyle {\begin{bmatrix}2\\-1\end{bmatrix}}} mit Darstellung v 2 := [ 0 2 1 ] {\displaystyle v_{2}:={\begin{bmatrix}0\\2\\-1\end{bmatrix}}} und ergänzen ihn zu einer linear unabhängigen Basis, z. B. v 1 , v 2 , e 3 {\displaystyle \langle v_{1},v_{2},e_{3}\rangle } . Aus dieser neuen Basis erzeugen wir die Basistransformation V 2 = ( v 1 | v 2 | e 3 ) {\displaystyle V_{2}=(v_{1}|v_{2}|e_{3})} und berechnen V 2 1 A V 2 = [ 2 1 3 0 2 2 0 0 2 ] {\displaystyle V_{2}^{-1}AV_{2}={\begin{bmatrix}2&-1&3\\0&2&-2\\0&0&2\end{bmatrix}}} .

Hier ist die Berechnung der Darstellung der Vektoren in der richtigen Basis sozusagen intuitiv und somit auch weniger fehleranfällig, zudem ist die finale Basistransformation hier V 2 {\displaystyle V_{2}} auch eine Dreiecksmatrix.

Mit dem Gram-Schmidtschen Orthogonalisierungsverfahren kann die erhaltene Basistransformationsmatrix zu einer unitären Matrix gemacht werden, wie verlangt.

  • Eric W. Weisstein: Schur Decomposition. In: MathWorld (englisch).
  • LP – Lemma von Schur, u. a. Beweis des Lemmas, in: Numerische Mathematik I – Funktionalanalytische Grundlagen.