Diagonalización

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.
Busca fuentes: «Diagonalización» – noticias · libros · académico · imágenes
Este aviso fue puesto el 16 de junio de 2023.

En matemáticas y, en particular, en álgebra lineal, la diagonalización es un proceso que permite simplificar la descripción de ciertos endomorfismos de un espacio vectorial. En particular, identificando el endomorfismo con su matriz asociada en cierta base, se puede hablar de diagonalización de matrices. Consiste en encontrar una base del espacio vectorial formada por vectores propios, si existe alguna. Esto se refleja en obtener una base tal que la matriz asociada al endomorfismo en la misma es una matriz diagonal.

El proceso se reduce, pues, a una reducción máxima del endomorfismo, es decir, a una descomposición del espacio vectorial en suma directa de subespacios vectoriales invariantes por el endomorfismo. Ristringido sobre cada uno de ellos, el endomorfismo se reduce a una homotecia. Por tanto, la diagonalización permite una mejor visualización geométrico de la actuación del endomorfismo sobre el espacio vectorial. Además, la diagonalización permite un cálculo rápido y simple de potencias y exponenciales de matrices (entendidas como matrices de un endomorfismo), lo que permite expresar numéricamente ciertos sistemas dinámicos lineales, obtenidos por iteración o por ecuaciones diferenciales.

Introducción y deducción del método

Supongamos que tenemos un endomorfismo f : R 3 R 3 {\displaystyle f:\mathbb {R} ^{3}\rightarrow \mathbb {R} ^{3}} del espacio vectorial R 3 {\displaystyle \mathbb {R} ^{3}} que en base canónica tiene por matriz asociada la matriz A = ( 2 1 1 0 4 1 0 3 2 ) {\displaystyle A={\begin{pmatrix}2&1&1\\0&4&1\\0&3&2\end{pmatrix}}} .

Supongamos que queremos estudiar, por ejemplo, el endomorfismo f 10 {\displaystyle f^{10}} , que tiene por matriz asociada A 10 {\displaystyle A^{10}} . Esta matriz es difícil de calcular. Sin embargo, si encontráramos otra base B {\displaystyle {\mathcal {B'}}} tal que la matriz de f {\displaystyle f} en esa base fuera una matriz diagonal D = ( d 1 0 0 0 d 2 0 0 0 d 3 ) {\displaystyle D={\begin{pmatrix}d_{1}&0&0\\0&d_{2}&0\\0&0&d_{3}\end{pmatrix}}} , con P {\displaystyle P} la matriz de cambio de base de B {\displaystyle {\mathcal {B'}}} a la base canónica, es decir, A = P D P 1 {\displaystyle A=PDP^{-1}} , tendríamos que A 10 = ( P D P 1 ) ( P D P 1 ) 10  veces ( P D P 1 ) ( P D P 1 ) = P D ( P 1 P ) D ( P 1 P ) ( P 1 P ) D P 1 = P D 10 P 1 = P ( d 1 10 0 0 0 d 2 10 0 0 0 d 3 10 ) P 1 {\displaystyle A^{10}=(PDP^{-1})(PDP^{-1}){\overset {10{\text{ veces}}}{\dots }}(PDP^{-1})(PDP^{-1})=PD(P^{-1}P)D(P^{-1}P)\dots (P^{-1}P)DP^{-1}=PD^{10}P^{-1}=P{\begin{pmatrix}d_{1}^{10}&0&0\\0&d_{2}^{10}&0\\0&0&d_{3}^{10}\end{pmatrix}}P^{-1}} .

Así, el problema se vería reducido a calcular potencias de números reales, algo mucho más sencillo.

Veamos ahora cómo podemos construir la base B = { u 1 , u 2 , u 3 } {\displaystyle {\mathcal {B'}}=\{u_{1},u_{2},u_{3}\}} para que la matriz de f {\displaystyle f} en esa base sea diagonal. Por construcción de la matriz de una aplicación lineal en una cierta base, que la matriz de f {\displaystyle f} en base B {\displaystyle {\mathcal {B'}}} sea D {\displaystyle D} significa que { f ( u 1 ) = d 1 u 1 f ( u 2 ) = d 2 u 2 f ( u 3 ) = d 3 u 3 {\displaystyle \left\{{\begin{matrix}f(u_{1})=d_{1}u_{1}\\f(u_{2})=d_{2}u_{2}\\f(u_{3})=d_{3}u_{3}\end{matrix}}\right.} . Tomemos por ejemplo la primera condición y denotemos B {\displaystyle {\mathcal {B}}} la base canónica: f ( u 1 ) = d 1 u 1 A ( u 1 ) B = d 1 ( u 1 ) B ( A d 1 I ) ( u 1 ) B = 0 {\displaystyle f(u_{1})=d_{1}u_{1}\Leftrightarrow A(u_{1})_{\mathcal {B}}=d_{1}(u_{1})_{\mathcal {B}}\Leftrightarrow (A-d_{1}I)(u_{1})_{\mathcal {B}}=0} . Como u 1 {\displaystyle u_{1}} forma parte de una base, no puede ser nulo, de forma que esto quiere decir que el sistema homogéneo ( A d 1 I ) x = 0 {\displaystyle (A-d_{1}I)x=0} tiene soluciones no triviales (distintas de 0). Por el teorema de Rouché–Frobenius, esto quiere decir que rg ( A d 1 I ) < 3 det ( A d 1 I ) = 0 {\displaystyle \operatorname {rg} (A-d_{1}I)<3\Leftrightarrow \det(A-d_{1}I)=0} . Si consideramos el polinomio Q f ( t ) = det ( A t I ) {\displaystyle Q_{f}(t)=\det(A-tI)} esto quiere decir que d 1 {\displaystyle d_{1}} tiene que ser raíz de Q f {\displaystyle Q_{f}} . Simétricamente para u 2 {\displaystyle u_{2}} y u 3 {\displaystyle u_{3}} , obtenemos que d 2 , d 3 {\displaystyle d_{2},d_{3}} también son raíces de Q f {\displaystyle Q_{f}} . Es decir, { d i } {\displaystyle \{d_{i}\}} es el conjunto de raíces del polinomio Q f {\displaystyle Q_{f}} , al que llamaremos polinomio característico de f {\displaystyle f} . Por tanto, si no hay ninguna raíz en el cuerpo donde estamos trabajando, podemos afirmar que el endomorfismo no diagonaliza.

Por tanto, el primer paso es encontrar las raíces de Q f {\displaystyle Q_{f}} a las que llamaremos valores propios (o VAPS) de f {\displaystyle f} . Una vez encontradas, encontramos los vectores u i {\displaystyle u_{i}} como soluciones no triviales de los sistemas ( A d i I ) x = 0 {\displaystyle (A-d_{i}I)x=0} que sabemos que existen porque hemos impuesto que el rango de la matriz A d i I {\displaystyle A-d_{i}I} baje para los d i {\displaystyle d_{i}} encontrados. A los vectores u i {\displaystyle u_{i}} los llamaremos vectores propios (o VEPS) de f {\displaystyle f} . Una vez encontrados, hay que comprobar que formen entre ellos una base. Si la forman, ya tenemos la base B {\displaystyle {\mathcal {B'}}} que buscábamos. Si no, diremos que f {\displaystyle f} era un endomorfismo no diagonalizable. Este método es válido en general para cualquier dimensión. Es decir, para diagonalizar una matriz los pasos a seguir son:

(1) Encontrar los valores propios: las raíces de Q f ( t ) = det ( A t I ) {\displaystyle Q_{f}(t)=\det(A-tI)} . Si no tiene, f {\displaystyle f} no diagonaliza.

(2) Encontrar los vectores propios: para cada valor propio d i {\displaystyle d_{i}} , las soluciones de ( A d i I ) x = 0 {\displaystyle (A-d_{i}I)x=0} . Tomar, de entre los vectores propios de cada valor propio, tantos linealmente independientes como sea posible.

(3) Comprobar que el conjunto de vectores obtenidos es, efectivamente una base. Si lo es, ya estamos. Si no, f {\displaystyle f} no es diagonalizable.

En el ejemplo anterior haríamos lo siguiente:

( 1 ) Q f ( t ) = det ( A t I ) = | 2 t 1 1 0 4 t 1 0 3 2 t | = ( 2 t ) | 4 t 1 3 2 t | = {\displaystyle (1)\quad Q_{f}(t)=\det(A-tI)={\begin{vmatrix}2-t&1&1\\0&4-t&1\\0&3&2-t\end{vmatrix}}=(2-t){\begin{vmatrix}4-t&1\\3&2-t\end{vmatrix}}=}

= ( 2 t ) ( ( 4 t ) ( 2 t ) 3 ) = ( 2 t ) ( 5 6 t + t 2 ) = ( 2 t ) ( 5 t ) ( 1 t ) {\displaystyle =(2-t)((4-t)(2-t)-3)=(2-t)(5-6t+t^{2})=(2-t)(5-t)(1-t)} . Por lo que los valores propios son 1 , 2 {\displaystyle 1,2} y 5 {\displaystyle 5} .

( 2 ) {\displaystyle (2)\quad } Encontramos los vectores propios:

t = 1 {\displaystyle t=1} : A I = ( 1 1 1 0 3 1 0 3 1 ) ( 1 1 1 0 3 1 0 0 0 ) ker ( A I ) = span ( 2 , 1 , 3 ) u 1 = ( 2 , 1 , 3 ) {\displaystyle A-I={\begin{pmatrix}1&1&1\\0&3&1\\0&3&1\end{pmatrix}}\sim {\begin{pmatrix}1&1&1\\0&3&1\\0&0&0\end{pmatrix}}\Rightarrow \ker(A-I)=\operatorname {span} (-2,1,3)\Rightarrow u_{1}=(-2,1,3)}

t = 2 {\displaystyle t=2} : A 2 I = ( 0 1 1 0 2 1 0 3 0 ) ( 0 1 0 0 0 1 0 0 0 ) ker ( A 2 I ) = span ( 1 , 0 , 0 ) u 2 = ( 1 , 0 , 0 ) {\displaystyle A-2I={\begin{pmatrix}0&1&1\\0&2&1\\0&3&0\end{pmatrix}}\sim {\begin{pmatrix}0&1&0\\0&0&1\\0&0&0\end{pmatrix}}\Rightarrow \ker(A-2I)=\operatorname {span} (1,0,0)\Rightarrow u_{2}=(1,0,0)}

t = 5 {\displaystyle t=5} : A 5 I = ( 3 1 1 0 1 1 0 3 3 ) ( 3 0 2 0 1 1 0 0 0 ) ker ( A 5 I ) = span ( 2 , 3 , 3 ) u 3 = ( 2 , 3 , 3 ) {\displaystyle A-5I={\begin{pmatrix}-3&1&1\\0&-1&1\\0&3&-3\end{pmatrix}}\sim {\begin{pmatrix}-3&0&2\\0&-1&1\\0&0&0\end{pmatrix}}\Rightarrow \ker(A-5I)=\operatorname {span} (2,3,3)\Rightarrow u_{3}=(2,3,3)}

( 3 ) {\displaystyle (3)\quad } Nuestro candidato a base es B = { ( 2 , 1 , 3 ) , ( 1 , 0 , 0 ) , ( 2 , 3 , 3 ) } {\displaystyle {\mathcal {B'}}=\{(-2,1,3),(1,0,0),(2,3,3)\}} , que efectivamente, es una base. Por tanto,

A = ( 2 1 2 1 0 3 3 0 3 ) ( 1 0 0 0 2 0 0 0 5 ) ( 2 1 2 1 0 3 3 0 3 ) 1 {\displaystyle A={\begin{pmatrix}-2&1&2\\1&0&3\\3&0&3\end{pmatrix}}{\begin{pmatrix}1&0&0\\0&2&0\\0&0&5\end{pmatrix}}{\begin{pmatrix}-2&1&2\\1&0&3\\3&0&3\end{pmatrix}}^{-1}} , y podemos calcular A k = ( 2 1 2 1 0 3 3 0 3 ) ( 1 k 0 0 0 2 k 0 0 0 5 k ) ( 2 1 2 1 0 3 3 0 3 ) 1 {\displaystyle A^{k}={\begin{pmatrix}-2&1&2\\1&0&3\\3&0&3\end{pmatrix}}{\begin{pmatrix}1^{k}&0&0\\0&2^{k}&0\\0&0&5^{k}\end{pmatrix}}{\begin{pmatrix}-2&1&2\\1&0&3\\3&0&3\end{pmatrix}}^{-1}} .

Sin embargo, no todos los endomorfismos son diagonalizables, pero podemos caracterizar aquellos que sí que lo son.

Caracterización de endomorfismos diagonalizables

Definimos la multiplicidad algebraica y geométrica de un valor propio λ {\displaystyle \lambda } . La multiplicidad algebraica m a ( λ ) {\displaystyle m_{a}(\lambda )} es su multiplicidad como raíz del polinomio característico. La multiplicidad geométrica m g ( λ ) {\displaystyle m_{g}(\lambda )} de λ {\displaystyle \lambda } es la dimensión del espacio de vectores propios de valor propio λ {\displaystyle \lambda } (que denotaremos E λ {\displaystyle E_{\lambda }} ). Así, m g ( λ ) = dim ( E λ ) {\displaystyle m_{g}(\lambda )=\dim(E_{\lambda })} .

Antes de la caracterización, hace falta demostrar dos lemas:

( 1 ) {\displaystyle (1)} Sean λ 1 , , λ r {\displaystyle \lambda _{1},\dots ,\lambda _{r}} VAPS de f {\displaystyle f} diferentes dos a dos. Entonces,

E λ 1 E λ r {\displaystyle E_{\lambda _{1}}\oplus \dots \oplus E_{\lambda _{r}}} ,

donde {\displaystyle \oplus } significa suma directa.

Lo vemos por inducción sobre r {\displaystyle r} :

r = 2 {\displaystyle r=2} :

Tenemos λ 1 λ 2 {\displaystyle \lambda _{1}\neq \lambda _{2}} . Queremos ver que E λ 1 E λ 2 {\displaystyle E_{\lambda _{1}}\oplus E_{\lambda _{2}}} , o, equivalentemente, E λ 1 E λ 2 = { 0 } {\displaystyle E_{\lambda _{1}}\cap E_{\lambda _{2}}=\{0\}} .
Sea u E λ 1 E λ 2 {\displaystyle u\in E_{\lambda _{1}}\cap E_{\lambda _{2}}} arbitrario. Tenemos que { u E λ 1 f ( u ) = λ 1 u u E λ 2 f ( u ) = λ 2 u } {\displaystyle \left\{{\begin{matrix}u\in E_{\lambda _{1}}\Rightarrow f(u)=\lambda _{1}u\\u\in E_{\lambda _{2}}\Rightarrow f(u)=\lambda _{2}u\end{matrix}}\right\}} 0 = ( λ 1 λ 2 ) u λ 1 λ 2 u = 0 {\displaystyle \Rightarrow 0=(\lambda _{1}-\lambda _{2})u{\overset {\lambda _{1}\neq \lambda _{2}}{\Rightarrow }}u=0}
Como u E λ 1 E λ 2 {\displaystyle u\in E_{\lambda _{1}}\cap E_{\lambda _{2}}} era arbitrario, tenemos lo que queríamos.

Inducción:

Sean u i E λ i {\displaystyle u_{i}\in E_{\lambda _{i}}} con i = 1 , , r {\displaystyle i=1,\dots ,r} . Supongamos que u 1 + + u r = 0 {\displaystyle u_{1}+\dots +u_{r}=0} . Para ver que { E λ i {\displaystyle \{E_{\lambda _{i}}} están en suma directa, es suficiente ver que u i = 0 i = 1 , , r {\displaystyle u_{i}=0\quad \forall i=1,\dots ,r} .
u 1 + + u r = 0 f ( u 1 + + u r ) = f ( 0 ) f ( u 1 ) + f ( u r ) = 0 λ 1 u 1 + + λ r u r = 0 ( ) {\displaystyle u_{1}+\dots +u_{r}=0\Rightarrow f(u_{1}+\dots +u_{r})=f(0)\Rightarrow f(u_{1})+\dots f(u_{r})=0\Rightarrow \lambda _{1}u_{1}+\dots +\lambda _{r}u_{r}=0\quad (*)}
Por otro lado, u 1 + + u r = 0 λ r u 1 + + λ r u r = 0 ( ) {\displaystyle u_{1}+\dots +u_{r}=0\Rightarrow \lambda _{r}u_{1}+\dots +\lambda _{r}u_{r}=0\quad (**)}
Restamos ( ) ( ) {\displaystyle (*)-(**)} :
( λ 1 λ r ) u 1 + + ( λ r λ r ) u r = 0 ( λ 1 λ r ) u 1 + + ( λ r 1 λ r ) u r 1 = 0 Hip. inducción {\displaystyle (\lambda _{1}-\lambda _{r})u_{1}+\dots +(\lambda _{r}-\lambda _{r})u_{r}=0\Rightarrow (\lambda _{1}-\lambda _{r})u_{1}+\dots +(\lambda _{r-1}-\lambda _{r})u_{r-1}=0{\overset {\text{Hip. inducción}}{\Rightarrow }}}
( λ i λ r ) u i = 0 i = 1 , , r 1 λ  diferentes dos a dos u i = 0 i = 1 , , r 1 {\displaystyle \Rightarrow (\lambda _{i}-\lambda _{r})u_{i}=0\quad \forall i=1,\dots ,r-1{\overset {\lambda {\text{ diferentes dos a dos}}}{\Rightarrow }}u_{i}=0\quad \forall i=1,\dots ,r-1} .
Por tanto, como u 1 + + u r = 0 u r = 0 {\displaystyle u_{1}+\dots +u_{r}=0\Rightarrow u_{r}=0} . {\displaystyle \quad \square }
( 2 ) {\displaystyle (2)} Si λ {\displaystyle \lambda } es VAP de f {\displaystyle f} , 1 m g ( λ ) m a ( λ ) {\displaystyle 1\leq m_{g}({\lambda })\leq m_{a}({\lambda })}
Que 1 m g ( λ ) {\displaystyle 1\leq m_{g}(\lambda )} es obvio, pues λ {\displaystyle \lambda } es VAP y, por definición, existen VEPs de VAP λ {\displaystyle \lambda } . Como los VEPs son distintos de 0, trivialmente, la dimensión del espacio que generan es no nula.

Veamos que m g ( λ ) m a ( λ ) {\displaystyle m_{g}(\lambda )\leq m_{a}(\lambda )} . Sea { u 1 , , u d } {\displaystyle \{u_{1},\dots ,u_{d}\}} una base de E λ {\displaystyle E_{\lambda }} : E λ = span ( u 1 , , u d ) {\displaystyle E_{\lambda }=\operatorname {span} (u_{1},\dots ,u_{d})} .

Por el teorema de intercambio de Steinitz, podemos completar esta base a una base del espacio: B = { u 1 , , u d , u d + 1 , , u n } {\displaystyle {\mathcal {B}}=\{u_{1},\dots ,u_{d},u_{d+1},\dots ,u_{n}\}} . Consideremos A {\displaystyle A} la matriz de f {\displaystyle f} en base B {\displaystyle {\mathcal {B}}} :

A = ( λ 0 0 0 λ 0 C 1 0 0 λ 0 0 0 C 2 0 0 0 ) Q f ( t ) = det ( A t I ) = ( λ t ) d det ( C 2 t I ) = ( λ t ) m g ( λ ) h ( t ) {\displaystyle A={\begin{pmatrix}\lambda &0&\dots &0&&&\\0&\lambda &\dots &0&&C_{1}&\\\vdots &\vdots &\ddots &\vdots &&&\\0&0&\dots &\lambda &&&\\0&0&\dots &0&&&\\\vdots &\vdots &&\vdots &&C_{2}&\\0&0&\dots &0&&&\end{pmatrix}}\Rightarrow Q_{f}(t)=\det(A-tI)=(\lambda -t)^{d}\det(C_{2}-tI)=(\lambda -t)^{m_{g}(\lambda )}h(t)} ,

Con h ( t ) {\displaystyle h(t)} polinomio que podría, o no, tener a λ {\displaystyle \lambda } como raíz. En cualquier caso, m g ( λ ) m a ( λ ) {\displaystyle m_{g}(\lambda )\leq m_{a}(\lambda )\quad \square }

Veamos ahora el teorema que caracteriza a los endomorfismos diagonalizables y nos permitirá asegurar que no podemos diagonalizar f {\displaystyle f} antes de acabar el algoritmo presentado en el primer apartado del artículo.

f {\displaystyle f} diagonaliza { ( i ) Q f ( t )  descompone completamente ( i i ) λ  VAP  m g ( λ ) = m a ( λ ) {\displaystyle \Leftrightarrow \left\{{\begin{matrix}(i)\quad Q_{f}(t){\text{ descompone completamente}}\\(ii)\quad \forall \lambda {\text{ VAP }}\quad m_{g}(\lambda )=m_{a}(\lambda )\end{matrix}}\right.}
Observamos que Q f ( t ) {\displaystyle Q_{f}(t)} descompone completamente Q f ( t ) = ( 1 ) n ( t λ 1 ) s 1 ( t λ r ) s r , {\displaystyle \Leftrightarrow Q_{f}(t)=(-1)^{n}(t-\lambda _{1})^{s_{1}}\dots (t-\lambda _{r})^{s_{r}},} con s 1 + + s r = gr ( Q f ) = n = dim E ( ) {\displaystyle s_{1}+\dots +s_{r}=\operatorname {gr} (Q_{f})=n=\dim E\quad (*)} .

Además, f {\displaystyle f} es diagonalizable, por definición, si podemos generar el espacio sólo con VEPs, es decir, si E λ 1 + + E λ r = E {\displaystyle E_{\lambda _{1}}+\dots +E_{\lambda _{r}}=E} .

Por tanto,

f  diagonaliza E λ 1 + + E λ r = E E λ i E E λ 1 + E λ r E dim E = dim ( E λ 1 + + E λ r ) = ( 1 ) dim ( E λ 1 E λ r ) = dim E λ 1 + dim E λ r = {\displaystyle f{\text{ diagonaliza}}\Leftrightarrow E_{\lambda _{1}}+\dots +E_{\lambda _{r}}=E{\overset {E_{\lambda _{i}}\subseteq E\Rightarrow E_{\lambda _{1}}+\dots E_{\lambda _{r}}\subseteq E}{\Leftrightarrow }}\dim E=\dim(E_{\lambda _{1}}+\dots +E_{\lambda _{r}}){\overset {(1)}{=}}\dim(E_{\lambda _{1}}\oplus \dots \oplus E_{\lambda _{r}})=\dim E_{\lambda _{1}}+\dots \dim E_{\lambda _{r}}=}

= m g ( λ 1 ) + + m g ( λ r ) ( 2 ) m a ( λ 1 ) + + m a ( λ r ) gr ( Q f ) = n = dim E {\displaystyle =m_{g}(\lambda _{1})+\dots +m_{g}(\lambda _{r}){\overset {(2)}{\leq }}m_{a}(\lambda _{1})+\dots +m_{a}(\lambda _{r})\leq \operatorname {gr} (Q_{f})=n=\dim E\Leftrightarrow } las dos desigualdades son igualdades.

La primera, por ( 2 ) {\displaystyle (2)} , es equivalente a pedir que λ {\displaystyle \forall \lambda } VAP m g ( λ ) = m a ( λ ) {\displaystyle m_{g}(\lambda )=m_{a}(\lambda )} .

La segunda, por ( ) {\displaystyle (*)} , es equivalente a pedir que Q f {\displaystyle Q_{f}} descomponga completamente. {\displaystyle \quad \square }

Por tanto, en el algoritmo anterior podemos afirmar que f {\displaystyle f} no es diagonalizable sin acabar en dos casos: si el polinomio característico no descompone o si al calcular los subespacios de vectores propios, encontramos alguno cuya dimensión no coincida con la multiplicidad algebraica del VAP correspondiente.

Además, si no hemos parado en ninguno de los dos casos anteriores, el teorema afirma que f {\displaystyle f} es diagonalizable directamente, es decir, no hace falta el tercer paso, donde comprobábamos que el conjunto de VEPs obtenidos eran efectivamente una base. Así, podríamos actualizar el algoritmo como sigue:

(1) Encontrar los valores propios: las raíces de Q f ( t ) = det ( A t I ) {\displaystyle Q_{f}(t)=\det(A-tI)} . Si no descompone completamente, f {\displaystyle f} no diagonaliza. Fin.

(2) Encontrar los vectores propios: para cada valor propio d i {\displaystyle d_{i}} , ker ( A d i I ) {\displaystyle \ker(A-d_{i}I)} . Si la dimensión de este núcleo no es igual a la multiplidad del VAP correspondiente como raíz del polinomio característico, f {\displaystyle f} no diagonaliza. Fin.

(3) Llegado a este punto, f {\displaystyle f} diagonaliza, y la unión de las bases de los espacios de VEPs es la base que buscamos para diagonalizar f {\displaystyle f} .

Referencias

  • Castellet, Manuel; Llerena, Irene (2005). Universidad Autónoma de Barcelona, ed. Álgebra lineal y geometría. ISBN 84-7488-943-X. 

Bibliografía

(en inglés) Richard S. Varga, Matrix Iterative Analysis, Springer, 2010

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q11917068
  • Wd Datos: Q11917068