Matrice de Vandermonde

En algèbre linéaire, une matrice de Vandermonde est une matrice avec une progression géométrique dans chaque ligne. Elle tient son nom du mathématicien français Alexandre-Théophile Vandermonde.

De façon matricielle, elle se présente ainsi :

V = ( 1 α 1 α 1 2 α 1 n 1 1 α 2 α 2 2 α 2 n 1 1 α 3 α 3 2 α 3 n 1 1 α m α m 2 α m n 1 ) {\displaystyle V={\begin{pmatrix}1&\alpha _{1}&{\alpha _{1}}^{2}&\dots &{\alpha _{1}}^{n-1}\\1&\alpha _{2}&{\alpha _{2}}^{2}&\dots &{\alpha _{2}}^{n-1}\\1&\alpha _{3}&{\alpha _{3}}^{2}&\dots &{\alpha _{3}}^{n-1}\\\vdots &\vdots &\vdots &&\vdots \\1&\alpha _{m}&{\alpha _{m}}^{2}&\dots &{\alpha _{m}}^{n-1}\\\end{pmatrix}}}

Autrement dit, pour tous i et j, le coefficient en ligne i et colonne j est V i , j = α i j 1 . {\displaystyle V_{i,j}={\alpha _{i}}^{j-1}.}

Remarque.
Certains auteurs utilisent la transposée de la matrice ci-dessus[1].

Inversibilité

On considère une matrice V de Vandermonde carrée ( m = n {\displaystyle m=n} ). Elle est inversible si et seulement si les α i {\displaystyle \alpha _{i}} sont deux à deux distincts.

Démonstration[2]

Si deux coefficients α i {\displaystyle \alpha _{i}} sont identiques, la matrice a deux lignes identiques, donc n'est pas inversible.

Pour la réciproque, on peut procéder au calcul du déterminant, ce qui sera fait dans la prochaine section. Une preuve d'inversibilité plus rapide est cependant de considérer V comme la matrice du système linéaire homogène VX = 0 pour X de composantes x0, …, xn-1 :

{ x 0 + α 1 x 1 + α 1 2 x 2 + + α 1 n 1 x n 1 = 0 x 0 + α n x 1 + α n 2 x 2 + + α n n 1 x n 1 = 0 {\displaystyle {\begin{cases}x_{0}+\alpha _{1}x_{1}+\alpha _{1}^{2}x_{2}+&\dots +\alpha _{1}^{n-1}x_{n-1}=0\\&\vdots \\x_{0}+\alpha _{n}x_{1}+\alpha _{n}^{2}x_{2}+&\dots +\alpha _{n}^{n-1}x_{n-1}=0\end{cases}}}

En introduisant le polynôme

P ( Y ) = i = 0 n 1 x i Y i {\displaystyle P(Y)=\sum _{i=0}^{n-1}x_{i}Y^{i}} ,

on voit que si X vérifie l'équation VX = 0, alors P admet n racines distinctes, soit plus que son degré ; donc P est nul, et ainsi X = 0, ce qui prouve que V est inversible.

Déterminant

Le déterminant d'une matrice n × n {\displaystyle n\times n} de Vandermonde ( m = n {\displaystyle m=n} dans ce cas) peut s'exprimer ainsi[3],[4]

det ( V ) = 1 i < j n ( α j α i ) {\displaystyle \det(V)=\prod _{1\leq i<j\leq n}(\alpha _{j}-\alpha _{i})} .
Démonstration[2]

Le déterminant D ( α 1 , , α n ) {\displaystyle D(\alpha _{1},\ldots ,\alpha _{n})} de la matrice est un polynôme en α 1 , , α n {\displaystyle \alpha _{1},\ldots ,\alpha _{n}} . De plus, ce déterminant s'annule lorsque deux des nombres α i , α j {\displaystyle \alpha _{i},\alpha _{j}} sont égaux puisqu'il y a alors deux lignes identiques. Par suite, ce déterminant est égal à

P ( α 1 , , α n ) Q ( α 1 , , α n ) {\displaystyle P(\alpha _{1},\ldots ,\alpha _{n})\cdot Q(\alpha _{1},\ldots ,\alpha _{n})}

P ( α 1 , , α n ) = 1 i < j n ( α j α i ) {\displaystyle P(\alpha _{1},\ldots ,\alpha _{n})=\prod _{1\leq i<j\leq n}(\alpha _{j}-\alpha _{i})}

et où Q {\displaystyle Q} est lui-même un polynôme.

Cependant, le polynôme D {\displaystyle D} est homogène, de degré 0+1+…+(n-1) = n(n-1)/2. Puisqu'il en est de même de P {\displaystyle P} , le polynôme Q {\displaystyle Q} est en fait une constante. Enfin, cette constante vaut 1 puisque dans les développements de D {\displaystyle D} et de P {\displaystyle P} , le coefficient du monôme α n n 1 α n 1 n 2 α 2 1 {\displaystyle \alpha _{n}^{n-1}\alpha _{n-1}^{n-2}\ldots \alpha _{2}^{1}} a la même valeur non nulle égale à 1.

Applications

La matrice de Vandermonde et le calcul de son déterminant sont utilisés en interpolation polynomiale[5].

Un cas particulier de matrice de Vandermonde apparaît dans la formule de la transformée de Fourier discrète, où les coefficients α 1 , , α m {\displaystyle \alpha _{1},\dots ,\alpha _{m}} sont des racines complexes de l'unité[6].

Notes et références

  1. N. Macon et A. Spitzbart, « Inverses of Vandermonde Matrices », The American Mathematical Monthly, vol. 65, no 2,‎ , p. 95–100 (DOI 10.2307/2308881, JSTOR 2308881)
  2. a et b Pour une preuve moins conceptuelle, voir par exemple cet exercice corrigé sur Wikiversité.
  3. Cette forme factorisée est utilisée par exemple dans l'épreuve de mathématiques de l'agrégation externe 2006, partie I.10.
  4. Mohamed Houimdi, Algèbre linéaire, algèbre bilinéaire: cours et exercices corrigés, Edition Marketing Ellipses, , 551 p., p. 185-186
  5. Jean-Philippe Chancelier, « Interpolation et approximation polynomiale: Réponses » Accès libre, sur CERMICS, (consulté le )
  6. (en) Gene H Golub, Charles F Van Loan, Matrix computations, jhu press, 722 p. (ISBN 0801837723), p. 183

Voir aussi

Bibliographie

  • Jacqueline Lelong-Ferrand et Jean-Marie Arnaudiès, Cours de mathématiques, tome 1 : algèbre, m.p. - spéciales m',m, Dunod, Paris, 1971 ; pages 316 à 319.
  • Daniel Guinin, François Aubonnet et Bernard Joppin, Précis de mathématiques, Tome 2, Algèbre 2, 3e édition, Bréal, 1994 ; pages 19 et 20.

Articles connexes

  • Interpolation lagrangienne

Lien externe

  • Didier Piau, Un tour du (Vander)monde en 70 minutes
v · m
Matrices
Forme
Transformée
Relation
Propriété
Famille
Associée
Résultats
Décompositions
Articles liés
  • icône décorative Portail de l’algèbre