Matrix (wiskunde)

In de lineaire algebra, een deelgebied van de wiskunde, is een matrix, meervoud: matrices, een rechthoekig getallenschema. De gebruikelijke voorstelling van zo'n rechthoekig schema is met een zijde in de schrijfrichting en de andere loodrecht daarop, zodat de getallen daar in rijen en kolommen in geordend staan. De matrix is een middel om samenhangende gegevens en hun bewerkingen op een systematische en overzichtelijke wijze weer te geven. De naam matrix werd in 1848 ingevoerd door de Britse wiskundige J.J. Sylvester.

Indien er m {\displaystyle m} rijen en n {\displaystyle n} kolommen zijn, spreekt men van een m × n {\displaystyle m\times n} -matrix. Het gebruik is dus dat het eerste cijfer de hoogte aangeeft en het tweede de breedte. Als n = m {\displaystyle n=m} is het een vierkante matrix. De getallen heten de elementen van de matrix. Een m × n {\displaystyle m\times n} -matrix A {\displaystyle \mathbf {A} } heeft dus m × n {\displaystyle m\times n} elementen. Het element op het kruispunt van de r {\displaystyle r} -de rij en de k {\displaystyle k} -de kolom wordt aangeduid als het r k {\displaystyle rk} -de element en genoteerd als A r k {\displaystyle \mathbf {A} _{rk}} . Voor de matrix zelf noteert men wel: ( A r k ) {\displaystyle (\mathbf {A} _{rk})} . Andere notaties worden ook gebruikt, onder andere, waarin het r k {\displaystyle rk} -de element van een matrix A {\displaystyle \mathbf {A} } geschreven wordt als a r k {\displaystyle a_{rk}} . Het volgende voorbeeld toont een 2×3-matrix A {\displaystyle \mathbf {A} } met gehele getallen als elementen:

A = [ 4 1 0 2 1 5 ] {\displaystyle \mathbf {A} ={\begin{bmatrix}4&-1&0\\2&1&5\end{bmatrix}}}

We zien bijvoorbeeld dat A 12 = 1 {\displaystyle \mathbf {A} _{12}=-1} en A 23 = 5 {\displaystyle \mathbf {A} _{23}=5} .

Matrices zijn belangrijke instrumenten in de lineaire algebra. Men gebruikt ze onder andere om lineaire afbeeldingen mee weer te geven. Matrixvermenigvuldiging komt overeen met samenstelling van lineaire afbeeldingen. Matrices kunnen ook worden gebruikt om een overzicht te geven van de coëfficiënten in een stelsel van lineaire vergelijkingen. De determinant bepaalt voor een vierkante matrix voor een deel welke oplossingen het corresponderende stelsel van lineaire vergelijkingen heeft. De eigenwaarden en eigenvectoren van een matrix geven inzicht in de meetkunde van de geassocieerde lineaire transformatie.

Matrices worden in de wiskunde en in de toepassingen ervan veel gebruikt. In de natuurkunde maakt men op verscheidene gebieden gebruik van matrices, zoals bij de meetkundige optica en de matrixmechanica. De laatste toepassing heeft geleid tot een meer gedetailleerde studie van matrices met een oneindig aantal rijen en kolommen. De grafentheorie maakt gebruik van matrices om afstanden tussen paren knopen in een graaf bij te houden. Computergraphics gebruikt matrices om de driedimensionale ruimte op een tweedimensionaal vlak te projecteren. De matrixrekening generaliseert klassieke analytische begrippen zoals afgeleiden van functies en exponentiële functies naar matrices, wat toepassing vindt bij het oplossen van gewone differentiaalvergelijkingen. Het serialisme en de dodecafonie zijn 20e-eeuwse muzikale stromingen die gebruikmaken van een vierkante matrix om het patroon van de intervallen te bepalen.

Een belangrijke tak van de numerieke analyse is gewijd aan de ontwikkeling van efficiënte algoritmen voor matrixberekeningen, een onderwerp dat, hoewel al eeuwen oud, nog steeds een actief gebied van wiskundig onderzoek is. Methoden voor matrix-decompositie vereenvoudigen zowel theoretische als praktische berekeningen. Voor ijle matrices, dat wil zeggen matrices die naar verhouding veel nullen bevatten, kunnen specifiek ontworpen algoritmen tot versnelde berekeningen leiden. Dergelijke matrices spelen bijvoorbeeld een rol in de eindige-elementenmethode.

Geschiedenis

Men maakt bij het oplossen van lineaire vergelijkingen al heel lang gebruik van matrices. De Chinese tekst, de negen hoofdstukken van de wiskundige kunst, geschreven tussen 300 v.Chr. en 200 n.Chr., geeft het eerste voorbeeld van het gebruik van matrixmethoden om een stelsel van lineaire vergelijkingen op te lossen.[1]

De determinant werd bijna 100 jaar eerder in de Chinese wiskunde genoemd dan in 1683 door de Japanse wiskundige Seki en in 1693 door Leibniz. Cramer presenteerde zijn regel van Cramer in 1750.

De vroege matrixtheorie benadrukte determinanten sterker dan matrices. Een onafhankelijk matrixbegrip, dat verwant is aan de moderne notie van een matrix, ontstond pas in 1858, met het werk van Cayley's Memoir on the theory of matrices.[2][3] De naam matrix werd door Sylvester bedacht, die een matrix als opgebouwd achtte uit minoren, determinanten van kleinere matrices die uit het origineel ontstaan door het verwijderen van rijen en kolommen. Het woord matrix is etymologisch afkomstig uit het Latijn.[4]

De studie van determinanten kwam voort uit verschillende bronnen.[5] Problemen in de getaltheorie brachten Gauss er toe om coëfficiënten van kwadratische vormen, dat wil zeggen, uitdrukkingen zoals x 2 + x y 2 y 2 {\displaystyle x^{2}+xy-2y^{2}} en lineaire afbeeldingen in drie dimensies met matrices in verband te brengen. Eisenstein heeft deze noties verder uitgewerkt, waaronder de opmerking dat de matrixvermenigvuldiging niet commutatief is. Cauchy was de eerste om algemene uitspraken over determinanten te bewijzen. Hij maakte daarbij gebruik van de volgende definitie van de determinant van een matrix A = ( a i j ) {\displaystyle \mathbf {A} =(a_{ij})} : vervang de machten a j k {\displaystyle a_{j}^{k}} door a j k {\displaystyle a_{jk}} in het polynoom

a 1 a 2 a n i < j ( a j a i ) {\displaystyle a_{1}a_{2}\cdots a_{n}\prod _{i<j}(a_{j}-a_{i})}

Hij toonde in 1829 ook aan dat de eigenwaarden van symmetrische matrices reëel zijn.[6] Jacobi bestudeerde functionele determinanten, later door Sylvester de Jacobiaan genoemd. Die kunnen bij integreren worden gebruikt bij het overgaan naar een ander coördinatenstelsel. Zie Kroneckers Vorlesungen über die Theorie der Determinanten[7] en Weierstrass' Zur Determinantentheorie,[8] beide in 1903 gepubliceerd. Zij waren de eersten die determinanten axiomatisch behandelden, dit in tegenstelling tot eerdere meer concrete benaderingen, zoals de genoemde stelling van Cauchy.

Veel stellingen werden aanvankelijk alleen voor kleine matrices vastgesteld, de stelling van Cayley-Hamilton werd bijvoorbeeld voor 2×2-matrices door Cayley in zijn hierboven genoemde werk bewezen, terwijl Hamilton deze stelling voor 4×4-matrices bewees. Frobenius bewees de stelling in 1898 voor alle matrices, toen hij aan bilineaire vormen werkte. Wilhelm Jordan was een van de eersten in Europa, aan het eind van de 19e eeuw, die een methode gaf om een stelsel van lineaire vergelijkingen op te lossen, nu bekend als de gauss-eliminatie. Matrices kregen in het begin van de 20e eeuw een centrale rol binnen de lineaire algebra.[9]

Het begin van de matrixmechanica door Heisenberg, Born en Jordan heeft geleid tot het bestuderen van matrices met oneindig veel rijen en kolommen.[10] Von Neumann heeft later de wiskundige formulering van de kwantummechanica opgesteld door de begrippen uit de functionaalanalyse verder te ontwikkelen, zoals lineaire afbeeldingen op hilbertruimten, die ruwweg gesproken corresponderen met de euclidische ruimte, maar met oneindig onafhankelijke richtingen.

Verschillend gebruik matrix in de geschiedenis van de wiskunde

Het woord matrix is door ten minste twee historisch belangrijke schrijvers op een ongewone manier gebruikt.

Russell en Whitehead gebruikten het woord matrix in hun Principia Mathematica (1910-1913) in de context van hun axioma van reduceerbaarheid. Zij stelden dit axioma voor als een middel om een functie successievelijk tot een van een lager type te reduceren, zodat de functie aan de 'onderkant', van de nulde orde, identiek zal zijn aan haar uitbreiding:

"Laten we de naam matrix aan enige functie van een willekeurig aantal variabelen geven, waarbij geen sprake is van enige klaarblijkelijke variabelen. Dan wordt enige mogelijke functie anders dan een matrix door middel van veralgemening afgeleid van een matrix, dat wil zeggen door de propositie te beschouwen die beweert dat de functie in kwestie waar is voor alle mogelijke waarden of met sommige waarden van een van de argumenten, waarbij het andere argument of argumenten onbepaald blijven".[11]

Een functie Φ ( x , y ) {\displaystyle \Phi (x,y)} van twee variabelen x {\displaystyle x} en y {\displaystyle y} kan bijvoorbeeld worden teruggebracht tot een verzameling van functies van een enkele variabele, bijvoorbeeld y {\displaystyle y} , door de functie voor alle mogelijke waarden van individuen te beschouwen, waar a i {\displaystyle a_{i}} in de plaats van variabele x {\displaystyle x} wordt gesubstitueerd. Dan kan de resulterende collectie van functies van de enkele variabele y {\displaystyle y} , dat wil zeggen Φ ( a i , y ) {\displaystyle \Phi (a_{i},y)} voor de verschillende a i {\displaystyle a_{i}} worden gereduceerd tot een matrix van waarden door de functie te beschouwen voor alle mogelijke waarden van "individuen" b i {\displaystyle b_{i}} gesubstitueerd in plaats van variabele y {\displaystyle y} :

Φ ( a i , b j ) {\displaystyle \Phi (a_{i},b_{j})} voor alle b j {\displaystyle b_{j}} en a i {\displaystyle a_{i}}

Tarski gebruikte het woord matrix in 1946 in zijn Introduction to Logic als een synoniem voor zijn notie van waarheidstabel, zoals deze wordt gebruikt in de wiskundige logica[12]

Definitie

Een m × n {\displaystyle m\times n} -matrix A {\displaystyle A} over een lichaam of veld K {\displaystyle K} is een element van het cartesische product ( K n ) m {\displaystyle (K^{n})^{m}} , geschreven als m {\displaystyle m} rijen onder elkaar van n {\displaystyle n} elementen van K {\displaystyle K} :

A = ( A 1 , , A m ) = ( ( a 11 , , a 1 n ) , , ( a m 1 , , a m n ) ) {\displaystyle A=(A_{1},\ldots ,A_{m})=((a_{11},\ldots ,a_{1n}),\ldots ,(a_{m1},\ldots ,a_{mn}))}

Daarbij moet een 1 × 1 {\displaystyle 1\times 1} -matrix A = ( ( a 11 ) ) {\displaystyle A=((a_{11}))} onderscheiden worden van het enige element a 11 {\displaystyle a_{11}} .[13]

  • Een m × 1 {\displaystyle m\times 1} -matrix is een element van ( K 1 ) m {\displaystyle (K^{1})^{m}} , te onderscheiden van K m {\displaystyle K^{m}} , dus een rij van m {\displaystyle m} 1-tupels met in elk een element van K {\displaystyle K} :
A = ( A 1 , , A m ) = ( ( a 11 ) , , ( a m 1 ) ) {\displaystyle A=(A_{1},\ldots ,A_{m})=((a_{11}),\ldots ,(a_{m1}))}
  • Een 1 × n {\displaystyle 1\times n} -matrix is een element van ( K n ) 1 {\displaystyle (K^{n})^{1}} , te onderscheiden van K n {\displaystyle K^{n}} , dus een 1-tupel met als enig item een rij van n {\displaystyle n} elementen van K {\displaystyle K} :
A = ( A 1 ) = ( ( a 11 , , a 1 n ) ) {\displaystyle A=(A_{1})=((a_{11},\ldots ,a_{1n}))}

De getallen ( a r k = ( A r ) k ) {\displaystyle (a_{rk}=(A_{r})_{k})} heten de elementen van de matrix A {\displaystyle A} .

Het is gebruikelijk de m {\displaystyle m} componenten van de matrix als een kolom van m {\displaystyle m} rijen te schrijven:

A = [ a 11 a 12 a 1 n a 21 a 22 a 2 n a m 1 a m 2 a m n ] {\displaystyle A={\begin{bmatrix}a_{11}&a_{12}&\cdots &a_{1n}\\a_{21}&a_{22}&\cdots &a_{2n}\\\vdots &\vdots &\ddots &\vdots \\a_{m1}&a_{m2}&\cdots &a_{mn}\end{bmatrix}}} ,

wat leidt tot de matrix als een rechthoekig schema van getallen.

Het getallenlichaam K {\displaystyle K} waaruit de elementen van een matrix worden gekozen is meestal R {\displaystyle \mathbb {R} } , zoals in een reële matrix, of C {\displaystyle \mathbb {C} } , zoals in een complexe matrix.

Som

Zie Matrixoptelling voor het hoofdartikel over dit onderwerp.

Twee matrices van dezelfde afmetingen kunnen bij elkaar worden opgeteld. Dat gebeurt elementsgewijs. De som C = A + B {\displaystyle C=A+B} van twee m × n {\displaystyle m\times n} -matrices A {\displaystyle A} en B {\displaystyle B} heeft als elementen

c i j = a i j + b i j {\displaystyle c_{ij}=a_{ij}+b_{ij}} ,

dus

C = A + B = [ a 11 + b 11 a 12 + b 12 a 1 n + b 1 n a 21 + b 21 a 22 + b 22 a 2 n + b 2 n a m 1 + b m 1 a m 2 + b m 2 a m n + b m n ] {\displaystyle C=A+B={\begin{bmatrix}a_{11}+b_{11}&a_{12}+b_{12}&\ldots &a_{1n}+b_{1n}\\a_{21}+b_{21}&a_{22}+b_{22}&\ldots &a_{2n}+b_{2n}\\\vdots &\vdots &\ddots &\vdots \\a_{m1}+b_{m1}&a_{m2}+b_{m2}&\ldots &a_{mn}+b_{mn}\end{bmatrix}}}
Voorbeeld
[ 1 3 1 1 0 0 ] + [ 0 0 5 7 5 0 ] = [ 1 + 0 3 + 0 1 + 5 1 + 7 0 + 5 0 + 0 ] = [ 1 3 6 8 5 0 ] {\displaystyle {\begin{bmatrix}1&3&1\\1&0&0\end{bmatrix}}+{\begin{bmatrix}0&0&5\\7&5&0\end{bmatrix}}={\begin{bmatrix}1+0&3+0&1+5\\1+7&0+5&0+0\end{bmatrix}}={\begin{bmatrix}1&3&6\\8&5&0\end{bmatrix}}}

Product

Het product van een m × k {\displaystyle m\times k} -matrix A {\displaystyle A} met een k × n {\displaystyle k\times n} -matrix B {\displaystyle B} of met een k {\displaystyle k} -vector x {\displaystyle x} kan door middel van matrixvermenigvuldiging worden berekend.

Product van matrices

Matrixvermenigvuldiging A B {\displaystyle AB} van twee matrices A {\displaystyle A} en B {\displaystyle B}

Het product van een m × k {\displaystyle m\times k} -matrix A {\displaystyle A} en een k × n {\displaystyle k\times n} -matrix B {\displaystyle B} is een m × n {\displaystyle m\times n} -matrix C = A B {\displaystyle C=AB} , met als elementen:

c i j = u = 1 k a i u b u j {\displaystyle c_{ij}=\sum _{u=1}^{k}a_{iu}b_{uj}} .
Voorbeeld
[ 1 0 2 1 3 1 ] [ 3 1 2 1 1 0 ] = [ 1 × 3 + 0 × 2 + 2 × 1 1 × 1 + 0 × 1 + 2 × 0 1 × 3 + 3 × 2 + 1 × 1 1 × 1 + 3 × 1 + 1 × 0 ] = [ 5 1 4 2 ] {\displaystyle {\begin{bmatrix}1&0&2\\-1&3&1\end{bmatrix}}\cdot {\begin{bmatrix}3&1\\2&1\\1&0\end{bmatrix}}={\begin{bmatrix}1\times 3+0\times 2+2\times 1&1\times 1+0\times 1+2\times 0\\-1\times 3+3\times 2+1\times 1&-1\times 1+3\times 1+1\times 0\end{bmatrix}}={\begin{bmatrix}5&1\\4&2\end{bmatrix}}}

Matrixvermenigvuldiging is alleen gedefinieerd voor twee matrices waarvan het aantal kolommen van de eerste gelijk is aan het aantal rijen van de tweede.

Product van matrix en vector

Het product berekenen van een m × n {\displaystyle m\times n} -matrix A {\displaystyle A} en een n {\displaystyle n} -vector x {\displaystyle x} gaat op dezelfde manier. Het is de m {\displaystyle m} -vector A x {\displaystyle Ax} met coördinaten:

( A x ) r = k = 1 n a r k x k {\displaystyle (Ax)_{r}=\sum _{k=1}^{n}a_{rk}x_{k}}

Dat is hetzelfde als de matrixvermenigvuldiging A x {\displaystyle Ax} van de matrix A {\displaystyle A} en de kolomvector (matrix) x = [ x 1 , , x n ] T {\displaystyle x=[x_{1},\ldots ,x_{n}]^{\text{T}}} met als elementen de coördinaten van de vector x {\displaystyle x} . Het resultaat is de kolomvector

[ ( A x ) 1 , , ( A x ) m ] T {\displaystyle [(Ax)_{1},\ldots ,(Ax)_{m}]^{\text{T}}}

met als elementen de coördinaten van de vector A x {\displaystyle Ax} .

Rij- en kolomvector

Zie Rij- en kolomvector voor het hoofdartikel over dit onderwerp.

Een 1 × n {\displaystyle 1\times n} -matrix A {\displaystyle A} is gedefinieerd als:

A = ( ( a 11 , , a 1 n ) ) {\displaystyle A=((a_{11},\ldots ,a_{1n}))} ,

dus met als enige component de vector

A 1 = ( a 11 , , a 1 n ) {\displaystyle A_{1}=(a_{11},\ldots ,a_{1n})}

Zo'n matrix, die als een rij getallen genoteerd wordt, lijkt erg veel op een vector en verschilt daar alleen in formele zin van. Men noemt een 1 × n {\displaystyle 1\times n} -matrix daarom wel een rijvector.

Een m × 1 {\displaystyle m\times 1} -matrix A {\displaystyle A} is gedefinieerd als:

A = ( ( a 11 ) , , ( a m 1 ) ) {\displaystyle A=((a_{11}),\ldots ,(a_{m1}))} ,

dus met als r {\displaystyle r} -de component

A r = ( a r 1 ) {\displaystyle A_{r}=(a_{r1})}

Zo'n matrix, die als een kolom getallen genoteerd wordt, lijkt erg veel op een vector en verschilt daar alleen in formele zin van. Men noemt een m × 1 {\displaystyle m\times 1} -matrix daarom wel een kolomvector.

Vatten we de n {\displaystyle n} -vector x {\displaystyle x} op als de kolomvector X {\displaystyle X} , met elementen:

X r 1 = x r {\displaystyle X_{r1}=x_{r}} ,

dan is het product A x {\displaystyle Ax} , opgevat als kolomvector, hetzelfde als het matrixproduct A X {\displaystyle AX} .

Basisoperaties

Zie Scalaire vermenigvuldiging en Getransponeerde matrix voor de hoofdartikelen over dit onderwerp.

Er zijn nog enkele operaties die op matrices kunnen worden toegepast en die de basistechnieken vormen voor het rekenen met matrices. Het gaat om scalaire vermenigvuldiging en transpositie. Voor het eventueel handmatig oplossen van lineaire vergelijkingen en het vinden van een inverse matrix komen daar nog de rij-operaties bij.

Scalaire vermenigvuldiging

Het product c A {\displaystyle cA} van de scalaire vermenigvuldiging van een matrix A {\displaystyle A} met het getal c {\displaystyle c} (in het spraakgebruik van de abstracte algebra een scalair genoemd) wordt berekend door elk element van A {\displaystyle A} met c {\displaystyle c} te vermenigvuldigen:

( c A ) i , j = c A i , j {\displaystyle (cA)_{i,j}=c\cdot A_{i,j}}
Voorbeeld
2 [ 1 8 3 4 2 5 ] = [ 2 1 2 8 2 3 2 4 2 2 2 5 ] = [ 2 16 6 8 4 10 ] {\displaystyle 2\cdot {\begin{bmatrix}1&8&-3\\4&-2&5\end{bmatrix}}={\begin{bmatrix}2\cdot 1&2\cdot 8&2\cdot -3\\2\cdot 4&2\cdot -2&2\cdot 5\end{bmatrix}}={\begin{bmatrix}2&16&-6\\8&-4&10\end{bmatrix}}}

Getransponeerde matrix

De getransponeerde van een m × n {\displaystyle m\times n} -matrix A {\displaystyle A} is de n × m {\displaystyle n\times m} -matrix A {\displaystyle A^{\top }} , ook aangeduid met A tr {\displaystyle A^{\text{tr}}} of t A {\displaystyle ^{t}A} , die men krijgt door de rijen en kolommen te verwisselen:

A i , j = A j , i {\displaystyle A_{i,j}^{\top }=A_{j,i}}

De getransponeerde van een getransponeerde matrix is weer de oorspronkelijke matrix:

( A ) = A {\displaystyle (A^{\top })^{\top }=A}
Voorbeeld
[ 1 2 3 0 6 0 3 0 7 6 2 3 ] = [ 1 0 3 6 2 6 0 2 3 0 7 3 ] {\displaystyle {\begin{bmatrix}1&2&3\\0&-6&0\\3&0&7\\6&-2&3\end{bmatrix}}^{\top }={\begin{bmatrix}1&0&3&6\\2&-6&0&-2\\3&0&7&3\end{bmatrix}}}

Rij-operaties

Het verwisselen van twee rijen. Als voorbeeld worden de rijen 1 en 2 omgewisseld.

[ 1 2 3 0 6 0 3 0 7 6 2 3 ] {\displaystyle {\begin{bmatrix}1&2&3\\0&-6&0\\3&0&7\\6&-2&3\end{bmatrix}}\quad } wordt [ 0 6 0 1 2 3 3 0 7 6 2 3 ] {\displaystyle \quad {\begin{bmatrix}0&-6&0\\1&2&3\\3&0&7\\6&-2&3\end{bmatrix}}}

Het vermenigvuldigen van een rij met een getal dat niet nul is. Als voorbeeld wordt rij 1 vermenigvuldigd met 3.

[ 1 2 3 0 6 0 3 0 7 6 2 3 ] {\displaystyle {\begin{bmatrix}1&2&3\\0&-6&0\\3&0&7\\6&-2&3\end{bmatrix}}\quad } wordt [ 3 6 9 0 6 0 3 0 7 6 2 3 ] {\displaystyle \quad {\begin{bmatrix}3&6&9\\0&-6&0\\3&0&7\\6&-2&3\end{bmatrix}}}

Het optellen van een veelvoud van een rij bij een andere rij. Als voorbeeld: rij 1 vermenigvuldigd met 3, en opgeteld bij rij 2.

[ 1 2 3 0 6 0 3 0 7 6 2 3 ] {\displaystyle {\begin{bmatrix}1&2&3\\0&-6&0\\3&0&7\\6&-2&3\end{bmatrix}}\quad } wordt [ 1 2 3 3 0 9 3 0 7 6 2 3 ] {\displaystyle \quad {\begin{bmatrix}1&2&3\\3&0&9\\3&0&7\\6&-2&3\end{bmatrix}}}

Vertrouwde eigenschappen van getallen breiden zich uit tot deze operaties op matrices: optelling is bijvoorbeeld commutatief, dat wil zeggen dat matrixoptelling niet afhankelijk is van de volgorde van de matrices:

A + B = B + A {\displaystyle A+B=B+A} [14]

Transpositie van een matrix is compatibel met optelling en scalaire vermenigvuldiging:

( A + B ) = A + B {\displaystyle (A+B)^{\top }=A^{\top }+B^{\top }}

en

( c A ) = c A {\displaystyle (cA)^{\top }=c\cdot A^{\top }}

Toepassing van matrixoperaties

Leveringen jaar X
A producten
cement kalk gips
klanten Bik 14 9 3
Mets 2 11 15
Timp 0 12 17
Voeg 5 2 3

Een bedrijf levert cement, kalk, gips in zakken van 25, 10 en 5 kg. Het bedrijf heeft 4 klanten: Bik, Mets, Timp en Voeg. De door deze klanten in een bepaald jaar afgenomen aantallen zakken laten zich overzichtelijk in een 4×3-matrix A {\displaystyle A} ordenen:

A = [ 14 9 3 2 11 15 0 12 17 5 2 3 ] {\displaystyle A={\begin{bmatrix}14&9&3\\2&11&15\\0&12&17\\5&2&3\end{bmatrix}}}
Leveringen jaar X+1
B producten
cement kalk gips
klanten Bik 17 10 4
Mets 3 7 8
Timp 0 14 15
Voeg 4 3 3

Daaruit blijkt bijvoorbeeld dat A 32 = 12 {\displaystyle A_{32}=12} , dus Timp heeft dat jaar 12 zakken kalk van 10 kg afgenomen.

De afgenomen aantallen van het volgende jaar staan in de matrix B {\displaystyle B} :

B = [ 17 10 4 3 7 8 0 14 15 4 3 3 ] {\displaystyle B={\begin{bmatrix}17&10&4\\3&7&8\\0&14&15\\4&3&3\end{bmatrix}}}

In dit jaar heeft Timp 14 zakken kalk van 10 kg gekocht.

Om te bepalen wat voor elke klant de totale afname van elk product is in deze twee jaren, moeten we de matrices elementsgewijs optellen. De zo ontstane matrix heet de som A+B van de beide matrices:

A + B = [ 31 19 7 5 18 23 0 26 32 9 5 6 ] {\displaystyle A+B={\begin{bmatrix}31&19&7\\5&18&23\\0&26&32\\9&5&6\end{bmatrix}}}
Bouwmaterialen
W prijzen en
gewichten
kg
producten cement 12,00 25
kalk 9,00 10
gips 8,00 5

De prijs van een zak cement is €12, van een zak kalk €9 en van een zak gips €8. In de 3×2-matrix W {\displaystyle W} staan de prijzen en gewichten van de drie producten:

W = [ 12 25 9 10 8 5 ] {\displaystyle W={\begin{bmatrix}12&25\\9&10\\8&5\end{bmatrix}}}

Het totale bedrag dat Bik in het eerste jaar heeft besteed, volgt uit:

14 × 12 + 9 × 9 + 3 × 8 {\displaystyle 14\times 12+9\times 9+3\times 8} ,

waarin de getallen van de eerste rij van A (Bik) en de eerste kolom van W (prijzen) te zien zijn.

Het totale gewicht van de door Bik gekochte producten wordt op soortgelijke manier berekenend:

14 × 25 + 9 × 10 + 3 × 5 {\displaystyle 14\times 25+9\times 10+3\times 5} ,

waarin nu de getallen van de eerste rij van A (Bik) en de tweede kolom van W (gewichten) staan.

Ook voor de andere klanten kunnen zulke berekeningen gemaakt worden. Samen heten ze matrixvermenigvuldiging en geven ze een matrix die het product A W {\displaystyle AW} van A {\displaystyle A} en W {\displaystyle W} heet:

A W = [ 14 9 3 2 11 15 0 12 17 5 2 3 ] [ 12 25 9 10 8 5 ] = [ 273 455 243 235 244 205 102 160 ] {\displaystyle AW={\begin{bmatrix}14&9&3\\2&11&15\\0&12&17\\5&2&3\end{bmatrix}}{\begin{bmatrix}12&25\\9&10\\8&5\end{bmatrix}}={\begin{bmatrix}273&455\\243&235\\244&205\\102&160\end{bmatrix}}}

Lineaire vergelijkingen en transformaties

Lineaire vergelijkingen

Zie Lineaire vergelijking en Stelsel van lineaire vergelijkingen voor de hoofdartikelen over dit onderwerp.

Een bijzonder geval van matrixvermenigvuldiging is nauw verbonden met lineaire vergelijkingen: als x {\displaystyle x} een kolomvector (dat wil zeggen een n × 1 {\displaystyle n\times 1} -matrix) van n {\displaystyle n} variabelen x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} voorstelt en A {\displaystyle A} een m × n {\displaystyle m\times n} -matrix is, dan is de matrixvergelijking

A x = b {\displaystyle Ax=b}

waarin b {\displaystyle b} een willekeurige m × 1 {\displaystyle m\times 1} -kolomvector is, equivalent aan het stelsel lineaire vergelijkingen

a 11 x 1 + a 12 x 2 + + a 1 n x n = b 1 {\displaystyle a_{11}x_{1}+a_{12}x_{2}+\ldots +a_{1n}x_{n}=b_{1}}
a 21 x 1 + a 22 x 2 + + a 2 n x n = b 2 {\displaystyle a_{21}x_{1}+a_{22}x_{2}+\ldots +a_{2n}x_{n}=b_{2}}
{\displaystyle \ldots }
a m 1 x 1 + a m 2 x 2 + + a m n x n = b m {\displaystyle a_{m1}x_{1}+a_{m2}x_{2}+\ldots +a_{mn}x_{n}=b_{m}} [15]

Op deze manier kunnen matrices worden gebruikt om stelsels van lineaire vergelijkingen op een compacte wijze te noteren, te manipuleren en op te lossen.

Lineaire afbeeldingen

Matrices en matrixvermenigvuldiging zijn direct gerelateerd aan lineaire afbeeldingen en samenstellingen daarvan. Bij gebruik van kolomvectoren representeert een reële m × n {\displaystyle m\times n} -matrix A {\displaystyle A} een lineaire afbeelding

f : R n R m ; x A x {\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {R} ^{m};x\mapsto Ax}

die elke vector x R n {\displaystyle x\in \mathbb {R} ^{n}} afbeeldt op het (matrix)product A x {\displaystyle Ax} , een vector in R m {\displaystyle \mathbb {R} ^{m}} .

Omgekeerd bepaalt de lineaire afbeelding f : R n R m {\displaystyle f\colon \mathbb {R} ^{n}\to R^{m}} de m × n {\displaystyle m\times n} -matrix A {\displaystyle A} met als i {\displaystyle i} -de kolom, opgevat als vector, het beeld f ( e i ) {\displaystyle f(e_{i})} van de i {\displaystyle i} -de eenheidsvector e i {\displaystyle e_{i}} . Dit kan worden genoteerd als:

A = ( f ( e 1 ) , , f ( e n ) ) {\displaystyle A=(f(e_{1}),\ldots ,f(e_{n}))}

De matrix A {\displaystyle A} bepaalt op zijn beurt weer de afbeelding f {\displaystyle f} , immers:

f ( x ) = f ( x 1 e 1 + + x n e n ) = x 1 f ( e 1 ) + + x n f ( e n ) = A x {\displaystyle f(x)=f(x_{1}e_{1}+\ldots +x_{n}e_{n})=x_{1}f(e_{1})+\ldots +x_{n}f(e_{n})=Ax}

Van de matrix A {\displaystyle A} zegt men dat hij de lineaire afbeelding f {\displaystyle f} representeert. A {\displaystyle A} noemt men de matrix van f {\displaystyle f} .

De onderstaande tabel toont een aantal reële 2×2-matrices met de bijbehorende lineaire transformaties van R 2 {\displaystyle \mathbb {R} ^{2}} . Het blauwe origineel wordt afgebeeld op het groene rooster en de groene vormen, de oorsprong (0,0) wordt gemarkeerd met een zwart punt.

Horizontale afschuiving met m=1.25. Horizontale spiegeling Samendrukking met r = 3 / 2 {\displaystyle r=3/2} Opschalen met een factor 3/2 Draaiing over π/6 = 30°
[ 1 1 , 25 0 1 ] {\displaystyle {\begin{bmatrix}1&1,25\\0&1\end{bmatrix}}} [ 1 0 0 1 ] {\displaystyle {\begin{bmatrix}-1&0\\0&1\end{bmatrix}}} [ 3 / 2 0 0 2 / 3 ] {\displaystyle {\begin{bmatrix}3/2&0\\0&2/3\end{bmatrix}}} [ 3 / 2 0 0 3 / 2 ] {\displaystyle {\begin{bmatrix}3/2&0\\0&3/2\end{bmatrix}}} [ cos ( π / 6 ) sin ( π / 6 ) sin ( π / 6 ) cos ( π / 6 ) ] {\displaystyle {\begin{bmatrix}\cos(\pi /6)&-\sin(\pi /6)\\\sin(\pi /6)&\cos(\pi /6)\end{bmatrix}}}

In de relatie tussen matrices en lineaire afbeeldingen correspondeert matrixvermenigvuldiging met samenstelling van afbeeldingen.[16] Als de m × n {\displaystyle m\times n} -matrix A {\displaystyle A} behoort bij de lineaire afbeelding f : R n R m {\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {R} ^{m}} en de k × m {\displaystyle k\times m} -matrix B {\displaystyle B} bij de lineaire afbeelding g : R m R k {\displaystyle g\colon \mathbb {R} ^{m}\to \mathbb {R} ^{k}} , dan behoort bij de samenstelling g f {\displaystyle g\circ f} het product B A {\displaystyle BA} van de matrices A {\displaystyle A} en B {\displaystyle B} . Immers:

( g f ) ( x ) = g ( f ( x ) ) = g ( A x ) = B ( A x ) = ( B A ) x {\displaystyle (g\circ f)(x)=g(f(x))=g(Ax)=B(Ax)=(BA)x}

De laatste gelijkheid volgt uit de hierboven genoemde associativiteit van de matrixvermenigvuldiging.

Vierkante matrices

Zie vierkante matrix voor het hoofdartikel over dit onderwerp.

Een speciaal type matrix is de vierkante matrix, een matrix met evenveel rijen als kolommen. Als het aantal rijen en kolommen n {\displaystyle n} is, wordt de n × n {\displaystyle n\times n} -matrix een vierkante matrix van de orde n {\displaystyle n} genoemd. Een vierkante matrix van de orde n {\displaystyle n} representeert een transformatie van een n {\displaystyle n} -dimensionale ruimte, reden waarom vierkante matrices een belangrijke rol spelen in de lineaire algebra.

Voor vierkante matrices zijn de begrippen hoofddiagonaal, spoor en determinant gedefinieerd.

Hoofddiagonaal

Zie hoofddiagonaal voor het hoofdartikel over dit onderwerp.

De elementen a i i {\displaystyle a_{ii}} van de vierkante matrix A = ( a i j ) {\displaystyle A=(a_{ij})} vormen de hoofddiagonaal van A {\displaystyle A} .

In relatie met de hoofddiagonaal worden speciale type vierkante matrices onderscheiden.

Diagonaalmatrix, driehoeksmatrices

Als alle elementen buiten de hoofddiagonaal van de vierkante matrix A {\displaystyle A} gelijk aan nul zijn, wordt A {\displaystyle A} een diagonaalmatrix genoemd. Als alleen alle elementen boven (onder) de hoofddiagonaal nul zijn, wordt A {\displaystyle A} een beneden- respectievelijk een bovendriehoeksmatrix genoemd.

Als n {\displaystyle n} bijvoorbeeld gelijk is aan 3, zien deze matrices er als volgt uit

[ d 11 0 0 0 d 22 0 0 0 d 33 ] {\displaystyle {\begin{bmatrix}d_{11}&0&0\\0&d_{22}&0\\0&0&d_{33}\\\end{bmatrix}}} (diagonaal), [ l 11 0 0 l 21 l 22 0 l 31 l 32 l 33 ] {\displaystyle {\begin{bmatrix}l_{11}&0&0\\l_{21}&l_{22}&0\\l_{31}&l_{32}&l_{33}\\\end{bmatrix}}} (beneden-) en [ u 11 u 12 u 13 0 u 22 u 23 0 0 u 33 ] {\displaystyle {\begin{bmatrix}u_{11}&u_{12}&u_{13}\\0&u_{22}&u_{23}\\0&0&u_{33}\\\end{bmatrix}}} (bovendriehoeksmatrix).

Spoor

Zie Spoor (lineaire algebra) voor het hoofdartikel over dit onderwerp.

Het spoor van een vierkante matrix A {\displaystyle A} , genoteerd als s p ( A ) {\displaystyle \mathrm {sp} (A)} , is de som van haar diagonaalelementen. Terwijl, zoals boven vermeld, matrixvermenigvuldiging niet commutatief is, is het spoor van het product van twee matrices onafhankelijk van de volgorde van de factoren: s p ( A B ) = s p ( B A ) {\displaystyle \mathrm {sp} (AB)=\mathrm {sp} (BA)} .[17]

Determinant

Zie Determinant voor het hoofdartikel over dit onderwerp.

De determinant det ( A ) {\displaystyle \det(A)} , of | A | {\displaystyle |A|} , van een vierkante matrix A {\displaystyle A} is een functie van de elementen van die matrix. Bepaalde eigenschappen van de matrix kunnen afgelezen worden aan de determinant. Zo is een matrix dan en slechts dan inverteerbaar als zijn determinant ongelijk is aan nul, en is de absolute waarde van de determinant gelijk aan de oppervlakte (in de R 2 {\displaystyle \mathbb {R} ^{2}} ) of het volume (in de R 3 {\displaystyle \mathbb {R} ^{3}} ) van het beeld van het eenheidsvierkant (of de eenheidskubus), terwijl het teken correspondeert met de oriëntatie van de corresponderende lineaire afbeelding: de determinant is dan en slechts dan positief als de oriëntatie behouden blijft.

Eigenwaarden en eigenvectoren

Zie Eigenwaarde (wiskunde) voor het hoofdartikel over dit onderwerp.

Een vierkante matrix correspondeert met een lineaire transformatie van een vectorruimte. Een lijn door de oorsprong wordt soms door deze transformatie afgebeeld op zichzelf. Wel is het beeld van een punt op de lijn meestal niet het punt zelf, maar een ander punt. De vectoren op de lijn, die op zichzelf wordt afgebeeld, heten eigenvectoren van de matrix, en van de transformatie, en het getal dat het veelvoud bepaalt, heet de eigenwaarde. Om precies te zijn: een getal λ en een vector v 0 {\displaystyle v\neq 0} worden eigenwaarde en eigenvector van de vierkante matrix A {\displaystyle A} genoemd.[nb 1][18] als geldt:

A v = λ v {\displaystyle Av=\lambda v}

Deze relatie kan ook worden geschreven als:

( A λ I ) v = 0 {\displaystyle (A-\lambda \mathrm {I} )v=0} ,

wat betekent dat voor een eigenwaarde λ geldt:

det ( A λ I ) = 0 {\displaystyle \det(A-\lambda \mathrm {I} )=0}

De eigenwaarden zijn dus de wortels van het polynoom

f A ( λ ) = det ( A λ I ) {\displaystyle f_{A}(\lambda )=\det(A-\lambda \mathrm {I} )} ,

die het karakteristieke polynoom van A {\displaystyle A} wordt genoemd.

Symmetrie

Zie Symmetrische matrix voor het hoofdartikel over dit onderwerp.

Een vierkante matrix A {\displaystyle A} , die gelijk is aan haar getransponeerde matrix, wat wil zeggen dat

A = A {\displaystyle A=A^{\top }} ,

is een symmetrische matrix.

Als zij gelijk is aan het negatieve van haar getransponeerde, wat wil zeggen dat

A = A {\displaystyle A=-A^{\top }} ,

is het een scheefsymmetrische matrix.

Bij complexe matrices wordt het begrip symmetrie vaak vervangen door het begrip Hermitische matrices, die voldoen aan

A = A {\displaystyle A=A^{*}} ,

waarin de ster de complex geadjugeerde van de matrix aangeeft, dat wil zeggen de getransponeerde van de complex geconjugeerde van A {\displaystyle A} .

Door de spectraalstelling hebben reële symmetrische matrices en complexe Hermitische matrices een basis van eigenvectoren. In beide gevallen zijn alle eigenwaarden reëel[19] Deze stelling kan voor matrices met oneindig veel rijen en kolommen worden veralgemeend naar oneindig dimensionale situaties. zie hieronder.

Definietheid

Zie definietheid voor het hoofdartikel over dit onderwerp.

Een reële symmetrische n × n {\displaystyle n\times n} -matrix A {\displaystyle A} wordt definiet genoemd, als de reële kwadratische vorm

Q A ( x ) = x A x {\displaystyle Q_{A}(x)=x^{\top }Ax}

die door de matrix wordt voortgebracht, voor elke vector x 0 {\displaystyle x\neq 0} hetzelfde teken heeft. Is dat teken positief, dan heet de vorm positief-definiet, is het negatief, dan negatief-definiet.[20]

Orthogonale matrix

Zie orthogonale matrix voor het hoofdartikel over dit onderwerp.

Een reële vierkante matrix A {\displaystyle A} heet orthogonaal, als de rijen en ook de kolommen een orthonormaal stelsel vormen. Dit houdt in dat:

A A T = I {\displaystyle AA^{\mathrm {T} }=\mathrm {I} } ,

waarin I {\displaystyle \mathrm {I} } de eenheidsmatrix is. Hieraan is te zien dat A {\displaystyle A} inverteerbaar is met inverse matrix

A 1 = A T {\displaystyle A^{-1}=A^{\mathrm {T} }} .

De determinant van een orthogonale matrix is +1 of −1. De waarde +1 hoort bij een matrix die een draaiing voorstelt en de waarde −1 bij een matrix die een draaispiegeling representeert. F"matr

Berekenbaarheid

Behalve de theoretische kennis van de eigenschappen van matrices en hun relaties tot andere deelgebieden van de wiskunde, is het om praktische doeleinden belangrijk om matrixberekeningen doeltreffend en nauwkeurig uit te voeren. Het domein binnen de wiskunde dat deze zaken bestudeert, wordt de numerieke lineaire algebra[21] genoemd. Zoals ook in andere numerieke onderzoeksgebieden zijn de twee belangrijkste aspecten de complexiteit van algoritmen en de numerieke stabiliteit. Veel problemen kunnen worden opgelost door zowel directe algoritmen als iteratieve benaderingen. Zo kunnen eigenvectoren worden berekend door het vinden van een rij vectoren ( x n ) {\displaystyle (x_{n})} die convergeert naar een eigenvector, als n {\displaystyle n} naar oneindig gaat.[22]

Matrixdecompositiemethoden

Zie Matrixdecompositie, Diagonaliseerbare matrix en Gauss-eliminatie voor de hoofdartikelen over dit onderwerp.

Er zijn verschillende methoden om matrices in een voor berekeningen meer toegankelijke vorm om te zetten. Aan deze methoden wordt in het algemeen gerefereerd als matrixtransformatie of matrixdecompositie technieken. Het belang van al deze decompositietechnieken is dat zij bepaalde eigenschappen van de matrices in kwestie bewaren, zoals de determinant, de rang of de inverse, zodat deze grootheden na toepassing van de transformatie kunnen worden berekend, of dat bepaalde matrixoperaties voor sommige typen van matrices algoritmisch gemakkelijker kunnen worden uitgevoerd.

Abstracte algebraïsche aspecten

Matrices kunnen op verschillende manieren worden veralgemeend. De abstracte algebra gebruikt matrices met elementen die niet uit getallen, maar uit de meer algemene lichamen (Ned) / velden (Be) of zelfs ringen bestaan, terwijl de lineaire algebra eigenschappen van matrices in de notie van lineaire afbeeldingen codificeert. Het is ook mogelijk om matrices met oneindig veel kolommen en rijen in beschouwing te nemen. Een andere uitbreiding vormen de zogenaamde tensoren, die als hoger-dimensionale arrays van getallen gezien kunnen worden, dit in tegenstelling tot vectoren, die vaak als rijen van getallen (eendimensionale vectoren) kunnen worden gerealiseerd, terwijl matrices rechthoekige of tweedimensionale arrays van getallen zijn.[23] Matrices kunnen onder bepaalde voorwaarden een groep vormen. Deze staan bekend als matrixgroepen.

Relaties met lineaire afbeeldingen

Lineaire afbeeldingen R n R m {\displaystyle \mathbb {R} ^{n}\to \mathbb {R} ^{m}} zijn equivalent aan m × n {\displaystyle m\times n} -matrices, zoals hierboven beschreven. Meer in het algemeen kan elke lineaire afbeelding f : V W {\displaystyle f\colon V\to W} tussen eindigdimensionale vectorruimten, na de keuze van de bases { v 1 , , v n } {\displaystyle \{v_{1},\ldots ,v_{n}\}} van V {\displaystyle V} , en { w 1 , , w m } {\displaystyle \{w_{1},\ldots ,w_{m}\}} van W {\displaystyle W} , worden beschreven door de matrix A = ( a i j ) {\displaystyle A=(a_{ij})} , die zodanig is dat

f ( v j ) = i = 1 m a i j w i voor  j = 1 , , n {\displaystyle f(v_{j})=\sum _{i=1}^{m}a_{ij}w_{i}\qquad {\mbox{voor }}j=1,\ldots ,n} .

Met andere woorden de j {\displaystyle j} -de kolom van A {\displaystyle A} drukt het beeld van de j {\displaystyle j} -de basisvector v j {\displaystyle v_{j}} uit in termen van de basisvectoren ( w i ) {\displaystyle (w_{i})} van W {\displaystyle W} . Deze relatie bepaalt dus op unieke wijze de elementen ( a i j ) {\displaystyle (a_{ij})} van de matrix A {\displaystyle A} . Merk op dat de matrix afhankelijk is van de keuze van de bases: verschillende keuzes van de bases geven aanleiding tot verschillende, maar wel equivalente matrices.[24] Veel van de bovengenoemde begrippen kunnen in dit licht worden geherinterpreteerd; de getransponeerde matrix A T {\displaystyle A^{T}} beschrijft bijvoorbeeld de getransponeerde van een lineaire afbeelding gegeven door A {\displaystyle A} , met betrekking tot de duale basissen.[25]

Domein van de elementen

Wanneer met matrices wordt gerekend, moet zijn bepaald uit welke verzameling de elementen in de matrix komen. Dat kunnen de reële R {\displaystyle \mathbb {R} } , de complexe C {\displaystyle \mathbb {C} } of de rationale getallen Q {\displaystyle \mathbb {Q} } zijn. Een eindig lichaam/veld kan ook worden gekozen, dat gebeurt in de coderingstheorie. Het lichaam waaruit de elementen worden gekozen, moet gesloten zijn.

Als het alleen nodig is twee matrices bij elkaar op te tellen of met elkaar te vermenigvuldigen, is het een voldoende eis dat de elementen uit een ring komen. Als van een vierkant matrix ook de inverse moet kunnen worden bepaald, moeten de matrices over een lichaam zijn gedefinieerd.

Matrixgroepen

Zie Matrixgroep voor het hoofdartikel over dit onderwerp.

Een groep is een wiskundige structuur die uit een verzameling van objecten bestaat samen met een binaire operatie, dat wil zeggen een operatie die elke twee objecten onder bepaalde eisen tot een derde combineert. Een groep waarin de objecten matrices zijn en de groepsoperatie matrixvermenigvuldiging, noemt men een matrixgroep.[nb 2][26] Aangezien in een groep elk element inverteerbaar is, zijn de meest algemene matrixgroepen de groepen van alle inverteerbare matrices van een bepaalde orde, de zogenaamde algemene lineaire groepen.

Elke eigenschap van matrices die onder matrixproducten en inverses wordt bewaard, kan worden gebruikt om verdere matrixgroepen te definiëren. Matrices met een bepaalde omvang en met een determinant 1 vormen bijvoorbeeld een deelgroep van hun algemene lineaire groep. Deze kleinere deelgroep van een algemene lineaire groep wordt een speciale lineaire groep[27] genoemd. Orthogonale matrices, bepaald door de voorwaarde

M M = I {\displaystyle M^{\top }M=I}

vormen de orthogonale groep.[28] Men noemt ze orthogonaal, aangezien de geassocieerde lineaire transformaties van R n {\displaystyle \mathbb {R} ^{n}} hoeken bewaren in de zin dat het scalair product van twee vectoren onveranderd blijft onder toepassing van M {\displaystyle M} op hen:

( M v ) ( M w ) = v w {\displaystyle (Mv)\cdot (Mw)=v\cdot w} .[29]

Elke eindige groep is isomorf met een matrixgroep, zoals men kan zien door de regelmatige voorstelling van de symmetrische groep[30] te beschouwen. Algemene groepen kunnen worden bestudeerd door gebruik te maken van matrixgroepen, die relatief goed worden begrepen door middel van de representatietheorie.[31]

Oneindige matrices

Het is ook mogelijk om matrices met oneindig veel rijen en/of kolommen te beschouwen[32] ook al kan men een oneindig aantal objecten, uit de aard van de zaak, niet expliciet als een matrix opschrijven. Het enige dat telt, is dat voor elk element uit de verzameling die de rijen indiceert, en elk element uit de verzameling die de kolommen indiceert, er een goed gedefinieerd element bestaat (de indexverzamelingen hoeven geen deelverzamelingen van de natuurlijke getallen te zijn). De belangrijkste operaties van optellen, aftrekken, scalaire vermenigvuldiging en transpositie kunnen probleemloos gedefinieerd worden, maar matrixvermenigvuldiging kan oneindige sommaties vereisen om de resulterende elementen te definiëren, en deze zijn in het algemeen niet gedefinieerd.

Als oneindige matrices worden gebruikt om lineaire afbeeldingen te beschrijven, kunnen alleen die matrices worden gebruikt waarvan alle kolommen een eindig aantal elementen ongelijk aan 0 hebben. Wil een matrix A {\displaystyle A} een lineaire afbeelding f : V W {\displaystyle f\colon V\to W} beschrijven, dan moeten er in beide ruimten een basis worden gekozen. Dit betekent dat elke vector in de ruimte uniek geschreven kan worden als een eindige lineaire combinatie van basisvectoren. Nu beschrijven de kolommen van A {\displaystyle A} de beelden onder f {\displaystyle f} ' van individuele basisvectoren van V {\displaystyle V} uitgedrukt in de basis van W , {\displaystyle W,} wat alleen zinvol is als deze kolommen slechts een eindig aantal elementen ongelijk aan 0 hebben. Er bestaat echter geen beperking op de rijen van A : {\displaystyle A:} in het product A v {\displaystyle Av} zijn er slechts een eindig aantal niet-nulzijnde coëfficiënten van v {\displaystyle v} betrokken, zodat elk van zijn elementen, zelfs als deze worden gegeven als een oneindige som van de producten, slechts eindig veel termen ongelijk aan 0 betreffen en daarom goed zijn gedefinieerd. Bovendien komt dit neer op de vorming van een lineaire combinatie van de kolommen van A {\displaystyle A} die effectief slechts een eindig aantal van hen betreft, vandaar dat het resultaat slechts een eindig aantal elementen ongelijk aan 0 heeft, omdat elk van deze kolommen slechts een eindig aantal elementen ongelijk aan 0 heeft. Men ziet ook dat producten van twee goedgedefinieerde matrices van het gegeven type weer van hetzelfde type zijn (op voorwaarde dat zoals gewoonlijk de kolom- en rij-indexverzamelingen overeenkomen) en overeenkomen met de samenstelling van lineaire afbeeldingen.

Oneindige matrices kunnen ook worden gebruikt om operatoren op Hilbert-ruimten te beschrijven. Hier komen convergentie- en continuïteitsvragen naar voren, die opnieuw resulteren in een aantal beperkingen, die moeten worden opgelegd.[nb 3] en in plaats daarvan worden de abstracte en krachtiger instrumenten uit de functionaalanalyse gebruikt.

Lege matrix

Een lege matrix is een matrix, waarin het aantal rijen of het aantal kolommen (of beide) nul is.[33][34] Een lege matrix heeft geen elementen, maar heeft wel een duidelijk omschreven aantal rijen en kolommen, die nodig zijn voor bijvoorbeeld de definitie van het matrixproduct. Dus als A {\displaystyle A} een 3×0-matrix is en B {\displaystyle B} een 0×3-matrix, dan is A B {\displaystyle AB} de 3×3-matrix (die overeenkomt met de nulafbeelding van een driedimensionale ruimte V {\displaystyle V} op zichzelf die wordt verkregen als de samenstelling g f {\displaystyle g\circ f} van de unieke afbeelding f {\displaystyle f} van V {\displaystyle V} op een nuldimensionale ruimte Z , {\displaystyle Z,} gevolgd door de nulafbeelding g {\displaystyle g} van Z {\displaystyle Z} terug op V {\displaystyle V} ), terwijl B A {\displaystyle BA} de 0×0-matrix is (overeenkomend met de unieke afbeelding van Z {\displaystyle Z} op zichzelf die wordt verkregen als de samenstelling f g {\displaystyle f\circ g} ). Er is geen gemeenschappelijke notatie voor lege matrices, maar in de meeste computeralgebrasystemen kan men lege matrices definiëren en kan men ermee rekenen. Merk op dat de determinant van de 0×0-matrix 1 is (en niet 0, wat op het eerste gezicht meer voor de hand zou liggen): de Leibniz-formule geeft deze waarde als een som over de unieke permutatie van de lege verzameling, met een leeg product als de term; de Laplace-expansie voor een 1×1-matrix maakt duidelijk dat de waarde van de 0×0-minor als 1 moet worden genomen. Deze waarde is ook consistent met het feit dat de identiteitsafbeelding van enige eindigdimensionale ruimte op zichzelf determinant 1 heeft, een feit dat vaak gebruikt wordt als onderdeel van de karakterisering van determinanten.

Transformaties

Zie Lineaire transformatie voor het hoofdartikel over dit onderwerp.

Matrices worden veel gebruikt bij berekeningen voor bijvoorbeeld het draaien, schalen en transleren van vormen in 2 of 3 dimensies. Draaien en schalen zijn lineaire operaties en kunnen dus direct door een matrix voorgesteld worden. Aangezien een translatie een affiene afbeelding is, dus niet lineair, maakt men voor een translatie gebruik van een extra dimensie door de betrokken vectoren voor te stellen met homogene coördinaten. De vormen, die bestaan uit een verzameling punten, vectoren, worden getransformeerd.

Toepassingen

Er zijn talrijke toepassingen van matrices, zowel in de wiskunde als andere wetenschappen. Sommigen daarvan maken alleen gebruik van de compacte weergave van een verzameling getallen in een matrix. In de speltheorie en de economie codeert een matrix voor de uitbetaling voor twee spelers, afhankelijk van welke alternatieven deze spelers uit een gegeven (eindige) verzameling van alternatieven hebben gekozen.[35] Text mining en geautomatiseerde thesauruscompilatie maakt gebruik van documenttermenmatrices, zoals TF-IDF om de frequentie van bepaalde woorden in verschillende documenten bij te houden.[36]

Complexe getallen kunnen voorgesteld worden door een specifieke reële 2×2-matrix

a + i b [ a b b a ] {\displaystyle a+ib\leftrightarrow {\begin{bmatrix}a&-b\\b&a\end{bmatrix}}} ,

waarbij optelling en vermenigvuldig van complexe getallen en matrices met elkaar corresponderen. 2×2-rotatiematrices bijvoorbeeld representeren de vermenigvuldiging met een complex getal van absolute waarde 1, zoals hierboven beschreven. Een soortgelijke interpretatie is mogelijk voor quaternionen.[37]

Symmetrieën en transformaties in de natuurkunde

Zie Symmetrie (natuurkunde) voor het hoofdartikel over dit onderwerp.

Lineaire transformaties en de bijbehorende symmetrieën spelen een belangrijke rol in de moderne natuurkunde. Elementaire deeltjes in de kwantumveldentheorie worden bijvoorbeeld geclassificeerd als representaties van de Lorentz-groep van de speciale relativiteitstheorie, en meer specifiek door hun gedrag onder de spingroep. Concrete representaties, waarbij de Pauli-matrices en meer in het algemene gamma-matrices een integraal onderdeel van de natuurkundige beschrijving vormen van fermionen, die zich als spinoren[38] gedragen. Voor de drie lichtste quarks bestaat er een groepstheoretische representatie, waarbij de speciale unitaire groep SU(3); voor hun berekeningen, gebruiken natuurkundigen een handige matrixrepresentatie, die bekend als Gell-Mann-matrices, die ook voor de SU(3) ijkgroep wordt gebruikt en die de basis vormen van de moderne beschrijving van de sterke nucleaire interacties, kwantumchromodynamica. De Cabibbo-Kobayashi-Maskawa-matrix drukt op zijn beurt uit dat de fundamentele quarktoestanden, die belangrijk zijn voor zwakke interacties, niet hetzelfde zijn als, maar wel lineair gerelateerd zijn aan, de fundamentele quarktoestanden die deeltjes met specifieke en verschillende massa's definiëren.[39]

Lineaire combinaties van kwantumtoestanden

Het eerste model van de kwantummechanica ( Heisenberg, 1925) representeerde de operatoren van de theorie door oneindigdimensionale matrices die inwerkten op kwantumtoestanden.[40] Dit eerste model staat ook bekend als de matrixmechanica. Een bijzonder voorbeeld is de dichtheidsmatrix, die de "gemengde" toestand van een kwantumsysteem als een lineaire combinatie van elementaire, "zuivere" eigentoestanden karakteriseert.[41]

Een andere matrix dient als een belangrijk instrument voor het beschrijven van de verstrooiingsexperimenten, die de hoeksteen vormen van de experimentele deeltjesfysica: botsingreacties, zoals deze plaatsvinden in deeltjesversnellers, waar niet-interagerende deeltjes op elkaar af stormen en vervolgens in een kleine interactiezone op elkaar botsen, met als resultaat een verzameling van niet-interagerende deeltjes, kunnen worden omschreven als het scalair product van uitgaande deeltjestoestanden en een lineaire combinatie van inkomende deeltjestoestanden. De lineaire combinatie wordt gegeven door een matrix, die bekendstaat als de S-matrix. Deze S-matrix codeert voor alle informatie over de mogelijke interacties tussen deeltjes.[42]

Meetkundige optica

De meetkundige optica kent ook matrixtoepassingen. In deze benaderingswijze wordt het golfkarakter van het licht buiten beschouwing gelaten. Het resultaat is een model waarin lichtstralen inderdaad meetkundige stralen zijn. Als de lichtstralen kleine hoeken maken met de optische as (de zgn. paraxiale benadering), kan men voor dunne lenzen volstaan met de eenvoudige lenzenformule. Is de lens dikker, of heeft men een lenzenstelsel, dan kan de werking van een brekend of reflecterend oppervlak op een gegeven lichtstraal worden beschreven met een vermenigvuldiging van een tweedimensionale vector met een 2×2-matrix: de componenten van de vector zijn de hellingshoek van de lichtstraal en de afstand tot de optische as, terwijl de matrix de breking of reflectie beschrijft. Deze matrix wordt de brekingsmatrix genoemd (reflectie is een bijzonder geval van breking, met brekingsindex = −1). Daarnaast gebruikt men een translatiematrix voor de verplaatsing van het referentievlak naar een volgend brekend of refecterend oppervlak, dat weer zijn eigen brekingsmatrix heeft. Het optische systeem, dat uit een combinatie van lenzen en/of reflecterende elementen bestaat, wordt nu simpelweg gekarakteriseerd door de productmatrix van de achtereenvolgende brekings- en translatiematrices.[43][44]

Elektronica: vierpoolmodel

In de analyse van lineaire elektrische en elektronische netwerken wordt het gedrag van veel elektronische componenten beschreven met het vierpoolmodel, of ook het tweepoortmodel genoemd. Daarin worden de ingangsspanning en -stroom als een kolomvector I = ( v 1 , i 1 ) {\displaystyle I=(v_{1},i_{1})} beschouwd, en de uitgangsspanning en -stroom als een kolomvector U = ( v 2 , i 2 ) {\displaystyle U=(v_{2},i_{2})} . Dit levert een matrixvergelijking U = H I {\displaystyle U=HI} , waarin H {\displaystyle H} een 2×2-matrix is met één impedantie-element H 12 {\displaystyle H_{12}} , één admittantie-element H 21 {\displaystyle H_{21}} en twee dimensieloze elementen H 11 {\displaystyle H_{11}} en H 22 {\displaystyle H_{22}} . Het doorrekenen van schakelingen komt dan neer op het vermenigvuldigen van matrices.[45]

Berekenen van het aantal n-stapswegen

Een veelvoorkomend wiskundig vraagstuk is het berekenen op hoeveel manieren men van punt A naar punt D kan gaan, waarbij n {\displaystyle n} opeenvolgende verbindingen worden gebruikt. Hierbij wordt vertrokken van een vierkante matrix waarin per rij, per kolom het aantal directe verbindingen opgegeven is.

Bij de figuur hoort W = [ 0 2 2 0 0 0 2 0 0 0 0 0 1 0 0 1 1 0 0 1 1 0 0 1 0 0 1 1 0 1 0 0 0 1 1 0 ] {\displaystyle W={\begin{bmatrix}0&2&2&0&0&0\\2&0&0&0&0&0\\1&0&0&1&1&0\\0&1&1&0&0&1\\0&0&1&1&0&1\\0&0&0&1&1&0\end{bmatrix}}}

Door de matrix hierna tot de macht n {\displaystyle n} te verheffen, komen we op een nieuwe matrix uit die het aantal manieren voorstelt waarop men via n {\displaystyle n} opvolgende verbindingen van punt A naar punt D kan gaan. Ook n {\displaystyle n} -stapswegen tussen andere punten kunnen hieruit afgelezen worden.

Voorbeeld: op hoeveel manieren kan men van A naar D gaan in 5 stappen?

Z = W 5 = [ 6 108 128 24 4 40 88 4 4 40 40 4 84 14 16 46 44 10 6 66 80 18 4 28 32 40 50 28 18 22 40 12 14 26 24 8 ] {\displaystyle Z=W^{5}={\begin{bmatrix}6&108&128&24&4&40\\88&4&4&40&40&4\\84&14&16&46&44&10\\6&66&80&18&4&28\\32&40&50&28&18&22\\40&12&14&26&24&8\end{bmatrix}}}

Conclusie: om in 5 stappen van A naar D te gaan, zijn er 24 mogelijkheden (zie element z 14 {\displaystyle z_{14}} ).

Om in 5 stappen van B naar C te gaan, zijn er 4 mogelijkheden (zie element z 23 {\displaystyle z_{23}} ).

Typen matrices

Men onderscheidt de volgende typen matrices:

Op basis van de vorm

  • vierkante matrix: matrix met evenveel rijen als kolommen
  • diagonaalmatrix: vierkante matrix waarvan de elementen buiten de hoofddiagonaal 0 zijn
  • eenheidsmatrix: diagonaalmatrix met alle elementen op de hoofdiagonaal gelijk aan 1
  • benedendriehoeksmatrix: vierkante matrix waarvan alle elementen boven de hoofddiagonaal 0 zijn
  • bovendriehoeksmatrix: vierkante matrix waarvan alle elementen onder de hoofddiagonaal 0 zijn
  • hessenbergmatrix: vierkante matrix waarvan alle elementen onder de eerste benedendiagonaal of alle elementen boven de eerste bovendiagonaal 0 zijn
  • tridiagonale matrix: vierkante matrix waarvan alle elementen onder de eerste benedendiagonaal en alle elementen boven de eerste bovendiagonaal 0 zijn

Op basis van de opvulling van de elementen

Op basis van eigenschappen

websites
  • D Klingens. Matrices.
voetnoten
  1. 'Eigen' betekent zowel in het Nederlands als in het Duits eigen.
  2. Men vereist verder nog dat de groep gesloten is in de algemene lineaire groep.
  3. "Niet veel van de matrixtheorie is overdraagbaar naar oneindigdimensionale ruimten, en dat deel, waar dit wel voor geldt, is niet zo nuttig, maar helpt soms een beetje." Halmos, 1982 pag. 23, hoofdstuk 5
meer voetnoten
  1. Shen, Crossley, Lun, 1999 geciteerd door Bretscher, 2005 pag.
  2. Cayley, 1889, vol. II, blz. 475-496))
  3. Dieudonne,1978, Vol. 1, Ch. III, blz. 96
  4. Merriam-Webster woordenboek. Gearchiveerd op 10 mei 2023.
  5. Knobloch, 1994
  6. Hawkins, 1975
  7. Kronecker, Hensel, 1897
  8. Weierstrass, 1915, vol 3, blz. 271-286
  9. Bocher
  10. Mehra, Rechenberg, 1987
  11. Alfred North Whitehead en Bertrand Russell (1913) Principia Mathematica to * 56, Cambridge at the University Press, Cambridge UK (heruitgegeven 1962) zie pagina 162ff.
  12. Tarski, Alfred, 1946 Introduction to Logic and the Methodology of Deductive Sciences (Inleiding in de logica en de methodologie van de deductieve wetenschappen, Dover Publications, Inc, New York NY, ISBN 0-486-28462-X.
  13. Dit is in anders dan in herhaald cartesisch product, waar een 1-tupel wordt geïdentificeerd met de enige component waaruit het bestaat.
  14. Brown, 1991, Stelling I.2.6.
  15. Brown, 1991, I.2.21 en 22
  16. Greub, 1975, deel III.2
  17. Dit volgt onmiddellijk uit de definitie van matrixvermenigvuldiging.
    s p ( A B ) = i = 1 m j = 1 n A i j B j i = s p ( B A ) {\displaystyle \mathrm {sp} (AB)=\sum _{i=1}^{m}\sum _{j=1}^{n}A_{ij}B_{ji}=\mathrm {sp} (BA)}
  18. Brown, 1991, Definitie III.4.1.
  19. Horn, Johnson, 1985, Stelling 2.5.6.
  20. Horn, Johnson, 1985, Hoofdstuk 7.
  21. Bau III, Trefethen, 1997.
  22. Householder, 1975, Ch. 7.
  23. Coburn, 1955, Ch. V.
  24. Greub, 1975, deel III.3.
  25. Greub, 1975, Sectie III.3.13.
  26. Baker, 2003, Def. 1,30
  27. Baker, 2003, Stelling 1.2
  28. Artin, 1991, hoofdstuk 4.5.
  29. Artin, 1991, Stelling 4.5.13.
  30. Rowen, 2008, Voorbeeld 19.2, pag. 198.
  31. Zie elke verwijzing in de representatietheorie of groepsrepresentatie.
  32. Zie het item "Matrix" in Itõ, 1987.
  33. "Lege matrix: een matrix is leeg, indien haar rij- of haar kolomdimensie nul is", Glossarium, O-Matrix v6 User Guide
  34. "Een matrix met ten minste één dimensie gelijk aan nul, wordt een lege matrix genoemd", MATLAB Data Structures
  35. Fudenberg, Tirole, 1983, punt 1.1.1
  36. Manning, 1999, Sectie 15.3.4.
  37. Ward, 1997, Ch.2.8.
  38. Zuber, 1980, Ch. 2
  39. Burgess, Moore, 2007, sectie 1.6.3. (SU (3)), paragraaf 2.4.3.2. (Kobayashi-Maskawa-matrix.
  40. Schiff, 1968, Ch 6
  41. Bohm, 2001, secties II.4 en II.8.
  42. Weinberg, 1995, Ch 3
  43. Guenther, 1990, Ch. 5.
  44. Van Heel, A.C.S.: Inleiding in de optica, Den Haag, 1964, pag. 192 e.v.
  45. Davidse, J.: Grondslagen van de eletronica, Utrecht, 1974; deel 1, pag. 207 e.v.
Wikibooks
Wikibooks heeft meer over dit onderwerp: Matrixrekening.