Układ równań liniowych

Wikipedia:Weryfikowalność
Ten artykuł od 2016-10 wymaga zweryfikowania podanych informacji.
Należy podać wiarygodne źródła w formie przypisów bibliograficznych.
Część lub nawet wszystkie informacje w artykule mogą być nieprawdziwe. Jako pozbawione źródeł mogą zostać zakwestionowane i usunięte.
Sprawdź w źródłach: Encyklopedia PWN • Google Books • Google Scholar • Federacja Bibliotek Cyfrowych • BazHum • BazTech • RCIN • Internet Archive (texts / inlibrary)
Dokładniejsze informacje o tym, co należy poprawić, być może znajdują się w dyskusji tego artykułu.
Po wyeliminowaniu niedoskonałości należy usunąć szablon {{Dopracować}} z tego artykułu.

Układ równań liniowych – koniunkcja pewnej liczby (być może nieskończonej[1]) równań liniowych, czyli równań pierwszego rzędu.

Teoria układów równań liniowych jest działem algebry liniowej leżącej u podstaw nowoczesnej matematyki. Algorytmami obliczeniowymi zajmuje się dział nazywany numeryczna algebra liniowa, same zaś metody odgrywają ważną rolę w inżynierii, fizyce, chemii, informatyce i ekonomii. Częstokroć aproksymuje (przybliża) się bardziej skomplikowane układy równań nieliniowych (opisujące modele matematyczne czy symulacje komputerowe) dużo prostszymi układami równań liniowych (tzw. linearyzacja).

Układy równań liniowych rozpatruje się najczęściej nad ciałami (np. liczbami wymiernymi, rzeczywistymi czy zespolonymi); choć ma to sens już w przypadku pierścieni (np. liczb całkowitych), to rozwiązywanie takich układów nastręcza znacznie więcej trudności (w szczególności oznacza to badanie modułów zamiast przestrzeni liniowych, zob. uogólnienia). W dalszej części przyjmuje się, że wszystkie współczynniki należą do ustalonego ciała.

Motywacje

W geometrii euklidesowej można rozpatrywać miejsca geometryczne wyznaczone przez dane dwie proste na płaszczyźnie – mogą one wyznaczać prostą, punkt lub nie wyznaczać żadnego miejsca geometrycznego; odpowiada im odpowiednio nieskończony zbiór elementów, zbiór złożony z pojedynczego elementu lub zbiór pusty. Wprowadzenie na płaszczyźnie układu współrzędnych umożliwia algebraizację tego zadania: proste zadane są za pomocą równań liniowych, zaś miejsce geometryczne wyznaczone przez te proste odpowiada zbiorowi elementów spełniających wszystkie równania jednocześnie (pełną interpretację geometryczną można znaleźć w sekcji Uogólnienia).

Rozwiązaniem układu równań x y = 1 {\displaystyle x-y=-1} oraz 3 x + y = 9 {\displaystyle 3x+y=9} jest para uporządkowana ( 2 ,   3 ) , {\displaystyle (2,\ 3),} gdyż podstawienie do równań poprzednika tej pary za x {\displaystyle x} i jej następnika za y {\displaystyle y} da dwie tożsamości

Jeśli w układzie współrzędnych kartezjańskich proste l 1 ,   l 2 {\displaystyle l_{1},\ l_{2}} zadane są równaniami

l 1 :   x y = 1 {\displaystyle l_{1}\colon \ x-y=-1}

oraz

l 2 :   3 x + y = 9 , {\displaystyle l_{2}\colon \ 3x+y=9,}

to ich jedyny punkt wspólny ( x 0 ,   y 0 ) {\displaystyle (x_{0},\ y_{0})} ma współrzędne ( 2 ,   3 ) , {\displaystyle (2,\ 3),} co łatwo sprawdzić wprost:

2 3 = 1 , {\displaystyle 2-3=-1,}
3 2 + 3 = 9. {\displaystyle 3\cdot 2+3=9.}

To, że jest to jedyny punkt, wynika z faktu, iż proste te nie są równoległe (argument formalny podano dalej). Zwyczajowo równania prostych l 1 , l 2 {\displaystyle l_{1},l_{2}} zapisuje się bezpośrednio jedno pod drugim i spina klamrą:

{ x y = 1 , 3 x + y = 9. {\displaystyle {\begin{cases}x-y=-1,\\3x+y=9.\end{cases}}}

nazywając je układem równań liniowych, zaś zbiór elementów spełniających każde równanie z osobna (odpowiadający punktom wspólnym prostych) – jego rozwiązaniami.

Postać i zapis

Niech U {\displaystyle \mathrm {U} } oznacza układ m {\displaystyle m} równań liniowych o n {\displaystyle n} niewiadomych, tzn. [2]

U : { a 11 x 1 + a 12 x 2 + + a 1 n x n = b 1 , a 21 x 1 + a 22 x 2 + + a 2 n x n = b 2 , a m 1 x 1 + a m 2 x 2 + + a m n x n = b m . . {\displaystyle \mathrm {U} \colon {\begin{cases}{\begin{matrix}a_{11}x_{1}&+&a_{12}x_{2}&+&\dots &+&a_{1n}x_{n}&=b_{1},\\a_{21}x_{1}&+&a_{22}x_{2}&+&\dots &+&a_{2n}x_{n}&=b_{2},\\\vdots &&\vdots &&\ddots &&\vdots &\vdots \\a_{m1}x_{1}&+&a_{m2}x_{2}&+&\dots &+&a_{mn}x_{n}&=b_{m}.\end{matrix}}\end{cases}}.}

Niech 1 i m {\displaystyle 1\leqslant i\leqslant m} oraz 1 j n . {\displaystyle 1\leqslant j\leqslant n.} Wielkości x j {\displaystyle x_{j}} nazywa się niewiadomymi (lub zmiennymi), liczby a i j {\displaystyle a_{ij}} nazywa się współczynnikami, zaś elementy b i {\displaystyle b_{i}} to wyrazy wolne. Układ nazywa się jednorodnym, jeżeli wyrazy wolne są równe zeru; inaczej mówiąc, wszystkie równania jednorodnego układu równań liniowych są jednorodne.

Układ U {\displaystyle \mathrm {U} } można zapisać jako równanie wektorowe

[ x 1 a 11 + + x n a 1 n ,   ,   x 1 a m 1 + + x n a m n ] = [ b 1 , , b m ] , {\displaystyle [x_{1}a_{11}+\ldots +x_{n}a_{1n},\ \dots ,\ x_{1}a_{m1}+\ldots +x_{n}a_{mn}]=[b_{1},\dots ,b_{m}],}

które można przedstawić w postaci

x 1 [ a 11 , , a m 1 ] + + x n [ a 1 n , , a m n ] = [ b 1 , , b m ] , {\displaystyle x_{1}[a_{11},\dots ,a_{m1}]+\ldots +x_{n}[a_{1n},\dots ,a_{mn}]=[b_{1},\dots ,b_{m}],}

dzięki czemu każda niewiadoma może być postrzegana jako współczynnik kombinacji liniowej wektorów a j = [ a 1 j , , a m j ] , {\displaystyle \mathbf {a} _{j}=[a_{1j},\dots ,a_{mj}],} tzn.

x 1 a 1 + x 2 a 2 + + x n a n = b , {\displaystyle x_{1}\mathbf {a} _{1}+x_{2}\mathbf {a} _{2}+\ldots +x_{n}\mathbf {a} _{n}=\mathbf {b} ,}

gdzie b = [ b 1 , b 2 , , b m ] {\displaystyle \mathbf {b} =[b_{1},b_{2},\dots ,b_{m}]} nazywa się w tym kontekście wektorem wyrazów wolnych, zaś x = [ x 1 , x 2 , , x n ] {\displaystyle \mathbf {x} =[x_{1},x_{2},\dots ,x_{n}]} to wektor zmiennych (zob. uogólnienia).

Korzystając z notacji macierzowej, układ U {\displaystyle \mathrm {U} } można przedstawić w postaci

[ a 11 x 1 + a 12 x 2 + + a 1 n x n a 21 x 1 + a 22 x 2 + + a 2 n x n a m 1 x 1 + a m 2 x 2 + + a m n x n ] = [ b 1 b 2 b m ] , {\displaystyle {\begin{bmatrix}a_{11}x_{1}&+&a_{12}x_{2}&+&\dots &+&a_{1n}x_{n}\\a_{21}x_{1}&+&a_{22}x_{2}&+&\dots &+&a_{2n}x_{n}\\\vdots &&\vdots &&\ddots &&\vdots \\a_{m1}x_{1}&+&a_{m2}x_{2}&+&\dots &+&a_{mn}x_{n}\end{bmatrix}}={\begin{bmatrix}b_{1}\\b_{2}\\\vdots \\b_{m}\end{bmatrix}},}

co, przy pomocy standardowego mnożenia macierzy, można zapisać w formie

[ a 11 a 12 a 1 n a 21 a 22 a 2 n a m 1 a m 2 a m n ] [ x 1 x 2 x n ] = [ b 1 b 2 b m ] . {\displaystyle {\begin{bmatrix}a_{11}&a_{12}&\dots &a_{1n}\\a_{21}&a_{22}&\dots &a_{2n}\\\vdots &\vdots &\ddots &\vdots \\a_{m1}&a_{m2}&\dots &a_{mn}\end{bmatrix}}{\begin{bmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{bmatrix}}={\begin{bmatrix}b_{1}\\b_{2}\\\vdots \\b_{m}\end{bmatrix}}.}
Układ równań liniowych o trzech zmiennych określa zbiór płaszczyzn – dowolny ich punkt przecięcia (o ile istnieje) jest rozwiązaniem układu

Innymi słowy dowolny układ U {\displaystyle \mathrm {U} } można traktować jak macierzowe równanie liniowe

A X = B , {\displaystyle \mathbf {AX} =\mathbf {B} ,}

gdzie A = [ a i j ] {\displaystyle \mathbf {A} =[a_{ij}]} jest macierzą typu m × n , {\displaystyle m\times n,} zaś X = [ x j ] {\displaystyle \mathbf {X} =[x_{j}]} oraz B = [ b i ] {\displaystyle \mathbf {B} =[b_{i}]} to macierze odpowiednio typów n × 1 {\displaystyle n\times 1} oraz m × 1. {\displaystyle m\times 1.} Macierz A {\displaystyle \mathbf {A} } nazywa się macierzą główną układu U . {\displaystyle \mathrm {U} .} Jeśli macierz układu jest kwadratowa, tzn. n = m , {\displaystyle n=m,} to sam układ również nazywa się czasem kwadratowym, jeśli jest ona prostokątna, czyli n m , {\displaystyle n\neq m,} to układ także nazywa się niekiedy prostokątnym.

Ponieważ macierz X {\displaystyle \mathbf {X} } w powyższym równaniu macierzowym zachowuje się przy operacjach elementarnych na wierszach (każde równanie jest kombinacją liniową elementów x j {\displaystyle x_{j}} ), to wygodne jest pominięcie go w zapisie i rozpatrywanie macierzy rozszerzonej bądź uzupełnionej układu U , {\displaystyle \mathrm {U} ,} złożonej z elementów macierzy A {\displaystyle \mathbf {A} } oraz B , {\displaystyle \mathbf {B} ,} w której wyrazy a i j {\displaystyle a_{ij}} oddziela się zwykle optycznie od wyrazów b i {\displaystyle b_{i}} pionową kreską:

[ a 11 a 12 a 1 n a 21 a 22 a 2 n a m 1 a m 2 a m n | b 1 b 2 b m ] . {\displaystyle \left[{\begin{matrix}a_{11}&a_{12}&\dots &a_{1n}\\a_{21}&a_{22}&\dots &a_{2n}\\\vdots &\vdots &\ddots &\vdots \\a_{m1}&a_{m2}&\dots &a_{mn}\end{matrix}}\right|\left.{\begin{matrix}b_{1}\\b_{2}\\\vdots \\b_{m}\end{matrix}}\right].}

Macierz A {\displaystyle \mathbf {A} } może być traktowana jako przypadek szczególny macierzy rozszerzonej, w której wyrazy b i {\displaystyle b_{i}} są równe zeru.

Dowolny układ U {\displaystyle \mathrm {U} } można zapisać w postaci

U : { a 11 x 1 + a 12 x 2 + + a 1 n x n b 1 = 0 , a 21 x 1 + a 22 x 2 + + a 2 n x n b 2 = 0 , a m 1 x 1 + a m 2 x 2 + + a m n x n b m = 0 ; , {\displaystyle \mathrm {U} '\colon {\begin{cases}{\begin{matrix}a_{11}x_{1}&+&a_{12}x_{2}&+&\dots &+&a_{1n}x_{n}&-&b_{1}&=0,\\a_{21}x_{1}&+&a_{22}x_{2}&+&\dots &+&a_{2n}x_{n}&-&b_{2}&=0,\\\vdots &&\vdots &&\ddots &&\vdots &&\vdots &\vdots \\a_{m1}x_{1}&+&a_{m2}x_{2}&+&\dots &+&a_{mn}x_{n}&-&b_{m}&=0;\end{matrix}}\end{cases}},}

co w zapisie macierzowym można ująć następująco:

[ a 11 a 12 a 1 n b 1 a 21 a 22 a 2 n b 2 a m 1 a m 2 a m n b m ] [ x 1 x n 1 ] = [ 0 0 ] . {\displaystyle {\begin{bmatrix}a_{11}&a_{12}&\dots &a_{1n}&b_{1}\\a_{21}&a_{22}&\dots &a_{2n}&b_{2}\\\vdots &\vdots &\ddots &\vdots &\vdots \\a_{m1}&a_{m2}&\dots &a_{mn}&b_{m}\end{bmatrix}}{\begin{bmatrix}x_{1}\\\vdots \\x_{n}\\-1\end{bmatrix}}={\begin{bmatrix}0\\\vdots \\\vdots \\0\end{bmatrix}}.}

W ten sposób układ U {\displaystyle \mathrm {U} } w postaci U {\displaystyle \mathrm {U} '} można zapisać jako

A X = Θ , {\displaystyle \mathbf {A} '\mathbf {X} '=\mathbf {\Theta } ,}

gdzie A {\displaystyle \mathbf {A} '} jest macierzą typu m × ( n + 1 ) , {\displaystyle m\times (n+1),} zaś X {\displaystyle \mathbf {X} '} jest macierzą typu ( n + 1 ) × 1 , {\displaystyle (n+1)\times 1,} a Θ {\displaystyle \mathbf {\Theta } } jest macierzą zerową typu m × 1. {\displaystyle m\times 1.} Macierz główna A {\displaystyle \mathbf {A} '} układu U {\displaystyle \mathrm {U} '} jest więc formalnie macierzą rozszerzoną układu U . {\displaystyle \mathrm {U} .} Oznacza to, że układ niejednorodny n {\displaystyle n} zmiennych można sprowadzić do układu jednorodnego n + 1 {\displaystyle n+1} zmiennych, przy czym jedna z nich jest ustalona (zob. uogólnienia).

Rozwiązania

Równania 3 x + 2 y = 6 {\displaystyle 3x+2y=6} oraz 3 x + 2 y = 12 {\displaystyle 3x+2y=12} tworzą układ sprzeczny

Rozwiązaniem U {\displaystyle \mathrm {U} } nazywa się dowolny ciąg liczb r i , {\displaystyle r_{i},} który po podstawieniu za x j {\displaystyle x_{j}} będzie spełniał każde z równań U . {\displaystyle \mathrm {U} .} Układ, który nie ma rozwiązań, nazywa się sprzecznym; jeżeli zbiór rozwiązań układu jest niepusty, to nazywa się go niesprzecznym. Układ niesprzeczny, który ma jedno i tylko jedno rozwiązanie, nazywa się oznaczonym; układy o więcej niż jednym rozwiązaniu nazywa się nieoznaczonymi – w przypadku układów liniowych nad ciałami nieskończonymi (takimi jak liczby wymierne, liczby rzeczywiste czy liczby zespolone) oznacza to, że układ ma nieskończenie wiele rozwiązań.

Wskazówkę co do ogólnej liczby rozwiązań układu daje już sama jego postać:

  • układ niedookreślony, który ma mniej równań niż niewiadomych, m < n , {\displaystyle m<n,} zwykle jest nieoznaczony;
  • układ nadokreślony mający więcej równań niż niewiadomych, m > n , {\displaystyle m>n,} zazwyczaj jest sprzeczny;
  • układ, który ma tyle równań co niewiadomych, m = n , {\displaystyle m=n,} często ma jedno rozwiązanie.

Przypadki te obrazują następujące wykresy dla układów równań liniowych dwóch zmiennych:

Jedno równanie Dwa równania Trzy równania

Operacje elementarne

 Osobny artykuł: operacje elementarne.

Podstawową metodą rozwiązywania układów równań jest przekształcanie danego układu w inny, który ma ten sam zbiór rozwiązań – układy takie nazywa się równoważnymi. Można wyróżnić trzy operacje elementarne na wierszach przekształcające dany układ w układ do niego równoważny:

  • dodanie do równania innego równania pomnożonego przez liczbę,
  • zamiana dwóch równań miejscami,
  • pomnożenie równania przez liczbę różną od zera.

Powszechnie stosowanymi metodami rozwiązywania układów równań liniowych za pomocą wspomnianych operacji elementarnych są:

  • metoda eliminacji Gaussa, w której układ przekształca się do równoważnego z nim układu równań z rosnącą liczbą zmiennych;
  • metoda eliminacji Gaussa-Jordana, w której układ przekształca się dalej (poprzez kolejne podstawienia równań z mniejszą liczbą zmiennych do tych z większą) do równoważnego z nim układu równań liniowych wiążących bezpośrednio każdą zmienną z pewną wartością.

Oba algorytmy opisano w przypadku, gdy układ jest oznaczony. Jeśli układ jest sprzeczny, to uzyskuje się (co najmniej jedno) równanie sprzeczne, które mówi o sprzeczności całego układu. Jeśli układ jest nieoznaczony, to niektóre zmienne przenosi się do prawych części równań i rozwiązanie podaje się w postaci wyrażania jednych zmiennych przez inne (zob. też następną podsekcję). Metody te w zapisie macierzowym odpowiadają (zwykle) najefektywniejszym metodom przekształcania macierzy głównej (w przypadku jednorodnym) lub rozszerzonej (w przypadku niejednorodnym) układu do wierszowo z nią równoważnej macierzy schodkowej w metodzie Gaussa i macierzy schodkowej zredukowanej w metodzie Gaussa-Jordana.

Opis ogólny i zależność

Równania x 2 y = 1 , {\displaystyle x-2y=-1,} 3 x + 5 y = 8 {\displaystyle 3x+5y=8} oraz 4 x + 3 y = 7 {\displaystyle 4x+3y=7} nie są liniowo niezależne

Jeżeli układ ma więcej niż jedno rozwiązanie, to można je scharakteryzować, podając tzw. rozwiązanie ogólne układu, będące w istocie układem równań w prostej postaci – w przypadku, jeśli układ ma jedno rozwiązanie, to rozwiązanie można odczytać wprost z rozwiązania ogólnego. Układ

R : { x j 1 = c 11 x 1 + c 12 x 2 + + c 1 n x n + d 1 , x j 2 = c 21 x 1 + c 22 x 2 + + c 2 n x n + d 2 , = x j k = c k 1 x 1 + c k 2 x 2 + + c k n x n + d k ; , {\displaystyle \mathrm {R} \colon {\begin{cases}{\begin{matrix}x_{j_{1}}=&c_{11}x_{1}&+&c_{12}x_{2}&+&\dots &+&c_{1n}x_{n}&+&d_{1},\\x_{j_{2}}=&c_{21}x_{1}&+&c_{22}x_{2}&+&\dots &+&c_{2n}x_{n}&+&d_{2},\\\;\vdots \;\;=&\vdots &&\vdots &&\ddots &&\vdots &&\vdots \\x_{j_{k}}=&c_{k1}x_{1}&+&c_{k2}x_{2}&+&\dots &+&c_{kn}x_{n}&+&d_{k};\end{matrix}}\end{cases}},}

gdzie j 1 < < j k , {\displaystyle j_{1}<\dots <j_{k},} a zmienne x j 1 , , x j k {\displaystyle x_{j_{1}},\dots ,x_{j_{k}}} nie występują po prawej stronie równań (tzn. c i j = 0 {\displaystyle c_{ij}=0} dla j = j 1 , , j k {\displaystyle j=j_{1},\dots ,j_{k}} ) zadaje rozwiązanie ogólne układu U {\displaystyle \mathrm {U} } (krótko: R {\displaystyle \mathrm {R} } jest rozwiązaniem ogólnym układu U {\displaystyle \mathrm {U} } ). Zmienne x j 1 , , x j k {\displaystyle x_{j_{1}},\dots ,x_{j_{k}}} nazywa się wtedy zależnymi, a pozostałe x j {\displaystyle x_{j}} nazywa się wówczas zmiennymi niezależnymi (albo parametrami).

Równania w układzie liniowym nazywa się niezależnymi, jeśli żadne z nich nie może być uzyskane z innych za pomocą operacji elementarnych. Innymi słowy każde z nich zawiera nową informację o zmiennych i usunięcie któregokolwiek z nich powiększa liczbę rozwiązań; w przypadku równań liniowych niezależność ta nazywana jest niezależnością liniową (zob. charakteryzacja).

Wzory Cramera

 Zobacz też: wzory Cramera.

Jeśli macierz główna układu jest kwadratowa (układ jest kwadratowy), to oznaczoność układu jest równoważna odwracalności jego macierzy głównej. Macierz jest odwracalna wtedy i tylko wtedy, gdy jest nieosobliwa, tzn. ma niezerowy wyznacznik. Wówczas, mnożąc z lewej strony (w ogólności mnożenie macierzy nie jest przemienne) równanie

A X = B {\displaystyle \mathbf {AX} =\mathbf {B} }

przez macierz A 1 , {\displaystyle \mathbf {A} ^{-1},} czyli A 1 A X = A 1 B , {\displaystyle \mathbf {A} ^{-1}\mathbf {AX} =\mathbf {A} ^{-1}\mathbf {B} ,} otrzymuje się rozwiązanie

X = A 1 B . {\displaystyle \mathbf {X} =\mathbf {A} ^{-1}\mathbf {B} .}

Macierz odwrotną do A {\displaystyle \mathbf {A} } można wyznaczyć w dowolny sposób, np. korzystając z operacji elementarnych bądź obliczając iloraz macierzy dołączonej A D {\displaystyle \mathbf {A} ^{\mathrm {D} }} przez wyznacznik macierzy A . {\displaystyle \mathbf {A} .} Pierwsza metoda odpowiada w istocie metodzie eliminacji Gaussa-Jordana, druga z kolei jest wnioskiem z twierdzenia Cramera:

X = A D B det A ; {\displaystyle \mathbf {X} ={\frac {\mathbf {A} ^{\mathrm {D} }\mathbf {B} }{\det \mathbf {A} }};}

wtedy też, na mocy rozwinięcia Laplace’a, wzory na elementy x j {\displaystyle x_{j}} powyższej macierzy, nazywane właśnie wzorami Cramera, dane są jako ilorazy wyznaczników macierzy A B ( j ) {\displaystyle \mathbf {A} _{\mathbf {B} }^{(j)}} przez wyznacznik macierzy głównej A {\displaystyle \mathbf {A} } układu A X = B , {\displaystyle \mathbf {AX} =\mathbf {B} ,}

x j = det A B ( j ) det A , {\displaystyle x_{j}={\frac {\det \mathbf {A} _{\mathbf {B} }^{(j)}}{\det \mathbf {A} }},}

gdzie A B ( j ) {\displaystyle \mathbf {A} _{\mathbf {B} }^{(j)}} oznacza macierz powstałą z A {\displaystyle \mathbf {A} } poprzez zamianę elementów j {\displaystyle j} -tej kolumny elementami macierzy wyrazów wolnych B , {\displaystyle \mathbf {B} ,} o ile tylko det A {\displaystyle \det \mathbf {A} } nie jest równy zeru.

Jak już wspomniano, układ jest oznaczony, gdy macierz główna jest odwracalna. Jeżeli wyznacznik macierzy głównej jest zerowy, to układ jest sprzeczny, gdy którykolwiek z wyznaczników det A B ( j ) {\displaystyle \det \mathbf {A} _{\mathbf {B} }^{(j)}} jest niezerowy. Twierdzenie odwrotne nie jest prawdziwe: jeśli wszystkie wyznaczniki są zerowe, to układ nie musi być nieoznaczony (wiadomo jedynie, że nie jest oznaczony, czyli może być tak sprzeczny, jak i nieoznaczony).

Stosowanie wzorów Cramera do rozwiązywania „konkretnych” układów wymaga z reguły więcej obliczeń niż stosowanie metody Gaussa, jednak metoda Cramera bywa dogodniejsza w rozważaniach teoretycznych.

Inne metody

Układy trzech czy nawet czterech zmiennych łatwo rozwiązać ręcznie (najlepiej metodą Gaussa); do większych stosuje się często komputery. Standardowe podejście opiera się na metodzie eliminacji Gaussa. Bardzo ważne jest unikanie dzielenia przez małe liczby, które może prowadzić do błędów zaokrągleń – można to osiągnąć poprzez zmianę kolejności równań (druga operacja elementarna). Ponadto w szczególnym przypadku, gdy dane układy mają tę samą macierz główną, lecz różne macierze rozszerzone (tzn. układy mają te same współczynniki, lecz różne wyrazy wolne), to pomocne okazuje się wyznaczenie rozkładu LU macierzy głównej.

Często możliwe jest wykorzystanie szczególnej postaci macierzy głównej układu do uzyskania szybszych bądź dokładniejszych algorytmów. Przykładowo układy z symetrycznymi i dodatnio określonymi macierzami głównymi mogą być rozwiązane dużo szybciej za pomocą rozkładu Cholesky’ego. Rekursja Levinsona jest z kolei szybką metodą rozwiązywania układów opisanych macierzą Toeplitza. Istnieją także specjalne metody dla macierzy z wieloma zerami (tzw. macierzy rzadkich), które pojawiają się często w zastosowaniach matematyki.

W zupełnie inny sposób podchodzi się do bardzo dużych układów, których rozwiązanie kosztowałoby zbyt dużo czasu lub pamięci. Idea polega na rozpoczęciu od wstępnego przybliżenia rozwiązania (które wcale nie musi być dokładne) i stopniowym jego poprawianiu. Jeśli jest ono wystarczająco dokładne, to właśnie ono przyjmowane jest jako rozwiązanie układu. Tego rodzaju podejście prowadzi do metod iteracyjnych.

Charakteryzacja

 Osobne artykuły: rząd i twierdzenie Kroneckera-Capellego.
Zbiór rozwiązań dwóch równań liniowych o trzech zmiennych zwykle tworzy prostą (przestrzeń jednowymiarową)

O niesprzeczności i liczbie rozwiązań układu m {\displaystyle m} równań liniowych o n {\displaystyle n} niewiadomych mówi twierdzenie Kroneckera-Capellego: ma on rozwiązanie wtedy i tylko wtedy, gdy rząd r {\displaystyle r} macierzy głównej tego układu jest równy rzędowi s {\displaystyle s} jego macierzy rozszerzonej. Układ jednorodny zawsze ma rozwiązanie trywialne, tzn. postaci ( 0 , , 0 ) ; {\displaystyle (0,\dots ,0);} jest to jedyne rozwiązanie oznaczonego układu jednorodnego. Układ niesprzeczny jest

  • oznaczony, tzn. ma jedno rozwiązanie, gdy rząd macierz głównej układu jest równy liczbie niewiadomych;
  • nieoznaczony, tzn. nieskończenie wiele rozwiązań, gdy rząd macierzy głównej układu jest mniejszy od liczby niewiadomych – zbiór rozwiązań zależy wtedy od n r {\displaystyle n-r} parametrów.

Z punktu widzenia geometrii analitycznej rozwiązania układu tworzą przestrzeń liniową (w przypadku jednorodnym) albo przestrzeń afiniczną (w przypadku niejednorodnym) wymiaru n r . {\displaystyle n-r.} W szczególności więc, jeśli n = r , {\displaystyle n=r,} to rozwiązaniem jest punkt.

Niech S 0 {\displaystyle S_{\mathbf {0} }} oznacza zbiór rozwiązań układu jednorodnego A ( x ) = 0 . {\displaystyle \mathrm {A} (\mathbf {x} )=\mathbf {0} .} Ponieważ układ jest jednorodny, to S 0 {\displaystyle S_{\mathbf {0} }} nie jest pusty. Niech x 1 , x 2 {\displaystyle \mathbf {x} _{1},\mathbf {x} _{2}} należą do S 0 , {\displaystyle S_{\mathbf {0} },} tzn. A ( x 1 ) = 0 {\displaystyle \mathrm {A} (\mathbf {x} _{1})=\mathbf {0} } oraz A ( x 2 ) = 0 , {\displaystyle \mathrm {A} (\mathbf {x} _{2})=\mathbf {0} ,} skąd A ( p x 1 + q x 2 ) = 0 , {\displaystyle \mathrm {A} (p\mathbf {x} _{1}+q\mathbf {x} _{2})=\mathbf {0} ,} czyli p x 1 + q x 2 {\displaystyle p\mathbf {x} _{1}+q\mathbf {x} _{2}} również należy do S 0 , {\displaystyle S_{\mathbf {0} },} a więc S 0 {\displaystyle S_{\mathbf {0} }} jest podprzestrzenią liniową przestrzeni współrzędnych. Ponieważ przekształcenie macierzy układu do postaci schodkowej zredukowanej nie zmienia zbioru rozwiązań S 0 {\displaystyle S_{\mathbf {0} }} układu, to pierwsze k {\displaystyle k} wierszy jest kombinacją liniową ostatnich n r {\displaystyle n-r} liniowo niezależnych wierszy; w ten sposób również n r {\displaystyle n-r} kolumn tej macierzy tworzy bazę przestrzeni S 0 {\displaystyle S_{\mathbf {0} }} (w gruncie rzeczy wykorzystuje się tu pojęcie rzędu; w ogólności powyższe obserwacje są równoważne twierdzeniu o rzędzie przekształcenia liniowego).

Teraz niech S b {\displaystyle S_{\mathbf {b} }} będzie zbiorem rozwiązań układu niejednorodnego A ( x ) = b ; {\displaystyle \mathrm {A} (\mathbf {x} )=\mathbf {b} ;} ponieważ r = s , {\displaystyle r=s,} to zbiór ten nie jest pusty. Niech x 1 {\displaystyle \mathbf {x} _{1}} będzie ustalonym rozwiązaniem, a x 2 {\displaystyle \mathbf {x} _{2}} dowolnym rozwiązaniem układu; wówczas z A ( x 1 ) = b {\displaystyle \mathrm {A} (\mathbf {x} _{1})=\mathbf {b} } oraz A ( x 2 ) = b , {\displaystyle \mathrm {A} (\mathbf {x} _{2})=\mathbf {b} ,} wynika A ( x 1 x 2 ) = A ( x 1 ) A ( x 2 ) = 0 , {\displaystyle \mathrm {A} (\mathbf {x} _{1}-\mathbf {x} _{2})=\mathrm {A} (\mathbf {x} _{1})-\mathrm {A} (\mathbf {x} _{2})=\mathbf {0} ,} czyli x 1 x 2 {\displaystyle \mathbf {x} _{1}-\mathbf {x} _{2}} należy do zbioru S 0 {\displaystyle S_{\mathbf {0} }} rozwiązań odpowiadającego mu układu jednorodnego. Wraz z nim do S 0 {\displaystyle S_{\mathbf {0} }} należy również rozwiązanie przeciwne x ¯ := x 2 x 1 , {\displaystyle {\bar {\mathbf {x} }}:=\mathbf {x} _{2}-\mathbf {x} _{1},} skąd x 2 = x 1 + x ¯ , {\displaystyle \mathbf {x} _{2}=\mathbf {x} _{1}+{\bar {\mathbf {x} }},} co wobec dowolności x 2 {\displaystyle \mathbf {x} _{2}} oznacza S b x 1 + S 0 . {\displaystyle S_{\mathbf {b} }\subseteq \mathbf {x} _{1}+S_{\mathbf {0} }.} Jeśli zaś x ¯ = x 1 + x 2 , {\displaystyle {\bar {\mathbf {x} }}=\mathbf {x} _{1}+\mathbf {x} _{2},} gdzie x 1 {\displaystyle \mathbf {x} _{1}} należy do S b , {\displaystyle S_{\mathbf {b} },} a x 2 {\displaystyle \mathbf {x} _{2}} należy do S 0 , {\displaystyle S_{\mathbf {0} },} to A ( x ¯ ) = A ( x 1 ) + A ( x 2 ) = b + 0 , {\displaystyle \mathrm {A} ({\bar {\mathbf {x} }})=\mathrm {A} (\mathbf {x} _{1})+\mathrm {A} (\mathbf {x} _{2})=\mathbf {b} +\mathbf {0} ,} czyli x ¯ {\displaystyle {\bar {\mathbf {x} }}} należy do S b , {\displaystyle S_{\mathbf {b} },} a więc x 1 + S 0 S b . {\displaystyle \mathbf {x} _{1}+S_{\mathbf {0} }\subseteq S_{\mathbf {b} }.} Wynika stąd, że zbiór rozwiązań układu niejednorodnego jest warstwą podprzestrzeni liniowej rozwiązań odpowiadającego mu układu jednorodnego, zatem jest podprzestrzenią afiniczną tej samej przestrzeni współrzędnych.

Uogólnienia

Rozwiązania nieoznaczonych układów niejednorodnych tworzą podprzestrzeń afiniczną

Z punktu widzenia geometrii analitycznej układ m {\displaystyle m} równań o n {\displaystyle n} zmiennych odpowiada zadaniu m {\displaystyle m} hiperpłaszczyzn w n {\displaystyle n} -wymiarowej przestrzeni liniowej (lub przestrzeni afinicznej), rozwiązaniem (ogólnym) jest wtedy przestrzeń będąca częścią wspólną wszystkich hiperpłaszczyzn.

Stosując notację wektorową, można wykorzystać do opisu układów równań liniowych cały aparat algebry liniowej. Zbiór wszystkich kombinacji liniowych układu wektorów nazywa się powłoką liniową; w ten sposób układ równań ma rozwiązanie, jeśli wektor b {\displaystyle \mathbf {b} } leży w powłoce generowanej przez wektory a j . {\displaystyle \mathbf {a} _{j}.} Jeżeli każdy wektor powłoki można wyrazić jednoznacznie jako kombinację liniową wektorów a j , {\displaystyle \mathbf {a} _{j},} to układ jest oznaczony. W każdej powłoce można wyróżnić bazę złożoną z liniowo niezależnych wektorów, dzięki którym wspomniane wyrażenie może być jednoznaczne; liczba wektorów w bazie (wymiar) nie może być większy niż m {\displaystyle m} czy n , {\displaystyle n,} ale może być mniejsza. Rozwiązanie istnieje, gdy powłoka składa się z m {\displaystyle m} liniowo niezależnych wektorów.

Najogólniejszą postacią przekształcenia liniowego A {\displaystyle \mathrm {A} } między dwoma przestrzeniami liniowymi jest kombinacja liniowa zadających go wektorów a j {\displaystyle \mathbf {a} _{j}} (zob. twierdzenie o przekształceniu liniowym zadanym na bazie). Samo przekształcenie liniowe A , {\displaystyle \mathrm {A} ,} przy ustalonych bazach dziedziny i przeciwdziedziny, można zapisać w postaci macierzy A = [ a j ] . {\displaystyle \mathbf {A} =[\mathbf {a} _{j}].} Wówczas obliczaniu wartości A ( x ) {\displaystyle \mathrm {A} (\mathbf {x} )} odpowiada mnożenie A X , {\displaystyle \mathbf {AX} ,} a rozwiązywanie układu równań jednorodnych jest w istocie wyznaczaniem miejsc zerowych przekształcenia liniowego A . {\displaystyle \mathrm {A} .} Przedstawione w poprzedniej sekcji rozumowanie jest przypadkiem szczególnym ogólnego wyniku – zbiór miejsc zerowych przekształcenia liniowego, nazywany jego jądrem, tworzy podprzestrzeń liniową w dziedzinie tego przekształcenia. Wymiar powłoki wspomniany w poprzednim akapicie w przypadku macierzy nazywa się jej rzędem (wierszowym). W ten sposób układ równań liniowych A X = B {\displaystyle \mathbf {AX} =\mathbf {B} } można traktować jako problem opisu przekształcenia liniowego A ( x ) = b , {\displaystyle \mathrm {A} (\mathbf {x} )=\mathbf {b} ,} przy czym istnienie rozwiązań jest tożsame z należeniem b {\displaystyle \mathbf {b} } do obrazu A {\displaystyle \mathrm {A} } (czyli istnieniem takiego wektora x , {\displaystyle \mathbf {x} ,} który spełniałby A ( x ) = b {\displaystyle \mathrm {A} (\mathbf {x} )=\mathbf {b} } ), a ich jednoznaczność jest równoważna trywialności jądra A {\displaystyle \mathrm {A} } (czyli różnowartościowości przekształcenia). Zależność między wymiarami jądra i obrazu opisuje tzw. twierdzenie o rzędzie przekształcenia liniowego.

Powyższe obserwacje dotyczące przestrzeni i przekształceń liniowych dla układów jednorodnych zachodzą mutatis mutandis dla przestrzeni i przekształceń afinicznych w przypadku niejednorodnym. W szczególności dowolne rozwiązanie układu niejednorodnego jest translacją rozwiązania odpowiadającego mu układu jednorodnego. Ponadto przekształceniu afinicznemu A ( x ) + b {\displaystyle \mathrm {A} (\mathbf {x} )+\mathbf {b} } przestrzeni n {\displaystyle n} -wymiarowej w przestrzeń m {\displaystyle m} -wymiarową odpowiada przekształcenie liniowe

[ a 11 a 1 n b 1 a m 1 a m n b m 0 0 1 ] [ x 1 x n 1 ] {\displaystyle {\begin{bmatrix}a_{11}&\dots &a_{1n}&b_{1}\\\vdots &\ddots &\vdots &\vdots \\a_{m1}&\dots &a_{mn}&b_{m}\\0&\dots &0&1\end{bmatrix}}{\begin{bmatrix}x_{1}\\\vdots \\x_{n}\\1\end{bmatrix}}}

przestrzeni ( n + 1 ) {\displaystyle (n+1)} -wymiarowej w przestrzeń ( m + 1 ) {\displaystyle (m+1)} -wymiarową (każda przestrzeń afiniczna może być zanurzona w przestrzeni liniowej wyższego wymiaru). Ostatni wiersz macierzy można pominąć bez utraty ogólności, co tłumaczy obserwację poczynioną w sekcji postać i zapis.

Przypisy

  1. F.P. Sayer. Some Aspects of Infinite Systems of Linear Simultaneous Equations. „IMA Journal of Numerical Analysis”. 1983 3(3):333-340. DOI: 10.1093/imanum/3.3.333. [dostęp 2009-01-06]. 
  2. Układ równań liniowych, [w:] Encyklopedia PWN [online], Wydawnictwo Naukowe PWN [dostęp 2021-07-22] .

Linki zewnętrzne

  • publikacja w otwartym dostępie – możesz ją przeczytać Nagrania dla Khan Academy na YouTube [dostęp 2024-06-22]:
    • Szymon Charzyński, Rozwiązywanie układu równań liniowych za pomocą macierzy, 27 czerwca 2016.
    • Krzysztof Kwiecień, Zapisywanie układów równań liniowych w postaci równań macierzowych, 2 października 2018.
    • Krzysztof Kwiecień, Rozwiązywanie układów równań liniowych w postaci macierzowej, 25 listopada 2020.
  • Opisowe rozwiązywanie układów równań liniowych online. sole.ooz.ie. [zarchiwizowane z tego adresu (2011-07-21)].
  • Eric W.E.W. Weisstein Eric W.E.W., Linear System of Equations, [w:] MathWorld, Wolfram Research  (ang.). [dostęp 2024-03-07].
  • PWN: 3990972
  • SNL: lineære_ligninger
  • Catalana: 0241441