Reguläre Matrix
Eine reguläre, invertierbare oder nichtsinguläre Matrix ist in der Mathematik eine quadratische Matrix, die eine Inverse besitzt. Reguläre Matrizen können auf mehrere äquivalente Weisen charakterisiert werden. Zum Beispiel zeichnen sich reguläre Matrizen dadurch aus, dass die durch sie beschriebene lineare Abbildung bijektiv ist. Daher ist ein lineares Gleichungssystem mit einer regulären Koeffizientenmatrix stets eindeutig lösbar. Die Menge der regulären Matrizen fester Größe mit Einträgen aus einem Ring oder Körper bildet mit der Matrizenmultiplikation als Verknüpfung die allgemeine lineare Gruppe.
Nicht zu jeder quadratischen Matrix existiert eine Inverse. Eine quadratische Matrix, die keine Inverse besitzt, wird singuläre Matrix genannt.
Definition
Eine quadratische Matrix <math>A \in R^{n \times n}</math> mit Einträgen aus einem unitären Ring <math>R</math> (in der Praxis meist dem Körper der reellen Zahlen) heißt regulär, wenn eine weitere Matrix <math>B \in R^{n \times n}</math> existiert, sodass
- <math>A \cdot B = B \cdot A = I</math>
gilt, wobei <math>I</math> die Einheitsmatrix bezeichnet. Die Matrix <math>B</math> ist hierbei eindeutig bestimmt und heißt inverse Matrix zu <math>A</math>. Die Inverse einer Matrix <math>A</math> wird üblicherweise mit <math>A^{-1}</math> bezeichnet. Bei einer singulären Matrix existiert keine solche Matrix <math>B</math>.
Ist <math>R</math> ein kommutativer Ring, Körper oder Schiefkörper, so sind die beiden Bedingungen <math>A \cdot B= I</math> und <math>B \cdot A = I</math> äquivalent, das heißt, eine linksinverse Matrix ist dann auch rechtsinvers und umgekehrt, sprich, die obige Bedingung lässt sich durch <math>B \cdot A = I</math> beziehungsweise <math>A \cdot B = I</math> abschwächen.
Beispiele
Die reelle Matrix
- <math>A = \begin{pmatrix} 2 & 3 \\ 1 & 2 \end{pmatrix}</math>
ist regulär, denn sie besitzt die Inverse
- <math>B = \begin{pmatrix} 2 & -3 \\ -1 & 2 \end{pmatrix}</math>,
mit
- <math>A \cdot B = \begin{pmatrix} 2 & 3 \\ 1 & 2 \end{pmatrix} \cdot \begin{pmatrix} 2 & -3 \\ -1 & 2 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I</math>.
Die reelle Matrix
- <math>A = \begin{pmatrix} 2 & 3 \\ 0 & 0 \end{pmatrix}</math>
ist singulär, denn für jede Matrix
- <math>B = \begin{pmatrix} a & b \\ c & d \end{pmatrix}</math>
gilt
- <math>A \cdot B = \begin{pmatrix} 2 & 3 \\ 0 & 0 \end{pmatrix} \cdot \begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} 2a+3c & 2b+3d \\ 0 & 0 \end{pmatrix} \neq I</math>.
Äquivalente Charakterisierungen
Reguläre Matrizen über einem Körper
Eine <math>(n\times n)</math>-Matrix <math>A</math> mit Einträgen aus einem Körper <math>K</math>, zum Beispiel die reellen oder komplexen Zahlen, ist genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:
- Es gibt eine Matrix <math>B</math> mit <math>AB=I=BA </math>.
- Die Determinante von <math>A</math> ist ungleich null: <math>\det(A)\neq 0</math>.
- Die Null ist kein Eigenwert von <math>A</math>.
- Das lineare Gleichungssystem <math>Ax=0</math> besitzt nur die triviale Lösung <math>x=0</math>.
- Für jedes <math>b\in K^n</math> existiert mindestens eine Lösung <math>x\in K^n</math> des linearen Gleichungssystems <math>Ax=b</math>.
- Für jedes <math>b\in K^n</math> existiert höchstens eine Lösung <math>x\in K^n</math> des linearen Gleichungssystems <math>Ax=b</math>.
- Die Zeilenvektoren sind linear unabhängig.
- Die Zeilenvektoren erzeugen <math>K^n</math>.
- Die Spaltenvektoren sind linear unabhängig.
- Die Spaltenvektoren erzeugen <math>K^n</math>.
- Die durch <math>A</math> beschriebene lineare Abbildung <math>K^n\to K^n</math>, <math>x\mapsto Ax</math>, ist bijektiv.
- Die transponierte Matrix <math>A^T</math> ist invertierbar.
- Der Rang der Matrix <math>A</math> ist gleich <math>n</math>.
Bei einer singulären <math>(n\times n)</math>-Matrix <math>A</math> mit Einträgen aus einem Körper <math>K</math> ist keine der obigen Bedingungen erfüllt.
Reguläre Matrizen über einem unitären kommutativen Ring
Allgemeiner ist eine <math>(n\times n)</math>-Matrix <math>A</math> mit Einträgen aus einem kommutativen Ring mit Eins <math>R</math> genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:
- Es gibt eine Matrix <math>B</math> mit <math>AB=I=BA </math>.
- Die Determinante von <math>A</math> ist eine Einheit in <math>R</math> (man spricht auch von einer unimodularen Matrix).
- Für alle <math>b\in R^n</math> existiert genau eine Lösung <math>x\in R^n</math> des linearen Gleichungssystems <math>Ax=b</math>.
- Für alle <math>b\in R^n</math> existiert mindestens eine Lösung <math>x\in R^n</math> des linearen Gleichungssystems <math>Ax=b</math>.
- Die Zeilenvektoren bilden eine Basis von <math>R^n</math>.
- Die Zeilenvektoren erzeugen <math>R^n</math>.
- Die Spaltenvektoren bilden eine Basis von <math>R^n</math>.
- Die Spaltenvektoren erzeugen <math>R^n</math>.
- Die durch <math>A</math> beschriebene lineare Abbildung <math>R^n\to R^n</math>, <math>x\mapsto Ax</math>, ist surjektiv (oder gar bijektiv).
- Die transponierte Matrix <math>A^T</math> ist invertierbar.
Bei einer singulären <math>(n\times n)</math>-Matrix <math>A</math> mit Einträgen aus einem kommutativen Ring mit Eins <math>R</math> ist keine der obigen Bedingungen erfüllt.
Der wesentliche Unterschied zum Fall eines Körpers ist hier also, dass im Allgemeinen aus der Injektivität einer linearen Abbildung nicht mehr ihre Surjektivität (und damit ihre Bijektivität) folgt, wie bereits das einfache Beispiel <math>\Z \to \Z</math>, <math>x \mapsto 2x</math> zeigt.
Weitere Beispiele
Die Matrix
- <math>A =
\begin{pmatrix} 3x^3 & x^2 - 1 \\ 3x^2 + 3 & x \end{pmatrix}</math>
mit Einträgen aus dem Polynomring <math>R = \R[x]</math> hat die Determinante <math>\det A = 3x^3 \cdot x - (x^2 - 1) \cdot (3x^2 + 3) = 3</math> und <math>3</math> ist invertierbar in <math>R</math>. Somit ist <math>A</math> regulär in <math>R^{2 \times 2}</math>. Die inverse Matrix ist
- <math>B = \frac{1}{3}
\begin{pmatrix} x & 1 - x^2 \\ -3x^2 - 3 & 3x^3 \end{pmatrix} = \begin{pmatrix} \tfrac{1}{3} \cdot x & \tfrac{1}{3} \cdot (1 - x^2) \\ -x^2 - 1 & x^3 \end{pmatrix}</math>.
Die Matrix
- <math>A =
\begin{pmatrix} [2]_{17} & [1]_{17} \\{} [6]_{17} & [4]_{17} \end{pmatrix}</math>
mit Einträgen aus dem Restklassenkörper <math>R = \Z/17\Z</math> hat die Determinante <math>\det A = [2]_{17} \cdot [4]_{17} - [1]_{17} \cdot [6]_{17} = [2]_{17}</math> und <math>[2]_{17}</math> ist invertierbar in <math>R</math>. Somit ist <math>A</math> regulär in <math>R^{2 \times 2}</math>. Die inverse Matrix ist
- <math>B = \frac{1}{[2]_{17}}
\begin{pmatrix} [4]_{17} & [-1]_{17} \\{} [-6]_{17} & [2]_{17} \end{pmatrix} = \frac{1}{[2]_{17}} \begin{pmatrix} [4]_{17} & [16]_{17} \\{} [11]_{17} & [2]_{17} \end{pmatrix} = \begin{pmatrix} [2]_{17} & [8]_{17} \\{} [14]_{17} & [1]_{17} \end{pmatrix}</math>.
Die Matrix
- <math>A =
\begin{pmatrix} [3]_{12} & [7]_{12} \\{} [1]_{12} & [9]_{12} \end{pmatrix}</math>
mit Einträgen aus dem Restklassenring <math>\Z/12\Z</math> hat die Determinante <math>\det A = [3]_{12} \cdot [9]_{12} - [7]_{12} \cdot [1]_{12} = [20]_{12} = [8]_{12}</math>. Da <math>8</math> und <math>12</math> nicht teilerfremd sind, ist <math>\det A = [8]_{12}</math> in <math>\Z/12\Z</math> nicht invertierbar. Daher ist <math>A</math> nicht regulär.
Eigenschaften
Ist die Matrix <math>A</math> regulär, so ist auch <math>A^{-1}</math> regulär mit der Inversen
- <math>\left( A^{-1} \right)^{-1} = A</math>.
Sind die beiden Matrizen <math>A</math> und <math>B</math> regulär, so ist auch ihr Produkt <math>A \cdot B</math> regulär mit der Inversen
- <math>\left( A \cdot B \right)^{-1} = B^{-1} \cdot A^{-1}</math>.
Die Menge der regulären Matrizen fester Größe bildet demnach mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinen nichtkommutative) Gruppe, die allgemeine lineare Gruppe <math>\operatorname{GL}(n,R)</math>. In dieser Gruppe ist die Einheitsmatrix das neutrale Element und die inverse Matrix das inverse Element. Für eine reguläre Matrix <math>A</math> gelten damit auch die Kürzungsregeln
- <math>A \cdot B = A \cdot C \Rightarrow B = C</math>
und
- <math>B \cdot A = C \cdot A \Rightarrow B = C</math>,
wobei <math>B</math> und <math>C</math> beliebige Matrizen passender Größe sind.
Eine singuläre Matrix besitzt den Eigenwert null, d. h., es gibt einen vom Nullvektor verschiedenen Vektor, der von der Matrix auf ersteren abgebildet wird. Alle Vektoren, die von der Matrix auf den Nullvektor abgebildet werden, erzeugen den Eigenraum zum Eigenwert null. Die Dimension dieses Eigenraumes ist die geometrische Vielfachheit des Eigenwerts null, siehe Jänich (2008), S. 197 ff.
Blockmatrizen
Ist eine quadratische Blockmatrix <math>M = \left(\begin{matrix} A & B \\ C & D \end{matrix}\right)</math> gegeben, wobei <math>A</math> und das Schur-Komplement <math>M/A := D - CA^{-1}B</math> von <math>A</math> in <math>M</math> eine reguläre Matrix ist, dann ist auch <math>M</math> eine reguläre Matrix und es gilt
- <math>M = \left(\begin{matrix} I & 0 \\ CA^{-1} & I \end{matrix}\right) \left(\begin{matrix} A & 0 \\ 0 & M/A \end{matrix}\right) \left(\begin{matrix} I & A^{-1}B \\ 0 & I \end{matrix}\right)</math>
Daraus folgt für die inverse Matrix
- <math>\begin{align}
M^{-1} &= \left(\begin{matrix} I & A^{-1}B \\ 0 & I \end{matrix}\right)^{-1} \left(\begin{matrix} A & 0 \\ 0 & M/A \end{matrix}\right)^{-1} \left(\begin{matrix} I & 0 \\ CA^{-1} & I \end{matrix}\right)^{-1} \\ &= \left(\begin{matrix} I & -A^{-1}B \\ 0 & I \end{matrix}\right) \left(\begin{matrix} A^{-1} & 0 \\ 0 & (M/A)^{-1} \end{matrix}\right) \left(\begin{matrix} I & 0 \\ -CA^{-1} & I \end{matrix}\right) \\ &= \left(\begin{matrix} A^{-1} + A^{-1}B(M/A)^{-1}CA^{-1} & -A^{-1}B(M/A)^{-1} \\ -(M/A)^{-1}CA^{-1} & (M/A)^{-1} \end{matrix}\right) \end{align}</math>
Wenn <math>D</math> und das Schur-Komplement <math>M/D := A - BD^{-1}C</math> von <math>D</math> in <math>M</math> eine reguläre Matrix ist, gilt entsprechend
- <math>M = \left(\begin{matrix} I & BD^{-1} \\ 0 & I \end{matrix}\right) \left(\begin{matrix} M/D & 0 \\ 0 & D \end{matrix}\right) \left(\begin{matrix} I & 0 \\ D^{-1}C & I \end{matrix}\right)</math>
und für die inverse Matrix<ref>Stephen M. Watt, University of Western Ontario: Pivot-Free Block Matrix Inversion</ref>
- <math>\begin{align}
M^{-1} &= \left(\begin{matrix} I & 0 \\ D^{-1}C & I \end{matrix}\right)^{-1} \left(\begin{matrix} M/D & 0 \\ 0 & D \end{matrix}\right)^{-1} \left(\begin{matrix} I & BD^{-1} \\ 0 & I \end{matrix}\right)^{-1} \\ &= \left(\begin{matrix} I & 0 \\ -D^{-1}C & I \end{matrix}\right) \left(\begin{matrix} (M/D)^{-1} & 0 \\ 0 & D^{-1} \end{matrix}\right) \left(\begin{matrix} I & -BD^{-1} \\ 0 & I \end{matrix}\right) \\ &= \left(\begin{matrix} (M/D)^{-1} & -(M/D)^{-1}BD^{-1} \\ -D^{-1}C(M/D)^{-1} & D^{-1} + D^{-1}C(M/D)^{-1}BD^{-1} \end{matrix}\right) \end{align}</math>
Mithilfe dieser Formel kann die inverse Matrix einer quadratischen (<math>k \times k</math>)-Blockmatrix <math>A \in R^{n \times n}</math>mit Blöcken der Dimension <math>b \times b</math> effizient berechnet werden. Es ist also <math>n = k \cdot b</math>. Die Laufzeit für die Inversion beträgt <math>O(k^2 \cdot b^3 \cdot 4^k)</math>. Im Vergleich dazu beträgt die Laufzeit für den Gauß-Jordan-Algorithmus <math>O(n^3) = O(k^3 \cdot b^3)</math>.<ref>Iria C. S. Cosme, Isaac F. Fernandes, Joao L. de Carvalho, Samuel Xavier-de-Souza: Memory-Usage Advantageous Block Recursive Matrix Inverse</ref>
Reguläre Matrizen über einem Restklassenkörper
Eine Matrix mit Einträgen aus einem Restklassenkörper <math>\mathbb F_p</math> mit einer Primzahl <math>p</math> ist genau dann regulär, wenn die Zeilenvektoren linear unabhängig sind.
Für den Restklassenkörper <math>\mathbb F_2</math> kann die Anzahl der regulären <math>n \times n</math>-Matrixen wie folgt berechnet werden:
- Jedes der <math>n</math> Elemente der 1. Zeile kann unabhängig voneinander 2 Werte annehmen. Der Nullvektor ist ausgeschlossen. Für die 1. Zeile gibt es also <math>2^n - 1</math> Möglichkeiten.
- Für die 2. Zeile sind alle Vektoren ausgeschlossen, die eine Linearkombination der 1. Zeile sind, also <math>2</math> Vektoren. Für die 2. Zeile gibt es also <math>2^n - 2</math> Möglichkeiten.
- Für die 3. Zeile sind alle Vektoren ausgeschlossen, die eine Linearkombination der 1. Zeile und 2. Zeile sind, also <math>2^2</math> Vektoren. Für die 3. Zeile gibt es also <math>2^n - 2^2</math> Möglichkeiten.
- Allgemein gibt es für die Zeile mit dem Index <math>k</math> also <math>2^n - 2^{k - 1}</math> mögliche Werte. Für alle Zeilen der Matrix ergeben sich daher insgesamt <math>(2^n - 2^0) \cdot (2^n - 2^1) \cdot (2^n - 2^2) \cdot \ldots \cdot (2^n - 2^{n - 1})</math> Möglichkeiten.
Daraus lässt sich der Anteil der regulären <math>n \times n</math>-Matrixen an allen <math>n \times n</math>-Matrixen bestimmen. Es gibt <math>2^{n \cdot n} = 2^{n^2}</math> verschiedene <math>n \times n</math>-Matrixen, weil jedes der <math>n \cdot n = n^2</math> Elemente unabhängig voneinander 2 Werte annehmen kann. Der Anteil der regulären <math>n \times n</math>-Matrixen beträgt daher
- <math>\begin{align}
& (2^n - 2^0) \cdot (2^n - 2^1) \cdot (2^n - 2^2) \cdot \ldots \cdot (2^n - 2^{n - 1}) / 2^{n \cdot n} \\ &= \frac{2^n - 2^0}{2^n} \cdot \frac{2^n - 2^1}{2^n} \cdot \frac{2^n - 2^2}{2^n} \cdot \ldots \cdot \frac{2^n - 2^{n - 1}}{2^n} \\ &= \left(1 - \frac{1}{2^n}\right) \cdot \left(1 - \frac{1}{2^{n - 1}}\right) \cdot \left(1 - \frac{1}{2^{n - 2}}\right) \cdot \ldots \cdot \left(1 - \frac{1}{2^1}\right) \\ &= \prod_{k = 1}^n \left(1 - \left(\frac{1}{2}\right)^k\right) \end{align} </math>
Für <math>n</math> gegen unendlich konvergiert dieses Produkt nach dem Pentagonalzahlensatz wegen <math>|\tfrac{1}{2}| < 1</math> gegen einen endlichen Grenzwert. Dieser beträgt etwa 0,289.
Dieses Ergebnis lässt sich für beliebige Primzahlen <math>p</math> auf den Restklassenkörper <math>\mathbb F_p</math> verallgemeinern. Es gibt <math>p^{n \cdot n} = p^{n^2}</math> verschiedene <math>n \times n</math>-Matrixen, von denen <math>(p^n - p^0) \cdot (p^n - p^1) \cdot (p^n - p^2) \cdot \ldots \cdot (p^n - p^{n - 1})</math> reguläre <math>n \times n</math>-Matrixen sind. Der Anteil der regulären <math>n \times n</math>-Matrixen beträgt <math>\prod_{k = 1}^n \left(1 - \left(\frac{1}{p}\right)^k\right)</math>.<ref>StackExchange: Number of non singular matrices over a finite field of order 2</ref>
Literatur
- Peter Knabner, Wolf Barth: Lineare Algebra. Grundlagen und Anwendungen. Springer Spektrum, Berlin/Heidelberg 2013, ISBN 978-3-642-32185-6.
- {{#invoke:Vorlage:Literatur|f}}
Weblinks
- {{#invoke:Vorlage:Literatur|f}}{{#if:|}}
- {{#if: | {{{author}}} | Eric W. Weisstein }}: Nonsingular Matrix. In: MathWorld (englisch). {{#if: NonsingularMatrix | {{#ifeq: {{#property:P2812}} | NonsingularMatrix | | {{#if: {{#property:P2812}} | {{#ifeq: 0 | 0 | }} | {{#ifeq: 0 | 0 | }} }} }} }}
- {{#if: CWoo|CWoo: }}Invertible matrix. In: PlanetMath. (englisch)
Einzelnachweise
<references />