Kronecker-Produkt
{{#if: behandelt das Kronecker-Produkt von Matrizen, für das Kronecker-Produkt von Kohomologie- und Homologie-Klassen siehe Kronecker-Paarung.
| Vorlage:Hinweisbaustein | {{#ifeq: 0 | 0 |}}
}} Das Kronecker-Produkt ist in der Mathematik ein spezielles Produkt zweier Matrizen beliebiger Größe. Das Ergebnis des Kronecker-Produkts ist eine große Matrix, die durch Betrachtung aller möglichen Produkte von Einträgen der beiden Ausgangsmatrizen entsteht. Es ist nach dem deutschen Mathematiker Leopold Kronecker benannt.
Definition
Ist <math>A</math> eine <math>m\times n</math>-Matrix und <math>B</math> eine <math>p\times r</math>-Matrix, so ist das Kronecker-Produkt <math>C = A \otimes B</math> definiert als
- <math>C = (a_{ij} \cdot B)
=\begin{pmatrix} a_{11} B & \cdots & a_{1n} B \\ \vdots & \ddots & \vdots \\ a_{m1} B & \cdots & a_{mn} B \end{pmatrix}</math>
Explizit:
- <math>A \otimes B = \begin{pmatrix}
a_{11} b_{11} & a_{11} b_{12} & \cdots & a_{11} b_{1r} &
\cdots & \cdots & a_{1n} b_{11} & a_{1n} b_{12} & \cdots & a_{1n} b_{1r} \\
a_{11} b_{21} & a_{11} b_{22} & \cdots & a_{11} b_{2r} &
\cdots & \cdots & a_{1n} b_{21} & a_{1n} b_{22} & \cdots & a_{1n} b_{2r} \\
\vdots & \vdots & \ddots & \vdots & & & \vdots & \vdots & \ddots & \vdots \\
a_{11} b_{p1} & a_{11} b_{p2} & \cdots & a_{11} b_{pr} &
\cdots & \cdots & a_{1n} b_{p1} & a_{1n} b_{p2} & \cdots & a_{1n} b_{pr} \\
\vdots & \vdots & & \vdots & \ddots & & \vdots & \vdots & & \vdots \\
\vdots & \vdots & & \vdots & & \ddots & \vdots & \vdots & & \vdots \\
a_{m1} b_{11} & a_{m1} b_{12} & \cdots & a_{m1} b_{1r} &
\cdots & \cdots & a_{mn} b_{11} & a_{mn} b_{12} & \cdots & a_{mn} b_{1r} \\
a_{m1} b_{21} & a_{m1} b_{22} & \cdots & a_{m1} b_{2r} &
\cdots & \cdots & a_{mn} b_{21} & a_{mn} b_{22} & \cdots & a_{mn} b_{2r} \\
\vdots & \vdots & \ddots & \vdots & & & \vdots & \vdots & \ddots & \vdots \\
a_{m1} b_{p1} & a_{m1} b_{p2} & \cdots & a_{m1} b_{pr} &
\cdots & \cdots & a_{mn} b_{p1} & a_{mn} b_{p2} & \cdots & a_{mn} b_{pr}
\end{pmatrix}_{(mp \times nr)}</math>.
Das heißt, jedes Element der Matrix <math>A</math> wird mit der Matrix <math>B</math> multipliziert. Das Ergebnis ist also eine Matrix mit <math>m\cdot p</math> Zeilen und <math>n \cdot r</math> Spalten.
Beispiel
- <math>\begin{pmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{pmatrix}\otimes \begin{pmatrix} 7 & 8 \\ 9 & 0 \end{pmatrix}
=\begin{pmatrix} 1 \cdot \begin{pmatrix} 7 & 8 \\ 9 & 0 \end{pmatrix} & 2 \cdot \begin{pmatrix} 7 & 8 \\ 9 & 0 \end{pmatrix} \\\\ 3 \cdot \begin{pmatrix} 7 & 8 \\ 9 & 0 \end{pmatrix} & 4 \cdot \begin{pmatrix} 7 & 8 \\ 9 & 0 \end{pmatrix} \\\\ 5 \cdot \begin{pmatrix} 7 & 8 \\ 9 & 0 \end{pmatrix} & 6 \cdot \begin{pmatrix} 7 & 8 \\ 9 & 0 \end{pmatrix} \end{pmatrix} =\begin{pmatrix} 7 & 8 & \!\!\! & 14 & 16 \\ 9 & 0 & \!\!\! & 18 & 0 \\[0.6em] 21 & 24 & \!\!\! & 28 & 32 \\ 27 & 0 & \!\!\! & 36 & 0 \\[0.6em] 35 & 40 & \!\!\! & 42 & 48 \\ 45 & 0 & \!\!\! & 54 & 0 \end{pmatrix}</math>
Eigenschaften
Rechenregeln
Das Kronecker-Produkt ist nicht kommutativ, das heißt, im Allgemeinen gilt
- <math>A\otimes B\neq B\otimes A</math>.
Es gibt jedoch Permutationsmatrizen <math>P</math>, <math>Q</math>, so dass gilt
- <math>A\otimes B=P(B\otimes A)Q</math>.
Sind dabei <math>A</math> und <math>B</math> quadratisch, so kann <math>P=Q^T</math> gewählt werden.
Das Kronecker-Produkt ist assoziativ. Das heißt, es gilt
- <math>A\otimes(B\otimes C)=(A\otimes B)\otimes C</math>.
Symmetrien
Für die Transposition gilt
- <math>(A \otimes B)^T = A^T \otimes B^T</math>.
Für die konjugierte Matrix gilt
- <math>\overline{A \otimes B} = \overline{A} \otimes \overline{B}</math>.
Für die adjungierte Matrix gilt
- <math>(A \otimes B)^* = A^* \otimes B^*</math>.
Bezüge zu anderen Operationen
Das Kronecker-Produkt ist bilinear mit der Matrizenaddition, das heißt, es gelten
- <math>A\otimes (B+C)=A\otimes B+A\otimes C</math>,
- <math>(B+C)\otimes A=B\otimes A+C \otimes A</math>
und
- <math>\lambda (A\otimes B)=(\lambda A)\otimes B=A\otimes (\lambda B)</math>.
Sind die Matrizenprodukte <math>AC</math> und <math>BD</math> definiert, so gilt<ref name="Steeb">Willi Hans Steeb: Kronecker Product of Matrices and Applications. BI-Wiss. Verlag, 1991, ISBN 3-411-14811-X, S. 16</ref>
- <math>AC\otimes BD=(A\otimes B)(C\otimes D)</math>.
Unter Benutzung dieser Relation folgt für den Kommutator
- <math>[A\otimes B,C\otimes D]=\frac{1}{2}([A,C]\otimes\{B,D\}+\{A,C\}\otimes[B,D])</math>,
wobei <math>[A,B]</math> der Kommutator und <math>\{A,B\}</math> der Antikommutator ist.
Kenngrößen
Sind <math>A</math> und <math>B</math> quadratische Matrizen, so gilt für die Spur
- <math>\mathrm{Spur}(A \otimes B) = \mathrm{Spur}(A) \cdot \mathrm{Spur}(B)</math>.
Für den Rang gilt
- <math>\mathrm{Rang}(A \otimes B) = \mathrm{Rang}(A) \cdot \mathrm{Rang}(B)</math>.
Ist <math>A</math> eine <math>n\times n</math>- und <math>B</math> eine <math>m\times m</math>-Matrix, so gilt für die Determinante
- <math>\det(A\otimes B)= \det(A)^m \det(B)^n</math>.
Sind <math>(\lambda_i)_{i=1,\dotsc,n}</math> die Eigenwerte von <math>A</math> und <math>(\mu_j)_{j=1,\dotsc,m}</math> die Eigenwerte von <math>B</math>, dann gilt:
- <math>(\lambda_i \, \mu_j)_{i=1,\dotsc,n \atop j=1,\dotsc,m}</math> sind die Eigenwerte von <math>A\otimes B</math>.
Für die Spektralnorm gilt demnach
- <math>\| A \otimes B \|_2 = \| A \|_2 \cdot \| B \|_2</math>.
Inverse
Sind <math>A,B</math> invertierbar, so ist auch <math>A\otimes B</math> invertierbar mit Inverser
- <math>(A\otimes B)^{-1}=A^{-1} \otimes B^{-1}</math>.
Für die Moore-Penrose-Inverse gilt außerdem
- <math>(A\otimes B)^{+}=A^{+} \otimes B^{+}</math>.
Allgemeiner gilt: Sind <math>A^-</math> und <math>B^-</math> verallgemeinerte Inversen von <math>A</math> und <math>B</math>, so ist <math>A^- \otimes B^-</math> eine verallgemeinerte Inverse von <math>A \otimes B</math>.
Matrixgleichung
Es seien die Matrizen <math>A\in\operatorname{Mat}(k\times\ell),\, B\in\mathrm{Mat}(m\times n),\, C\in\mathrm{Mat}(k\times n)</math> gegeben und eine Matrix <math>X\in\operatorname{Mat}(\ell\times m)</math> gesucht, so dass <math>AXB=C\,</math> gilt. Dann gilt folgende Äquivalenz:
- <math>AXB=C \iff (B^T\otimes A)\, \operatorname{vec}(X)=\operatorname{vec}(C)</math>.
Hierbei steht <math>\operatorname{vec}</math> für die spaltenweise Vektorisierung einer Matrix zu einem Spaltenvektor: Sind <math>\vec{x}_1,\dotsc,\vec{x}_m</math> die Spalten der Matrix <math>X\in\operatorname{Mat}(\ell\times m)</math>, so ist
- <math>\operatorname{vec}(X)=\begin{pmatrix} \vec{x}_1 \\ \vdots \\ \vec{x}_m \end{pmatrix}</math>
ein Spaltenvektor der Länge <math>\ell\cdot m</math>. Analog ist <math>\operatorname{vec}(C)</math> ein Spaltenvektor der Länge <math>k\cdot n</math>.
Hat man den Vektor <math>\operatorname{vec}(X)</math> ermittelt, so ergibt sich daraus unmittelbar die zugehörige isomorphe Matrix <math>X\in\mathrm{Mat}(\ell\times m)</math>.
Beweis der Äquivalenz
Es ist <math>AXB=C \iff AX\left(\vec{b}_1,\dotsc,\vec{b}_n\right)=\left(\vec{c}_1,\dotsc,\vec{c}_n\right) \iff AX \vec{b_i}=\vec{c_i} \iff \begin{pmatrix} AX \vec{b}_1 \\ \vdots \\ AX \vec{b}_n \end{pmatrix}=\operatorname{vec}(C) </math>.
Dabei ist <math> \begin{pmatrix} A(\vec{x}_1,\dotsc,\vec{x}_m) \vec{b}_1 \\ \vdots \\ A(\vec{x}_1,\dotsc,\vec{x}_m) \vec{b}_n \end{pmatrix} =\begin{pmatrix} A(b_{11}\vec{x}_1+\dotsc+b_{m1}\vec{x}_m) \\ \vdots \\ A(b_{1n}\vec{x}_1+\dotsc+b_{mn}\vec{x}_m) \end{pmatrix} =\begin{pmatrix} A\, b_{11} & \cdots & A\, b_{m1} \\ \vdots & \ddots & \vdots \\ A\, b_{1n} & \cdots & A\, b_{mn}\end{pmatrix} \begin{pmatrix} \vec{x}_1 \\ \vdots \\ \vec{x}_m \end{pmatrix}=(B^T\otimes A)\, \operatorname{vec}(X) </math>.
Gleichungssystem mit Matrixkoeffizienten
Für <math>i=1,...,r\,</math> und <math>j=1,...,s\,</math> seien die Matrizen <math>A_{ij}\in\mathrm{Mat}(k\times\ell),\, B_{ij}\in\mathrm{Mat}(m\times n),\, C_i\in\mathrm{Mat}(k\times n)</math> gegeben.
Gesucht sind die Matrizen <math>X_i\in\mathrm{Mat}(\ell\times m)</math>, welche das Gleichungssystem
- <math>\begin{bmatrix}
A_{11} X_1 B_{11}+...+A_{1s} X_s B_{1s} & = & C_1 \\
& \vdots & \\
A_{r1} X_1 B_{r1}+...+A_{rs} X_s B_{rs} & = & C_r \\ \end{bmatrix}</math>
lösen. Diese Aufgabenstellung ist äquivalent zum Lösen des Gleichungssystems
- <math>\begin{pmatrix}
B_{11}^T \otimes A_{11} & \cdots & B_{1s}^T \otimes A_{1s} \\ \vdots & \ddots & \vdots \\ B_{r1}^T \otimes A_{r1} & \cdots & B_{rs}^T \otimes A_{rs} \\ \end{pmatrix} \begin{pmatrix} \operatorname{vec} \, X_1 \\ \vdots \\ \operatorname{vec} \, X_s \end{pmatrix} =\begin{pmatrix} \operatorname{vec} \, C_1 \\ \vdots \\ \operatorname{vec} \, C_r \end{pmatrix}</math>
Weitere Anwendungen
Das Kronecker-Produkt wird beispielsweise in verallgemeinerten linearen Regressionsmodellen verwendet, um eine Kovarianzmatrix von korrelierten Störgrößen zu konstruieren (z. B. die Kovarianzmatrix bei scheinbar unverbundenen Regressionsgleichungen, siehe Kovarianzmatrix#Kovarianzmatrix bei scheinbar unverbundenen Regressionsgleichungen). Man erhält hier etwa eine blockdiagonale Zellnermatrix.
Zudem braucht man das Kronecker-Produkt in der Quantenmechanik, um Systeme mit mehreren Teilchen, die ein beidseitig beschränktes Spektrum besitzen, zu beschreiben. Zustände mehrerer Teilchen sind dann Kroneckerprodukte der Einteilchenzustände. Im Falle eines unbeschränkten Spektrums bleibt nur die algebraische Struktur eines Kronecker-Produktes erhalten, da dann keine Darstellung durch Matrizen existiert.
Zusammenhang mit Tensorprodukten
Gegeben seien zwei lineare Abbildungen <math>\varphi_1\colon V_1\longrightarrow W_1</math> und <math>\varphi_2\colon V_2\longrightarrow W_2</math> zwischen endlichdimensionalen Vektorräumen. Dann gibt es immer genau eine lineare Abbildung
- <math>\varphi_1\otimes\varphi_2\colon V_1\otimes V_2\longrightarrow W_1\otimes W_2</math>
zwischen den Tensorprodukten mit
- <math>[\varphi_1\otimes \varphi_2](v_1\otimes v_2)=\varphi_1(v_1)\otimes \varphi_2(v_2)</math>.
Wenn wir auf den Vektorräumen <math>V_1, W_1, V_2</math> und <math>W_2</math> je eine Basis auswählen, so können wir der Abbildung <math>\varphi_1</math> ihre Darstellungsmatrix <math>A</math> zuordnen und <math>\varphi_2</math> die Darstellungsmatrix <math>B</math>.
Das Kronecker-Produkt <math>A\otimes B</math> der Darstellungsmatrizen entspricht nun genau der Darstellungsmatrix der tensorierten Abbildung <math>\varphi_1\otimes\varphi_2</math>, wenn man auf <math>V_1 \otimes V_2</math> und <math>W_1 \otimes W_2</math> die Basis zugrunde legt, welche sich aus den lexikographisch angeordneten Paaren von Basisvektoren der am Tensorprodukt beteiligten Vektorräume ergibt: Sind <math>(e_1,e_2,\ldots, e_n)</math> die gewählte Basis von <math>V_1</math> und <math>(f_1,f_2,\ldots, f_p)</math> die Basis von <math>V_2</math>, so nehmen wir
- <math>(e_1\otimes f_1, e_1\otimes f_2, \ldots, e_1\otimes f_p, e_2\otimes f_1, \ldots, e_n\otimes f_{p-1}, e_n\otimes f_p)</math>
als Basis für das Tensorprodukt <math>V_1\otimes V_2</math>; analog für <math>W_1\otimes W_2</math>.
Historisches
Das Kronecker-Produkt ist nach Leopold Kronecker benannt, obwohl Georg Zehfuss die Definition des Produktes schon 1858 leistete, weshalb das Kronecker-Produkt manchmal auch Zehfuss-Produkt genannt wird.<ref>Walter Strobl, "Georg Zehfuss: Sein Leben und seine Werke", online</ref>
Weblinks
- MathWorld: Matrix Direct Product
- Earliest Uses: Kronecker, Zehfuss or Direct Product of matrices.
- Charles F. Van Loan: The ubiquitous Kronecker product. Journal of Computational and Applied Mathematics 123 (2000) S. 85–100 (online PDF-Datei)
Quellen
<references/>