Zum Inhalt springen

Matrixexponential

aus Wikipedia, der freien Enzyklopädie

In der Mathematik ist das Matrixexponential, auch als Matrixexponentialfunktion bezeichnet eine Matrixfunktion, welche analog zur gewöhnlichen (skalaren) Exponentialfunktion definiert ist. Das Matrixexponential stellt die Verbindung zwischen Lie-Algebra und der zugehörigen Lie-Gruppe her.

Definition

Sei <math>X</math> eine reelle oder komplexe <math>n \times n</math>-Matrix. Das Exponential von <math>X</math>, welches mit <math>e^X</math> oder <math>\exp(X)</math> bezeichnet wird, ist die <math>n \times n</math>-Matrix, welche durch die folgende Potenzreihe definiert ist (Maclaurin-Reihe bzw. Taylor-Entwicklung an der Entwicklungsstelle <math>x = 0</math>):

<math>e^X = \sum_{k=0}^\infty\frac{X^k}{k!} = E + X + \frac{X^2}{2!} + \frac{X^3}{3!} + \dots = E + X + \frac{X^2}{2} + \frac{X^3}{6} + \dots</math>.

Diese Reihe konvergiert, genauso wie die der gewöhnlichen Exponentialfunktion, immer. Daher ist das Exponential von <math>X</math> wohldefiniert. Wenn <math>X</math> eine <math>1 \times 1</math>-Matrix ist, entspricht das Matrixexponential von <math>X</math> der gewöhnlichen Exponentialfunktion. Eine Verallgemeinerung, welche auch für unendliche Matrizen sinnvoll ist, ist die Exponentialfunktion auf beliebigen Banachalgebren.

Eigenschaften

Das Matrixexponential teilt eine Reihe der Eigenschaften der gewöhnlichen Exponentialfunktion. Beispielsweise ist das Exponential der <math>(n \times n)</math>-Nullmatrix <math>0</math> gleich der <math>(n \times n)</math>-Einheitsmatrix <math>E</math>:

<math>e^0 = E</math>.

Für beliebige komplexe <math>n \times n</math>-Matrizen <math>X</math> und beliebige komplexe Zahlen <math>a</math> und <math>b</math> gilt

<math>e^{aX} \cdot e^{bX} = e^{(a+b)X}</math>.

Daraus folgt

<math>e^{X} \cdot e^{-X} = e^{(1 - 1)X} = e^0 = E</math>,

das heißt

<math>\left(e^X\right)^{-1} = e^{-X}</math>.

Dabei bezeichnet <math>\left(e^X\right)^{-1}</math> die zu <math>e^X</math> inverse Matrix.

Die Exponentialfunktion erfüllt <math>e^{x+y}=e^x\,e^y</math> für alle Zahlen <math>x</math> und <math>y</math>. Dasselbe gilt für kommutierende Matrizen <math>X</math> und <math>Y</math>, das heißt, aus

<math>X \cdot Y = Y \cdot X</math>

folgt

<math>e^{X+Y} = e^X \cdot e^Y</math>.

Für nichtkommutierende Matrizen stimmt diese Gleichung im Allgemeinen nicht. In diesem Fall kann man <math>e^{X+Y}</math> mit Hilfe der Baker-Campbell-Hausdorff-Formel berechnen.

Das Exponential der zu <math>X</math> transponierten Matrix ist gleich der Transposition des Exponentials von <math>X</math>:

<math>\exp\left(X^\mathrm{T}\right) = \left(\exp X\right)^\mathrm{T}</math>

Daraus folgt, dass die Matrixexponentialfunktion symmetrische Matrizen auf symmetrische Matrizen und schiefsymmetrische Matrizen auf orthogonale Matrizen abbildet. Analog gilt zwischen Adjunktion und Exponentiation die Beziehung

<math>\exp\left(X^*\right) = \left(\exp X \right)^*</math>,

so dass die Matrixexponentialfunktion hermitesche Matrizen auf hermitesche Matrizen und schiefhermitesche Matrizen auf unitäre Matrizen abbildet.

Weiterhin gelten:

  • Wenn <math>Y</math> invertierbar ist, dann ist <math>e^{YXY^{-1}} = Ye^XY^{-1}</math>.
  • <math>\det(e^X) = e^{\operatorname{tr}(X)}</math>, hier bezeichnet <math>\operatorname{tr}(X)</math> die Spur der quadratischen Matrix <math>X</math>.
  • <math>e^{\operatorname{diag}(x_{1},\ldots,x_{n})}=\operatorname{diag}\left(e^{x_{1}},\ldots,e^{x_{n}}\right)</math>.

Die Exponentialabbildung

Das Exponential einer Matrix ist immer eine invertierbare Matrix. Die Inverse von <math>e^X</math> ist durch <math>e^{-X}</math> gegeben. Das (komplexe) Matrixexponential liefert somit eine Abbildung

<math>\exp \colon M_n(\mathbb C) \to \mbox{GL}(n,\mathbb C)</math>

aus dem Vektorraum aller (komplexen) <math>(n \times n)</math>-Matrizen in die allgemeine lineare Gruppe, die Gruppe aller (komplexen) invertierbaren Matrizen. Diese Abbildung ist kein Gruppenhomomorphismus auf der gesamten Gruppe <math>M_n(\mathbb C)</math>, aber auf jeder Untergruppe, deren Matrizen multiplikativ miteinander kommutieren. Des Weiteren ist sie surjektiv, das heißt, jede (reelle oder komplexe) invertierbare Matrix kann als die Exponentialmatrix einer komplexen Matrix geschrieben werden. Urbilder (bzw. lokale Schnitte) lassen sich durch Matrixlogarithmen berechnen.

Für je zwei Matrizen <math>X</math> und <math>Y</math> gilt

<math> \| e^{X+Y} - e^X \| \le \|Y\| e^{\|X\|} e^{\|Y\|}</math>,

wobei <math>\| \cdot \|</math> eine beliebige Matrixnorm bezeichnet. Daraus folgt, dass die Exponentialabbildung stetig und auf kompakten Teilmengen von <math>M_n(\mathbb C)</math> sogar lipschitzstetig ist. Für die Norm des Matrixexponentials selbst gibt es aber eine präzisere Schranke

<math>\|e^X\|\le e^{\mu(X)}</math>

mit der logarithmischen Matrixnorm <math>\mu</math> und dem numerischen Wertebereich.

Die Zuordnung

<math>t \mapsto e^{tX}, \qquad t \in \mathbb R,</math>

definiert eine glatte Kurve in der allgemeinen linearen Gruppe, welche für <math>t = 0</math> die Einheitsmatrix liefert. Dies liefert eine Einparameter-Untergruppe der allgemeinen linearen Gruppe, da

<math>e^{tX}e^{sX} = e^{(t+s)X}</math>

gilt. Die Ableitung dieser Funktion im Punkt <math>t</math> ist durch

<math>\frac{d}{dt}e^{tX} = Xe^{tX} \qquad (1)</math>

gegeben. Die Ableitung für <math>t = 0</math> ist gerade die Matrix <math>X</math>, das heißt, <math>X</math> erzeugt diese Einparameter-Untergruppe.

Allgemeiner gilt:

<math>\frac{d}{dt}e^{X(t)} = \int_0^1 e^{(1-\alpha) X(t)} \frac{dX(t)}{dt} e^{\alpha X(t)}d\alpha </math>

Beispiele von Lie-Algebren und zugehörigen Lie-Gruppen

Lie-Gruppe Beispiel
Allgemeine lineare Gruppe
<math> \mathrm{GL} (n,K) </math>
<math>\mathfrak{gl}(n)= M_n(\mathbb R)</math>

<math>\mathrm{GL}(n)=\{X \in M_n(\mathbb R) \vert \det(X)\ne 0\}</math>.

Orthogonale Gruppe
<math> \mathrm{O} (n,K) </math>
<math>\mathfrak{o}(n)=\{X \in M_n(\mathbb R)\vert X^T=-X\}</math>

<math>\mathrm{O}(n)=\{X \in M_n(\mathbb R) \vert X^T=X^{-1}\}</math>

Unitäre Gruppe
<math> \mathrm{U} (n) </math>
<math>\mathfrak{u}(n)=\{X \in M_n(\mathbb C)\vert X^*=-X\}</math>

<math>\mathrm{U}(n)=\{X \in M_n(\mathbb C) \vert X^*=X^{-1}\}</math>

Spezielle unitäre Gruppe
<math> \mathrm{SU} (n) </math>
<math>\mathfrak{su}(2)=\{X \in M_2(\mathbb C) \vert X^*=-X, \operatorname{tr}(X)=0 \}</math> wird von <math>\exp</math> surjektiv auf
<math>\mathrm{SU}(2)=\{A \in M_2(\mathbb C) \vert A^*=A^{-1}, \det(A)=1 \}</math> abgebildet.
Spezielle orthogonale Gruppe
<math> \mathrm{SO} (n,K) </math>
<math>\mathfrak{so}(n,\mathbb R)=\mathfrak{o}(n,\mathbb R)=\{X \in M_n(\mathbb R) \vert X^T=-X \}</math> (schiefsymmetrische Matrizen)
wird von <math>\exp</math> surjektiv auf <math>\mathrm{SO}(n,\mathbb R)=\{A \in M_n(\mathbb R) \vert A^T=A^{-1}, \det(A)=1 \}</math> abgebildet.
Spezielle lineare Gruppe
<math> \mathrm{SL} (n,K) </math>
<math>\mathfrak{sl}(2,\mathbb C)</math> wird von <math>\exp</math> nicht surjektiv auf <math> \mathrm{SL}(2,\mathbb C) </math> abgebildet.
Notorisches Gegenbeispiel <math>\begin{pmatrix} -1 & a \\ 0 & -1 \end{pmatrix} \in \mathrm{SL}(2,\mathbb C)</math> mit <math>a \ne 0</math> liegt nicht im Bild von <math>\mathfrak{sl}(2,\mathbb C)</math>.

Aus dem letzten Beispiel ist ersichtlich, dass die Exponentialabbildung für die Erzeugung von Lie-Gruppen (je nach Lie-Algebra) im Allgemeinen nicht surjektiv ist.

Lineare Differentialgleichungen

Einer der Vorzüge des Matrixexponentials ist, dass man es benutzen kann, um Systeme von linearen gewöhnlichen Differentialgleichungen zu lösen, die z. B. für das Zustandsraummodell von dynamischen Übertragungssystemen verwendet werden. Aus Gleichung (1) oben folgt zum Beispiel, dass die Lösung des Anfangswertproblems

<math> \frac{d}{dt} y(t) = Ay(t), \quad y(t_0) = y_0</math>

mit einer quadratischen Matrix <math>A</math> durch

<math> y(t) = e^{A (t-t_0)} y_0 </math>

gegeben ist.

Das Matrixexponential kann auch zur Lösung der inhomogenen Gleichung

<math> \frac{d}{dt} y(t) = Ay(t) + z(t), \quad y(t_0) = y_0</math>,

verwendet werden. Beispiele findet man unten im Kapitel Anwendungen.

Für Differentialgleichungen der Form

<math> \frac{d}{dt} y(t) = A(t) \, y(t), \quad y(t_0) = y_0</math>

mit nicht-konstantem <math>A</math> gibt es im Allgemeinen keine geschlossenen Lösungen. Die Magnus-Reihe liefert jedoch eine allgemeine Lösung in Matrixschreibweise über die Matrix-Exponentialfunktion auch im Fall nicht-konstanter Koeffizienten (als unendliche Reihe des Exponenten).<ref name="Blanes">S. Blanes, F. Casas, J. A. Oteo, J. Ros: The Magnus expansion and some of its applications. (= Physics Reports. Band 470). Cornell University Library, 2009, OCLC 635162561.</ref>

Berechnung des Matrixexponentials

Taylor-Reihe

Die Exponentialfunktion der Matrix <math>A\in \mathbb{C}^{n\times n}</math> und <math>t\in\mathbb{R}</math> kann prinzipiell über ihre Taylor-Entwicklung berechnet werden:

<math>\exp(A t) = \sum_{k = 0}^{\infty} \frac{A^k t^k }{k!} = E + A t + \frac{A^2 t^2}{2} + \frac{A^3 t^3}{6} + \frac{A^4 t^4}{24} + \cdots </math>

Hierbei bezeichnet <math>k!</math> die Fakultät von <math>k</math>. Bei ausreichender Genauigkeit (Reihe ist absolut konvergent) soll die Reihe bei einer endlichen Zahl an Berechnungsschritten abbrechen. Je größer die Einträge der Matrix sind, desto mehr Glieder der Reihe müssen aber berechnet werden (z. B. für die Lösung der linearen DGL für einen großen Zeitschritt). Um den Lösungsalgorithmus dahingehend zu verbessern, kann man die Einträge der Matrix mittels der Rechenregel <math>e^{A t}=(e^{A t/m })^m</math> elegant skalieren ("Scaling & Squaring"-Methode). Ist die (natürliche-) Matrixnorm <math>\|A t\|</math> nicht zu groß, kann die Berechnung der Reihe auch über die Padé-Approximation erfolgen. Die Scaling & Squaring-Methode hat einen Aufwand der Größenordnung <math>\mathcal{O}(n^3)</math> (im Wesentlichen Matrizenmultiplikationen). Der Faktor von <math>n^3</math> ist abhängig von den Skalierungsparametern sowie insbesondere von der Matrixnorm.

Nilpotenter Fall

Eine Matrix <math>N</math> ist nilpotent, wenn <math>N^q = 0</math> für eine geeignete natürliche Zahl <math>q</math> gilt. In diesem Fall bricht die Reihenentwicklung von <math>e^N</math> nach einer endlichen Anzahl von Termen ab und das Matrixexponential kann als

<math>\exp(N) = E + N + \frac{1}{2}N^2 + \frac{1}{6}N^3 + \cdots + \frac{1}{(q-1)!}N^{q-1}</math>

berechnet werden.

Diagonalisierung der Matrix

Ist die Matrix <math>D</math> eine Diagonalmatrix

<math>D=\begin{pmatrix} a_1 & 0 & \ldots & 0 \\

0 & a_2 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & a_n \end{pmatrix}</math>,

dann kann man ihr Exponential ermitteln, indem man die gewöhnliche Exponentialfunktion auf jeden Eintrag der Hauptdiagonalen anwendet:

<math>e^D=\begin{pmatrix} e^{a_1} & 0 & \ldots & 0 \\

0 & e^{a_2} & \ldots & 0 \\

\vdots & \vdots & \ddots & \vdots \\

0 & 0 & \ldots & e^{a_n} \end{pmatrix}</math>.

Damit kann man auch das Exponential einer diagonalisierbaren Matrix <math>A</math> berechnen. Zur Diagonalisierung

<math>A = V D V^{-1}</math>

mit einer Diagonalmatrix <math>D</math> werden die zugehörige Eigenbasis <math>V</math> sowie die <math>n</math> Eigenwerte <math>\lambda_1, \ldots, \lambda_n</math> der Matrix <math>A</math> bestimmt. Für die Matrix-Exponentialfunktion folgt daraus

<math> \exp(A t) = V e^{D t}\, V^{-1 } = V \operatorname{diag} (e^{\lambda_1 t}, e^{\lambda_2 t},\dotsc,e^{\lambda_n t})\, V^{-1} </math>

mit der skalaren Exponentialfunktion <math>t \mapsto e^{\lambda_i t}</math>. Der Beweis folgt direkt aus der Taylor-Entwicklung der Exponentialfunktion.

Die Diagonalisierung der Matrix gehört, wie auch der QR-Algorithmus oder die Jordansche Normalform, zu den Matrix-Zerlegungsmethoden zur Berechnung der Exponentialfunktion. Die Diagonalisierung und der QR-Algorithmus haben dabei jeweils einen Aufwand der Größenordnung <math>\mathcal{O}(n^3)</math> und sind aber, im Vergleich zu Methoden auf Basis der Taylor-Entwicklung, unabhängig von <math>\|A t\|</math>. Der wesentliche Berechnungsaufwand (hier: Bestimmung der Eigenwerte und Eigenvektoren) ist zudem unabhängig von der Variablen <math>t</math>. Zur Lösung beispielsweise von linearen Differentialgleichungen für mehrere Zeitschritte <math>t</math> muss dieser Arbeitsaufwand also nur einmalig erbracht werden. Die Berechnung der weiteren Zeitschritte erfolgt bei der Methode Diagonalisierung durch einfache Matrizenmultiplikation und bei dem QR-Algorithmus liegt der Aufwand in der Größenordnung von nur noch <math>\mathcal{O}(n^2)</math>.

Beispiel 1

Es soll das Matrixexponential <math>e^{t A}</math> für die folgende Matrix berechnet werden:

<math>A = \begin{pmatrix} 0 & 1 \\

a_{2,1} & a_{2,2} \end{pmatrix}</math>. Hierzu wird die <math>(2 \times 2)</math>-Matrix <math>A</math> zunächst mittels der Eigenwerte und den Eigenvektoren diagonalisiert. Mit der Diagonalmatrix <math>D</math> und der Eigenbasis <math>V</math> folgt:

<math>\exp(A t) = V e^{D t}\, V^{-1 }= V \begin{pmatrix} e^{\lambda_1 t} & 0 \\

0& e^{\lambda_2 t} \end{pmatrix} V^{-1}</math>. Die Eigenwerte werden aus dem charakteristischen Polynom bestimmt zu

<math>\lambda_{1,2} =\frac{a_{2,2}}{2} \pm \sqrt{ \left( \frac{a_{2,2}}{2}\right)^2 +a_{2,1} }</math>.

Für die beiden Eigenvektoren bzw. die Eigenbasis gilt:

<math> V= \begin{pmatrix} 1 & 1 \\ \lambda_1 & \lambda_2 \end{pmatrix}~~~ </math>sowie <math>~~ V^{-1}= \frac{1}{\lambda_2 - \lambda_1} \begin{pmatrix} \lambda_2 & -1 \\ -\lambda_1 & 1 \end{pmatrix} </math>

Einsetzen für die Matrix-Exponentialfunktion liefert schließlich

<math> \exp(A t)= \frac{1}{\lambda_2 - \lambda_1} \begin{pmatrix} \lambda_2 e^{\lambda_1 t} - \lambda_1 e^{\lambda_2 t} & e^{\lambda_2 t} - e^{\lambda_1 t} \\

\lambda_1 \lambda_2 ( e^{\lambda_1 t} - e^{\lambda_2 t}) &\lambda_2 e^{\lambda_2 t} - \lambda_1 e^{\lambda_1 t} \end{pmatrix} </math> als geschlossene analytische Lösung.<ref name="Möller">T. Möller: Symbolic mathematics-based simulation of cylinder spaces for regenerative gas cycles. In: Int J Energy Environ Eng. Springer Berlin/Heidelberg, Feb. 2015. https://link.springer.com/article/10.1007/s40095-015-0163-3</ref>

Beispiel 2

Die Matrix-Exponentialfunktion

<math> \exp(A t)= \exp \left[ \begin{pmatrix} 3 & -4 \\

4 & -5 \end{pmatrix} t \right]= \begin{pmatrix} (1+4 t) e^{-t} & -4 t e^{-t} \\ 4 t e^{-t} & (1-4 t) e^{-t} \end{pmatrix}</math> kann explizit berechnet werden, jedoch ist die Matrix <math>A</math> selbst nicht diagonalisierbar. Die Matrix besitzt die beiden Eigenwerte <math>\lambda_{1,2}=-1</math>. Obwohl also der Eigenwert die algebraische Vielfachheit 2 hat, existiert nur ein linear unabhängiger Eigenvektor. Die Basis aus den Eigenvektoren

<math> V= \begin{pmatrix} a_{2,1} & a_{2,1} \\

\lambda_1- a_{1,1} & \lambda_2 - a_{1,1} \end{pmatrix} = \begin{pmatrix} -4 & -4 \\ -4 & -4 \end{pmatrix}</math> ist nicht invertierbar. Die Diskriminante des charakteristischen Polynoms

<math> D_2= \left( \frac{a_{1,1}-a_{2,2}}{2} \right)^2 + a_{1,2} \,a_{2,1}=\left( \frac{3-(-5)} {2} \right)^2-16 </math>

wird dabei immer null. In diesem Fall, also wenn gleiche Eigenwerte bzw. Eigenvektoren vorkommen, kann formell die Jordansche Normalform zur Transformation verwendet werden.

Splitting-Methode

Zerfällt das Minimalpolynom (bzw. das charakteristische Polynom) der Matrix <math>X</math> in Linearfaktoren (über <math>\Complex</math> ist das stets der Fall), dann kann <math>X</math> eindeutig in eine Summe

<math>X = A + N</math>

zerlegt werden, wobei

  • <math>A</math> diagonalisierbar ist,
  • <math>N</math> nilpotent ist und
  • <math>A</math> mit <math>N</math> kommutiert (d. h. <math>AN = NA</math>).

Damit kann man das Exponential von <math>X</math> berechnen, indem man es auf die vorgenannten Fälle reduziert: <math>e^X = e^{A+N} = e^A e^N</math>. Im letzten Schritt benötigt man die Kommutativität von <math>A</math> und <math>N</math>.

Verwendung der jordanschen Normalform

Eine weitere Methode ist die Verwendung der jordanschen Normalform von <math>X</math>, wobei auch die Splitting-Methode zum Einsatz kommt. Sei <math>J</math> die jordansche Normalform von <math>X</math> mit der Basiswechselmatrix <math>P</math>, dann gilt

<math>e^{X}=Pe^{J}P^{-1}.</math>

Wegen

<math>J=J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n)</math>

gilt

<math>\begin{align}

e^{J} & = \exp \big( J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n) \big) \\ & = \exp \big( J_{a_1}(\lambda_1) \big) \oplus \exp \big( J_{a_2}(\lambda_2) \big) \oplus\cdots\oplus \exp \big( J_{a_k}(\lambda_k) \big). \end{align}</math>

Daher muss man nur das Exponential eines Jordan-Blocks kennen. Nun ist jeder Jordan-Block von der Form

<math>J_{a}(\lambda) = \lambda\, E + N,</math>

wobei <math>N</math> eine spezielle nilpotente Matrix ist. Das Exponential des Jordan-Blocks ist also

<math>e^{\lambda E + N} = e^{\lambda}e^N.</math>

Beispiel

Man betrachte die Matrix

<math>B=\begin{pmatrix}

21 & 17 & 6 \\ -5 & -1 & -6 \\ 4 & 4 & 16 \end{pmatrix}</math>,

welche die jordansche Normalform

<math>J = P^{-1}BP = \begin{pmatrix}

4 & 0 & 0 \\ 0 & 16 & 1 \\ 0 & 0 & 16 \end{pmatrix}</math>

mit der Übergangsmatrix

<math>P=\begin{pmatrix}

-1 & 1 & \tfrac{5}{8} \\ 1 & -1 & -\tfrac{1}{8} \\ 0 & 2 & 0 \end{pmatrix}</math>

hat. Dann gelten

<math>J=J_1(4)\oplus J_2(16)</math>

und

<math>e^B = P e^{J} P^{-1} = P (e^{J_2(16)} \oplus e^{J_1(4)} ) P^{-1}</math>.

Somit ist

<math> \exp \left[ \begin{pmatrix} 16 & 0 \\

0 & 16 \end{pmatrix}+\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \right] = e^{16} E \cdot \left[\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} + {1 \over 2!}\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}+\cdots\right]=\begin{pmatrix} e^{16} & e^{16} \\ 0 & e^{16} \end{pmatrix}</math>.

Das Exponential einer 1×1-Matrix ist trivial. Mit <math>e^{J_1(4)} = e^4</math> folgt

<math>

\begin{align} \exp(B) & = P \exp(J) P^{-1} = P \begin{pmatrix} e^4 & 0 & 0 \\ 0 & e^{16} & e^{16} \\ 0 & 0 & e^{16} \end{pmatrix} P^{-1} \\[6pt] & = {1\over 4} \begin{pmatrix}

  13e^{16} - e^4 & 13e^{16} - 5e^4 & 2e^{16} - 2e^4 \\
  -9e^{16} + e^4 & -9e^{16} + 5e^4 & -2e^{16} + 2e^4 \\
  16e^{16}       & 16e^{16}        & 4e^{16}

\end{pmatrix}. \end{align} </math>

Die jordansche Normalform und daraus das Exponential zu berechnen, ist auf diesem Weg sehr mühsam. Meist reicht es, die Wirkung der Exponential-Matrix auf einige Vektoren zu berechnen.

Numerische Berechnung

Die Jordan-Normalform-Zerlegung ist numerisch instabil, da aufgrund der Gleitkommaarithmetik Rundungsfehler in die Eigenwerte eingeführt werden, die eine Gruppierung der Eigenwerte in Gruppen identischer Eigenwerte unmöglich macht. Daher werden in der Numerik andere Techniken zur Berechnung des Matrixexponentials verwendet. Zu den effektivsten verfügbaren Algorithmen gehören die Padé-Approximation mit Skalieren und Quadrieren (s. Berechnung mittels Taylorreihe) oder die Matrix-Zerlegungsmethoden wie die Diagonalisierung der Matrix. Bei großen Matrizen kann der Rechenaufwand auch reduziert werden, indem Krylowräume verwendet werden, deren Basisvektoren mit dem Arnoldi-Verfahren orthogonalisiert worden sind.

Explizite Formeln

Mittels der Diagonalisierung über die Eigenwerte und Eigenvektoren ist die Darstellung der Matrix-Exponentialfunktion einer <math>2 \times 2</math>-Matrix auch als explizite Formel möglich. Insbesondere der Umweg über die teils komplexen Eigenwerte ist damit nicht mehr notwendig:<ref name="Möller2">T. Möller: Simulation und konstruktive Optimierung der Wärmeübertrager regenerativer Gaskreisprozesse. Shaker Verlag Düren, Aug. 2022. https://www.shaker.de/shop/978-3-8440-8706-2</ref>

<math> \exp(A t)= \begin{pmatrix} \frac{a_{1,1}-a_{2,2}}{2} f(t)+f'(t) & a_{1,2} f(t) \\

a_{2,1} f(t) & \frac{a_{2,2}-a_{1,1}}{2} f(t)+f'(t) \end{pmatrix} e^{\frac{a_{1,1}+a_{2,2}}{2} t} </math> Für die Hilfsfunktion <math>f(t)</math> gilt in Abhängigkeit der reellen, komplexen, oder gleichen Eigenwerte (anhand der Diskriminante <math>D</math> des charakteristischen Polynoms):

<math>D=\left(\frac{a_{1,1}-a_{2,2}}{2} \right)^2 +a_{1,2} a_{2,1} </math> <math>f(t)</math> <math>f'(t)</math>
<math> >0 </math> <math> \frac{\sinh \left(\sqrt{D} t \right) }{\sqrt{D}} </math> <math> \cosh \left( \sqrt{D} t \right) </math>
<math> <0 </math> <math> \frac{\sin \left(\sqrt{|D|} t \right) }{\sqrt{|D|}} </math> <math> \cos \left( \sqrt{|D|} t \right) </math>
<math> =0 </math> <math> t </math> <math> 1 </math>

Putzer-Algorithmus

{{#if: Putzer-Algorithmus|{{#ifexist:Putzer-Algorithmus|

|{{#if: |{{#ifexist:{{{2}}}|

→ Haupt{{#if:|seite|artikel}}: [[{{{2}}}{{#if: ||{{{titel2}}}}}]]{{#if: |{{#ifexist:{{{3}}}| und [[{{{3}}}{{#if: ||{{{titel3}}}}}]]|}}|}}

|{{#if: |{{#ifexist:{{{3}}}|

→ Haupt{{#if:|seite|artikel}}: [[{{{3}}}{{#if: ||{{{titel3}}}}}]]

|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}

Eine weitere Möglichkeit, das Matrixexpontial zu berechnen, ist der Putzer-Algorithmus. Dabei definiert man bei gegebener Matrix <math>A\in \mathbb{C}^{n\times n}</math> und <math>t\in\mathbb{R}</math> rekursiv stetig-differenzierbare Funktion <math>p_k</math> und Matrizen <math>M_k</math>, so dass gilt:

<math>\exp(A t)=\sum_{k=1}^{n}p_k(t)M_{k-1}</math>

Die Lösung des Matrixexponentials einer <math>(n \times n)</math>-Matrix wird hierbei als Polynom erhalten. Die Berechnung hat dabei einen Aufwand der Größenordnung <math>\mathcal{O}(n^4)</math> (Berechnung der Eigenwerte sowie insbesondere <math>n</math> Matrizenmultiplikationen) und eignet sich daher eher nur für kleine Matrizen.

Anwendungen

Homogene lineare Differentialgleichungen

Das Matrixexponential kann für die Lösung eines Systems von linearen Differentialgleichungen verwendet werden. Eine Differentialgleichung der Form

<math>y' = C y</math>

hat die Lösung <math>e^{Ct}</math>. Wenn man den Vektor

<math> \mathbf{y}(t) = \begin{pmatrix} y_1(t) \\ \vdots \\ y_n(t) \end{pmatrix}</math>

betrachtet, dann kann man ein System von gekoppelten linearen Differentialgleichungen betrachten als

<math> \mathbf{y}'(t) = A\mathbf{y}(t)+\mathbf{b}</math>.

Wenn man den Integrationsfaktor <math>e^{-tA}</math> ansetzt und auf beiden Seiten multipliziert, erhält man

<math>e^{-tA}\mathbf{y}'(t)-e^{-tA}A\mathbf{y} = e^{-tA}\mathbf{b}</math>,

also

<math>\frac{\mathrm{d}}{\mathrm{d}t}(e^{-tA}\mathbf{y}) = e^{-tA}\mathbf{b}</math>.

Wenn man <math>e^{tA}</math> berechnet, erhält man eine Lösung des Differentialgleichungssystems.

Beispiel (homogen)

Gegeben sei das folgende Differentialgleichungssystem

<math>\begin{align}

y_1' &= 3y_1 - y_2, \\ y_2' &= y_1 + y_2. \end{align}</math>

Es lässt sich schreiben als <math>y'(t) = A y(t)</math> mit der Koeffizientenmatrix

<math>A=\begin{pmatrix}

3 & -1 \\ 1 & 1 \end{pmatrix}</math>.

Damit ergibt sich das zugehörige Matrixexponential zu

<math>e^{tA}= e^{2t} \begin{pmatrix}

1+t & -t \\ t & 1-t\end{pmatrix}</math>.

Als allgemeine Lösung des Differentialgleichungssystems erhält man somit

<math>\begin{pmatrix} y_1(t) \\ y_2(t) \end{pmatrix} = C_1 e^{2t} \begin{pmatrix} 1+t \\ t \end{pmatrix}+C_2 e^{2t} \begin{pmatrix} -t\\ 1-t \end{pmatrix}</math>.

Inhomogener Fall – Variation der Konstanten

Für den inhomogenen Fall kann man die Methode der Variation der Konstanten benutzen. Es wird eine Lösung der Form <math>\mathbf{y}_p(t) = e^{tA}\mathbf{z}(t)</math> gesucht:

<math>\mathbf{y}_p'(t) = (e^{tA})'\mathbf{z}(t)+e^{tA}\mathbf{z}'(t) = Ae^{tA}\mathbf{z}(t)+e^{tA}\mathbf{z}'(t) = A\mathbf{y}_p(t)+e^{tA}\mathbf{z}'(t)</math>

Um die Lösung <math>\mathbf{y}_p</math> zu ermitteln, fordert man

<math>e^{tA}\mathbf{z}'(t) = \mathbf{b}(t)</math>,

also

<math>\mathbf{z}'(t) = e^{-tA} \mathbf{b}(t)</math>

und daher

<math>\mathbf{z}(t) = \mathbf{z}(t_0) + \int_{t_0}^t e^{-uA}\mathbf{b}(u)\,du</math>.

Damit ergibt sich

<math>\mathbf{y}_p(t) = e^{t A} \mathbf{z}(t_0) + e^{tA}\int_{t_0}^t e^{-uA}\mathbf{b}(u)\,du = e^{(t - t_0) A} \, \mathbf{y}_0 + \int_{t_0}^t e^{(t-u)A}\mathbf{b}(u)\,du</math>,

wobei die Anfangsbedingung <math>\mathbf{y}_p(t_0) = \mathbf{y}_0</math> angenommen worden ist.

Beispiel (inhomogen)

Gegeben sei das Differentialgleichungssystem

<math>\begin{align}

y_1' &= 3y_1 - y_2 - 2e^t, \\ y_2' &= y_1 + y_2 - e^t. \end{align}</math>

Mit der Matrix <math>A</math> von oben schreibt sich das System

<math>y'(t) = Ay(t) + b(t)</math>

mit

<math>b(t)=e^{t}\begin{pmatrix}-2 \\ -1\end{pmatrix}</math>.

Die allgemeine Lösung der homogenen Gleichung wurde bereits oben berechnet. Die Summe aus homogenen und speziellen Lösungen ergibt die Lösung für das inhomogene Problem. Man muss jetzt nur noch eine spezielle Lösung <math>y_p(t)</math> finden (über die Variation der Konstanten). Von der Gleichung oben erhält man:

<math>y_p(t) = e^{tA}\int_0^t e^{-u A} b(u) \,du</math>,

also

<math>y_p(t) = e^{2t} \begin{pmatrix}

1+t & -t \\ t & 1-t\end{pmatrix} \int_0^t e^{-2u} \begin{pmatrix} 1-u & u \\ -u & 1+u\end{pmatrix} \begin{pmatrix} -2 e^u \\ - e^u \end{pmatrix}\,du = \begin{pmatrix} -e^{2t}(1+t) + e^t \\ -t e^{2t}\end{pmatrix}</math>.

Tensorproduktformel und weitere Anwendung in der Physik

Die Exponentialabbildung der Kroneckersumme <math>\overline{\oplus }</math> zweier quadratischer Matrizen <math>A, B</math> (nicht mit der direkten Summe zu verwechseln) ist das Tensorprodukt bzw. Kronecker-Produkt <math>\otimes</math> der Exponentialabbildungen der einzelnen Matrizen:<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref>{{#if:|{{#iferror: {{#iferror:{{#invoke:Vorlage:FormatDate|Execute}}|}}| |}}}}{{#if:Eric Weisstein|Eric Weisstein: }}{{#if:|{{#if:Kronecker Sum|[{{#invoke:Vorlage:Internetquelle|archivURL|1={{#invoke:URLutil|getNormalized|1={{{archiv-url}}}}}}} {{#invoke:Vorlage:Internetquelle|TitelFormat|titel=Kronecker Sum}}]{{#if:| ({{{format}}})}}{{#if:| {{#invoke:Vorlage:Internetquelle|Endpunkt|titel=}}}}}}|{{#if:https://mathworld.wolfram.com/RegularTetrahedron.html%7C{{#if:{{#invoke:TemplUtl%7Cfaculty%7C}}%7C{{#invoke:Vorlage:Internetquelle%7CTitelFormat%7Ctitel={{#invoke:WLink%7CgetEscapedTitle%7C1=Kronecker Sum}}}}|[{{#invoke:URLutil|getNormalized|1=https://mathworld.wolfram.com/RegularTetrahedron.html}} {{#invoke:Vorlage:Internetquelle|TitelFormat|titel={{#invoke:WLink|getEscapedTitle|1=Kronecker Sum}}}}]}}{{#if:| ({{{format}}}{{#if:Wolfram MathWorld{{#if: 2026-03-10 | {{#if:{{#invoke:TemplUtl|faculty|}}||1}}}}

          | )
          | {{#if:{{#ifeq:de|de||{{#if:|1}}}}| ; 
              | )}}}}}}{{#if:| {{#invoke:Vorlage:Internetquelle|Endpunkt|titel=}}}}}}}}{{#if:https://mathworld.wolfram.com/RegularTetrahedron.html%7C{{#if:{{#invoke:URLutil%7CisResourceURL%7C1=https://mathworld.wolfram.com/RegularTetrahedron.html}}%7C%7C}}}}{{#if:Kronecker Sum|{{#if:{{#invoke:WLink|isValidLinktext|1=Kronecker Sum|lines=0}}||}}}}{{#if: Wolfram MathWorld| In: {{#invoke:Vorlage:Internetquelle|TitelFormat|titel=Wolfram MathWorld}}}}{{#if: | {{#if: |,|{{#if: 2026-03-10 | {{#if:{{#invoke:TemplUtl|faculty|}}|;|,}}}}}}}}{{#if: | {{#if:{{#invoke:DateTime|format|{{{datum}}}|noerror=1}}
            |{{#invoke:DateTime|format|{{{datum}}}|T._Monat JJJJ}}
            |{{#invoke:TemplUtl|failure|1=Fehler bei Vorlage:Internetquelle, datum={{{datum}}}|class=Zitationswartung}} }}{{#if: |,|{{#if: 2026-03-10 | {{#if:{{#invoke:TemplUtl|faculty|}}|;|,}}}}}}}}{{#if: | S. {{{seiten}}}{{#if: |,|{{#if: 2026-03-10 | {{#if:{{#invoke:TemplUtl|faculty|}}|;|,}}}}}}}}{{#if: {{#invoke:TemplUtl|faculty|}}| {{#if:|{{#if:|archiviert|ehemals}}|{{#if:|Archiviert|Ehemals}}}} {{#if:|vom|im}} Vorlage:Referrer{{#if:{{#invoke:TemplUtl|faculty|}}| (nicht mehr online verfügbar)}}{{#if: | am {{#iferror: {{#iferror:{{#invoke:Vorlage:FormatDate|Execute}}|}}|{{{archiv-datum}}}{{#if:815895||(?)}}}}}}{{#if: 2026-03-10|;}}}}{{#if: 2026-03-10| {{#if:{{#invoke:TemplUtl|faculty|}}|abgerufen|Abgerufen}} {{#switch: {{#invoke:Str|len| {{#invoke:DateTime|format| 2026-03-10 |ISO|noerror=1}} }}
       |4=im Jahr
       |7=im
       |10=am
       |#default={{#invoke:TemplUtl|failure|1=Fehler bei Vorlage:Internetquelle, abruf=2026-03-10|class=Zitationswartung}} }} {{#invoke:DateTime|format|2026-03-10|T._Monat JJJJ}}
    | {{#invoke:TemplUtl|failure|1=Vorlage:Internetquelle | abruf=2026-MM-TT ist Pflichtparameter}} }}{{#if:{{#ifeq:de|de||{{#if:|1}}}}|{{#if:Wolfram MathWorld{{#if: 2026-03-10 | {{#if:{{#invoke:TemplUtl|faculty|}}||1}}}}
       |  (
       | {{#if: | |  (}}
       }}{{#ifeq:{{#if:de|de|de}}|de||
          {{#invoke:Multilingual|format|{{{sprache}}}|slang=!|split=[%s,]+|shift=m|separator=, }}}}{{#if: |{{#ifeq:{{#if:de|de|de}}|de||, }}{{{kommentar}}}}})}}{{#if: {{#if: 2026-03-10 | {{#if:{{#invoke:TemplUtl|faculty|}}||1}} }}|{{#if: |: {{
 #if: 
 | {{
     #ifeq: {{#if:{{#if: {{#invoke:templutl|faculty|}}|de-ch|de}}|{{#if: {{#invoke:templutl|faculty|}}|de-ch|de}}|de}} | de
     | Vorlage:Str trim
     | {{#invoke:Vorlage:lang|flat}}
     }}
 | {{#ifeq: {{#if:{{#if: {{#invoke:templutl|faculty|}}|de-ch|de}}|{{#if: {{#invoke:templutl|faculty|}}|de-ch|de}}|de}} | de
     | „Vorlage:Str trim“
     | {{#invoke:Text|quote
         |1={{#if: 
              | {{#invoke:Vorlage:lang|flat}}
              | {{#invoke:Vorlage:lang|flat}} }}
         |2={{#if: {{#invoke:TemplUtl|faculty|}}|de-CH|de}}
         |3=1}} }}

}}{{#if:

   |  (<templatestyles src="Person/styles.css" />{{#if:  | :  }}{{#if:  | , deutsch: „“ }})
   | {{#if: 
       |  ({{#if:  | , deutsch: „“ }})
       | {{#if:  |  (deutsch: „“) }}
 }}

}}{{#if: {{{zitat}}}

   | {{#if: 
       | {{#if: {{{zitat}}}
           | Vorlage:": Text= und 1= gleichzeitig, bzw. Pipe zu viel }} }}
   | Vorlage:": Text= fehlt }}{{#if:  | {{#if: {{#invoke:Text|unstrip|{{{ref}}}}}
             | Vorlage:": Ungültiger Wert: ref=
             | {{{ref}}} }}

}}|.{{#if:{{#invoke:TemplUtl|faculty|}}|{{#if:||{{#ifeq: | JaKeinHinweis |{{#switch:

   |0|=Vorlage:Toter Link/Core{{#if: https://mathworld.wolfram.com/RegularTetrahedron.html
       | {{#if:  | [1] }} (Seite {{#switch:|no|0|=|dauerhaft }}nicht mehr abrufbar{{#if:  | , festgestellt im {{#invoke:DateTime|format||F Y}} }}. Suche im Internet Archive ){{#if: 
           | {{#if: deadurlausgeblendet | | Vorlage:Toter Link/archivebot }}
         }}
       |   (Seite {{#switch:|no|0|=|#default=dauerhaft }}nicht mehr abrufbar{{#if:  | , festgestellt im {{#invoke:DateTime|format||F Y}} }}.)
     }}{{#switch: 
         |no|0|=
         |#default={{#if:  ||  }}
    }}{{#invoke:TemplatePar|check
         |opt      = inline= url= text= datum= date= archivebot= bot= botlauf= fix-attempted= checked=
         |cat      = Wikipedia:Vorlagenfehler/Vorlage:Toter Link
         |errNS    = 0
         |template = Vorlage:Toter Link
         |format   = 
         |preview  = 1
    }}{{#if: https://mathworld.wolfram.com/RegularTetrahedron.html
      | {{#if:{{#invoke:URLutil|isWebURL|https://mathworld.wolfram.com/RegularTetrahedron.html}}
          || {{#if:  ||  }} 
        }}
      | {{#if: 
           | {{#if:  ||  }}
           | {{#if:  ||  }}
        }}
    }}{{#if: 
       | {{#if:{{#invoke:DateTime|format||F Y|noerror=1}}
             || {{#if:  ||  }} 
         }}
    }}{{#switch: deadurl
         |checked|deadurl|= 
         |#default=  {{#if:  ||  }}
    }}|#default= https://wiki-de.moshellshocker.dns64.de/index.php?title=Wikipedia:Defekte_Weblinks&dwl=https://mathworld.wolfram.com/RegularTetrahedron.html Die nachstehende Seite ist {{#switch:|no|0|=|dauerhaft }}nicht mehr abrufbar]{{#if:  | , festgestellt im {{#invoke:DateTime|format||F Y}} }}. (Suche im Internet Archive. )  {{#if: 
            | {{#if: deadurlausgeblendet | | Vorlage:Toter Link/archivebot }}
         }}Vorlage:Toter Link/Core{{#switch: 
          |no|0|=
          |#default= {{#if:  ||  }}
        }}{{#invoke:TemplatePar|check
         |all      = inline= url=
         |opt      = datum= date= archivebot= bot= botlauf= fix-attempted= checked=
         |cat      = Wikipedia:Vorlagenfehler/Vorlage:Toter Link
         |errNS    = 0
         |template = Vorlage:Toter Link
         |format   = 
         |preview  = 1
       }}{{#if: https://mathworld.wolfram.com/RegularTetrahedron.html
       | {{#if:{{#invoke:URLutil|isWebURL|https://mathworld.wolfram.com/RegularTetrahedron.html}}
          || {{#if:  ||  }} 
        }}
    }}{{#if: 
         | {{#if:{{#invoke:DateTime|format||F Y|noerror=1}}
             || {{#if:  ||  }} 
           }}
    }}{{#switch: deadurl
         |checked|deadurl|= 
         |#default=  {{#if:  ||  }}
    }}[https://mathworld.wolfram.com/RegularTetrahedron.html }}|{{#switch: 
   |0|=Vorlage:Toter Link/Core{{#if: https://mathworld.wolfram.com/RegularTetrahedron.html
       | {{#if:  | [2] }} (Seite {{#switch:|no|0|=|dauerhaft }}nicht mehr abrufbar{{#if:  | , festgestellt im {{#invoke:DateTime|format||F Y}} }}. Suche im Internet Archive ){{#if: 
           | {{#if:  | | Vorlage:Toter Link/archivebot }}
         }}
       |   (Seite {{#switch:|no|0|=|#default=dauerhaft }}nicht mehr abrufbar{{#if:  | , festgestellt im {{#invoke:DateTime|format||F Y}} }}.)
     }}{{#switch: 
         |no|0|=
         |#default={{#if:  ||  }}
    }}{{#invoke:TemplatePar|check
         |opt      = inline= url= text= datum= date= archivebot= bot= botlauf= fix-attempted= checked=
         |cat      = Wikipedia:Vorlagenfehler/Vorlage:Toter Link
         |errNS    = 0
         |template = Vorlage:Toter Link
         |format   = 
         |preview  = 1
    }}{{#if: https://mathworld.wolfram.com/RegularTetrahedron.html
      | {{#if:{{#invoke:URLutil|isWebURL|https://mathworld.wolfram.com/RegularTetrahedron.html}}
          || {{#if:  ||  }} 
        }}
      | {{#if: 
           | {{#if:  ||  }}
           | {{#if:  ||  }}
        }}
    }}{{#if: 
       | {{#if:{{#invoke:DateTime|format||F Y|noerror=1}}
             || {{#if:  ||  }} 
         }}
    }}{{#switch: 
         |checked|deadurl|= 
         |#default=  {{#if:  ||  }}
    }}|#default= https://wiki-de.moshellshocker.dns64.de/index.php?title=Wikipedia:Defekte_Weblinks&dwl=https://mathworld.wolfram.com/RegularTetrahedron.html Die nachstehende Seite ist {{#switch:|no|0|=|dauerhaft }}nicht mehr abrufbar]{{#if:  | , festgestellt im {{#invoke:DateTime|format||F Y}} }}. (Suche im Internet Archive. )  {{#if: 
            | {{#if:  | | Vorlage:Toter Link/archivebot }}
         }}Vorlage:Toter Link/Core{{#switch: 
          |no|0|=
          |#default= {{#if:  ||  }}
        }}{{#invoke:TemplatePar|check
         |all      = inline= url=
         |opt      = datum= date= archivebot= bot= botlauf= fix-attempted= checked=
         |cat      = Wikipedia:Vorlagenfehler/Vorlage:Toter Link
         |errNS    = 0
         |template = Vorlage:Toter Link
         |format   = 
         |preview  = 1
       }}{{#if: https://mathworld.wolfram.com/RegularTetrahedron.html
       | {{#if:{{#invoke:URLutil|isWebURL|https://mathworld.wolfram.com/RegularTetrahedron.html}}
          || {{#if:  ||  }} 
        }}
    }}{{#if: 
         | {{#if:{{#invoke:DateTime|format||F Y|noerror=1}}
             || {{#if:  ||  }} 
           }}
    }}{{#switch: 
         |checked|deadurl|= 
         |#default=  {{#if:  ||  }}
    }}[https://mathworld.wolfram.com/RegularTetrahedron.html }} }}}}}}}}}}{{#if:|
        {{#invoke:Vorlage:Internetquelle|archivBot|stamp={{{archiv-bot}}}|text={{#if:|Vorlage:Webarchiv/archiv-bot}}

}}}}{{#invoke:TemplatePar|check |all= url= titel= |opt= autor= hrsg= format= sprache= titelerg= werk= seiten= datum= abruf= zugriff= abruf-verborgen= archiv-url= archiv-datum= archiv-bot= kommentar= zitat= AT= CH= offline= |cat= {{#ifeq: 0 | 0 | Wikipedia:Vorlagenfehler/Vorlage:Internetquelle}} |template= Vorlage:Internetquelle |format=0 |preview=1 }}</ref>

<math>A \,{\overline {\oplus }}\, B = A \otimes \mathrm{I} _{m}+\mathrm{I} _{n}\otimes B </math>
<math>\exp{\left(A \,{\overline {\oplus }}\, B \right)}= \exp(A)\,\otimes\,\exp(B)</math>

Hier wird angenommen, dass <math>A, B</math> Dimensionen <math>n, m</math> haben, und <math>\mathrm{I} _{k}</math> bezeichnet die <math>k</math>-dimensionale Einheitsmatrix. Die einfache Form folgt aus dem kommutieren der Summanden in der Kroneckersumme.

Anwendung findet diese Formel in der Darstellungstheorie der direkten Summe von Lie-Algebren, wo <math> [A \,{\overline {\oplus }}\, B, C \,{\overline {\oplus }}\, D] = [A, C] \,{\overline {\oplus }}\, [B, D] </math>, als auch in der physikalischen Anwendung. Hier taucht das Tensorprodukt in der Quantenmechanik nichtwechselwirkender Systeme auf, wo die Zeitentwicklung, die über die Exponentialabbildung gegeben ist, der einzelnen Konstituenten folglich unabhängig voneinander verläuft, sowie bei der Von-Neumann-Entropie, wo dieses Resultat nach Umkehr (<math> \log(A)\,{\overline {\oplus }}\,\log(B) = \log{\left(A \otimes B \right)} </math>) genutzt werden kann, um die Additivität der Entropie für unabhängige Systeme zu zeigen. Im ersten physikalischen Anwendungsfall ist die Existenz der Exponentialabbildung für Hamiltonoperatoren, im zweiten Fall für Dichtematrizen relevant.

Siehe auch

Literatur

  • Roger A. Horn, Charles R. Johnson: Topics in Matrix Analysis. Cambridge University Press, 1991, ISBN 0-521-46713-6 (englisch).
  • {{#invoke:Vorlage:Literatur|f}}
  • V. I. Arnolʹd: Gewöhnliche Differentialgleichungen. Springer-Verlag, Berlin / New York 1980, ISBN 3-540-09216-1.

Einzelnachweise

<references />