Orthonormalbasis
Eine Orthonormalbasis (ONB) oder ein vollständiges Orthonormalsystem (VONS) ist in den mathematischen Gebieten lineare Algebra und Funktionalanalysis eine Menge von Vektoren aus einem Vektorraum mit Skalarprodukt (Innenproduktraum), welche auf die Länge eins normiert und zueinander orthogonal (daher Ortho-normal-basis) sind und deren lineare Hülle dicht im Vektorraum liegt. Im endlichdimensionalen Fall ist dies eine Basis des Vektorraums. Im unendlichdimensionalen Fall handelt es sich nicht um eine Vektorraumbasis im Sinn der linearen Algebra.
Verzichtet man auf die Bedingung, dass die Vektoren auf die Länge eins normiert sind, so spricht man von einer Orthogonalbasis. Jede Orthogonalbasis lässt sich durch Normierung in eine Orthonormalbasis überführen.
Der Begriff der Orthonormalbasis ist sowohl im Fall endlicher Dimension als auch für unendlichdimensionale Räume, insbesondere Hilberträume, von großer Bedeutung.
Endlichdimensionale Räume
Im Folgenden sei <math>V</math> ein endlichdimensionaler Innenproduktraum, das heißt, ein Vektorraum über <math>\R</math> oder <math>\Complex</math> mit Skalarprodukt <math>\langle{\cdot},{\cdot}\rangle</math>. Im komplexen Fall wird dabei vorausgesetzt, dass das Skalarprodukt linear im zweiten Argument und semilinear im ersten ist, also
- <math>\lambda \langle v, w \rangle = \langle \bar \lambda v, w \rangle = \langle v, \lambda w \rangle</math>
für alle Vektoren <math>v,w \in V</math> und alle <math>\lambda \in \Complex</math>. Mit <math>\|{\cdot} \| = \sqrt{\langle{\cdot},{\cdot}\rangle}</math> wird die durch das Skalarprodukt induzierte Norm bezeichnet.
Definition und Existenz
Unter einer Orthonormalbasis eines <math>n</math>-dimensionalen Innenproduktraums <math>V</math> versteht man eine Basis <math>B = \{b_1,\ldots,b_n\}</math> von <math> V </math>, die ein Orthonormalsystem ist, das heißt:
- Jeder Basisvektor hat die Norm eins:
- <math>\|b_i\| = \sqrt {\langle b_i, b_i \rangle} = 1</math> für alle <math>i\in\{1,\ldots,n\}</math>.
- Die Basisvektoren sind paarweise orthogonal:
- <math>\langle b_i, b_j \rangle = 0</math> für alle <math>i,j \in\{1,\ldots,n\}</math> mit <math>i \neq j</math>.
Mithilfe des Kronecker-Deltas lassen sich alle definierenden Gleichungen in einer einzigen Gleichung zusammenfassen:<ref>{{#invoke:Vorlage:Literatur|f}}</ref>
- <math>\langle b_i, b_j \rangle=\delta_{ij} = \begin{cases}
1 & \text{falls} \quad i = j, \\
0 & \text{falls} \quad i \neq j.
\end{cases}</math>
Jeder endlichdimensionale Vektorraum mit Skalarprodukt besitzt eine Orthonormalbasis. Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsverfahrens lässt sich aus jeder Basis eine Orthonormalbasis erzeugen.
Da Orthonormalsysteme stets linear unabhängig sind, bildet in einem <math>n</math>-dimensionalen Innenproduktraum ein Orthonormalsystem aus <math>n</math> Vektoren bereits eine Orthonormalbasis.
Händigkeit der Basis
Gegeben sei eine geordnete Orthonormalbasis <math>B=({b}_{1},\ldots,{b}_{n}) </math> von <math>V </math>. Dann ist die Matrix
- <math>Q=\begin{pmatrix}{b}_1 & {b}_2& \ldots & {b}_{n}\end{pmatrix} </math>
gebildet aus den als Spaltenvektoren notierten Vektoren <math>{b}_i </math> orthogonal. Im Fall reeller Vektorräume muss dann die Determinante +1 oder −1 sein. Falls <math>\operatorname{det}(Q)=+1 </math> bilden die Vektoren <math>{b}_1,\ldots,{b}_{n} </math> ein Rechtssystem.
Beispiele
- Beispiel 1
- Die Standardbasis des <math>\R^3</math>, bestehend aus den Vektoren
- <math>\vec i = \vec e_1 = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix},\ \vec j = \vec e_2 = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix},\ \vec k =\vec e_3 = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix},</math>
- ist eine Orthonormalbasis des dreidimensionalen euklidischen Vektorraums <math>\mathbb{R}^3</math> (ausgestattet mit dem Standardskalarprodukt): Sie ist eine Basis des <math>\mathbb{R}^3</math>, jeder dieser Vektoren hat die Länge 1, und je zwei dieser Vektoren stehen senkrecht aufeinander, denn ihr Skalarprodukt ist 0.
- Allgemeiner ist im Koordinatenraum <math>\R^n</math> bzw. <math>\Complex^n</math>, versehen mit dem Standardskalarprodukt, die Standardbasis <math>\{e_1, \dots, e_n\}</math> eine Orthonormalbasis.
- Beispiel 2
- Die zwei Vektoren
- <math>\vec b_1 = \begin{pmatrix} 3 /5 \\ 4 /5 \end{pmatrix}</math> und <math>\vec b_2 = \begin{pmatrix} -4/ 5 \\ 3/ 5 \end{pmatrix}</math>
- bilden in <math>\R^2</math> mit dem Standardskalarprodukt ein Orthonormalsystem und daher auch eine Orthonormalbasis von <math>\R^2</math>.
Koordinatendarstellung bezüglich einer Orthonormalbasis
Vektoren
Ist <math>B = \{b_1, \dots, b_n\}</math> eine Orthonormalbasis von <math>V</math>, so lassen sich die Koordinaten eines Vektors <math>v \in V</math> bezüglich dieser Basis besonders leicht als Orthogonalprojektionen berechnen. Hat <math>v</math> bezüglich der Basis <math>B</math> die Darstellung
- <math>v = v_1 b_1 + \dots + v_n b_n = \sum_{i=1}^n v_i b_i,</math>
so gilt
- <math>v_i =\langle b_i, v\rangle</math> für <math>i=1,\dots,n</math>
denn
- <math>\langle b_i, v \rangle=
\left\langle b_i,\sum_{j=1}^n b_j v_j\right\rangle=
\sum_{j=1}^n\left\langle b_i,b_j v_j\right\rangle =
\sum_{j=1}^n\left\langle b_i,b_j\right\rangle v_j=
\sum_{j=1 \atop j\neq i}^n \underbrace{\left\langle b_i,b_j\right\rangle}_{0} v_j + \left\langle b_i,b_i\right\rangle v_i=v_i </math>
und damit
- <math>v = \sum_{i=1}^n \left\langle b_i, v\right\rangle b_i.</math>
Im Beispiel 2 oben gilt für den Vektor <math>\vec v = \begin{pmatrix} 2 \\ 7 \end{pmatrix}</math>:
- <math>\left\langle \vec b_1, \vec v \right\rangle = \frac 35 \cdot 2 + \frac 45 \cdot 7
= \frac {34}5</math> und
- <math>\left\langle \vec b_2, \vec v \right\rangle = -\frac 45 \cdot 2 + \frac 35 \cdot 7
= \frac{13}5</math> und damit
- <math> \vec v = \frac{34}5 \,\vec b_1 + \frac{13}5 \,\vec b_2 =
\frac{34}5 \, \begin{pmatrix} \tfrac 3 5 \\[1ex] \tfrac 4 5 \end{pmatrix} + \frac{13}5 \, \begin{pmatrix} -\tfrac {4} 5 \\[1ex] \tfrac 3 5 \end{pmatrix}.</math>
Das Skalarprodukt
In Koordinaten bezüglich einer Orthonormalbasis hat jedes Skalarprodukt die Form des Standardskalarprodukts. Genauer:
Ist <math>B = \{b_1, \dots, b_n\}</math> eine Orthonormalbasis von <math>V</math> und haben die Vektoren <math>v</math> und <math>w</math> bezüglich <math>B</math> die Koordinatendarstellung <math>v = v_1 b_1 + \dots + v_n b_n</math> und <math>w = w_1 b_1 + \dots + w_n b_n</math>, so gilt
- <math>\langle v, w \rangle = v_1 w_1 + \dots + v_n w_n</math>
im reellen Fall, bzw.
- <math>\langle v, w \rangle = \bar v_1 w_1 + \dots + \bar v_n w_n</math>
im komplexen Fall.
Orthogonale Abbildungen
Ist <math>f \colon V \to V</math> eine orthogonale (im reellen Fall) bzw. eine unitäre Abbildung (im komplexen Fall) und ist <math>B</math> eine Orthonormalbasis von <math>V</math>, so ist die Darstellungsmatrix von <math>f</math> bezüglich der Basis <math>B</math> eine orthogonale bzw. eine unitäre Matrix.
Bezüglich beliebiger Basen ist diese Aussage falsch.
Unendlichdimensionale Räume
Definition
Sei <math>(V, \langle\cdot,\cdot\rangle)</math> ein Prähilbertraum und sei <math>\|\cdot \| = \sqrt{\langle\cdot,\cdot\rangle}</math> die durch das Skalarprodukt induzierte Norm. Eine Teilmenge <math>S \subset V</math> heißt Orthonormalsystem, falls <math>\|e\| = 1</math> und <math>\langle e , f \rangle = 0</math> für alle <math>e , f \in S</math> mit <math>e \neq f</math> gilt.
Ein Orthonormalsystem, dessen lineare Hülle dicht im Raum liegt, heißt Orthonormalbasis oder Hilbertbasis des Raums.
Es ist zu beachten, dass im Sinne dieses Abschnitts, im Gegensatz zur endlichen Dimension, eine Orthonormalbasis keine Hamelbasis, also keine Basis im Sinn der linearen Algebra ist. Das heißt, ein Element aus <math>V</math> lässt sich im Allgemeinen nicht als Linearkombination aus endlich vielen Elementen aus <math> S </math> darstellen, sondern nur mit abzählbar unendlich vielen, also als unbedingt konvergente Reihe.
Ein Orthonormalsystem <math>S=(e_n)_{n\in\N}</math> heißt vollständig, wenn für alle <math>x\in V</math> gilt
- <math>\lim_{n\to\infty}\Vert x-\sum_{k=0}^n \langle x,e_k\rangle e_k\Vert=0</math>.
Charakterisierung
Für einen Prähilbertraum <math>H</math> sind folgende Aussagen äquivalent:
- <math>S\subset H</math> ist eine Orthonormalbasis.
- <math>S</math> ist ein Orthonormalsystem und es gilt die parsevalsche Gleichung:
- <math>\|x\|^2=\sum_{v\in S}|\langle x,v\rangle|^2</math> für alle <math>x \in H</math>.
Ist <math>H</math> sogar vollständig, also ein Hilbertraum, ist dies zusätzlich äquivalent zu:
- Das orthogonale Komplement <math>S^\perp</math> von <math>S</math> ist der Nullraum, denn allgemein gilt für eine Teilmenge <math>T</math>, dass <math>{T^\perp}^\perp=\overline{\operatorname{span}(T)}</math>.
- Konkreter: Es gilt genau dann <math>x=0</math>, wenn für alle <math>v\in S</math> das Skalarprodukt <math>\langle x,v\rangle=0</math> ist.
- <math>S</math> ist ein bezüglich der Inklusion maximales Orthonormalsystem, d. h. jedes Orthonormalsystem, das <math>S</math> enthält, ist gleich <math>S</math>. Wäre ein maximales <math>S</math> kein Orthonormalsystem, so existierte ein Vektor im orthogonalen Komplement, normierte man dieses und fügte es zu <math>S</math> hinzu, erhielte man wiederum ein Orthonormalsystem.
Existenz
Mit dem Lemma von Zorn lässt sich zeigen, dass jeder Hilbertraum <math>H</math> eine Orthonormalbasis besitzt: Man betrachte die Menge aller Orthonormalsysteme in <math>H</math> mit der Inklusion als partieller Ordnung. Diese ist nichtleer, da die leere Menge ein Orthonormalsystem ist. Jede aufsteigende Kette solcher Orthonormalsysteme bezüglich der Inklusion ist durch die Vereinigung nach oben beschränkt: Denn wäre die Vereinigung kein Orthonormalsystem, so enthielte sie einen nicht normierten oder zwei verschiedene nicht orthogonale Vektoren, die bereits in einem der vereinigten Orthonormalsysteme hätten vorkommen müssen. Nach dem Lemma von Zorn existiert somit ein maximales Orthonormalsystem – eine Orthonormalbasis. Statt aller Orthonormalsysteme kann man auch nur die Orthonormalsysteme, die ein gegebenes Orthonormalsystem enthalten, betrachten. Dann erhält man analog, dass jedes Orthonormalsystem zu einer Orthogonalbasis ergänzt werden kann.
Alternativ lässt sich das Gram-Schmidt-Verfahren auf <math>H</math> oder eine beliebige dichte Teilmenge anwenden und man erhält eine Orthonormalbasis.
Jeder separable Prähilbertraum besitzt eine Orthonormalbasis. Hierfür wähle man eine (höchstens) abzählbare dichte Teilmenge und wende auf diese das Gram-Schmidt-Verfahren an. Hierbei ist die Vollständigkeit nicht notwendig, da stets nur Projektionen auf endlichdimensionale Unterräume durchzuführen sind, welche stets vollständig sind. Hierdurch erhält man eine (höchstens) abzählbare Orthonormalbasis. Umgekehrt ist auch jeder Prähilbertraum mit einer (höchstens) abzählbaren Orthonormalbasis separabel.
Entwicklung nach einer Orthonormalbasis
{{#if: Parsevalsche Gleichung|{{#ifexist:Parsevalsche Gleichung|
|{{#if: |{{#ifexist:{{{2}}}|
|{{#if: |{{#ifexist:{{{3}}}|
|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}
Ein Hilbertraum <math>(H, \langle\cdot, \cdot\rangle)</math> mit einer Orthonormalbasis <math>S</math> hat die Eigenschaft, dass für jedes <math>v \in H</math> die Reihendarstellung
- <math>v=\sum_{u \in S} \langle u, v \rangle u</math>
gilt. Diese Reihe konvergiert unbedingt. Ist der Hilbertraum endlichdimensional, so fällt der Begriff der unbedingten Konvergenz mit dem der absoluten Konvergenz zusammen. Diese Reihe nennt man auch verallgemeinerte Fourier-Reihe. Wählt man nämlich den Hilbertraum <math>L^2([0,2\pi])</math> der reellwertigen quadratintegrierbaren Funktionen mit dem Skalarprodukt
- <math>\langle f, g\rangle = \int_0^{2 \pi} f(x) g(x) \, \mathrm{d}x,</math>
dann ist
- <math>S = \{c_0\} \cup \{c_n, s_n \mid n \in \N\}</math>
mit
- <math>c_0(x) = \frac{1}{\sqrt{2\pi}},\ c_n(x) = \frac{1}{\sqrt{\pi}} \cos(n x),\ s_n(x) = \frac{1}{\sqrt{\pi}} \sin(n x)</math> für <math>x \in [0,2\pi]</math> und <math>n \in \N</math>
ein Orthonormalsystem und sogar eine Orthonormalbasis von <math>L^2([0,2\pi])</math>. Bezüglich dieser Basis sind
- <math>\left\langle f, c_0 \right\rangle = \frac{1}{\sqrt{2\pi}} \int_0^{2 \pi} f(x) \, \mathrm{d} x, </math>
- <math>\left\langle f, c_n \right\rangle = \frac{1}{\sqrt{\pi}} \int_0^{2 \pi} f(x) \cos(n x)\, \mathrm{d} x</math>
und
- <math>\left\langle f, s_n \right\rangle = \frac{1}{\sqrt{\pi}} \int_0^{2 \pi} f(x) \sin(n x)\, \mathrm{d} x, \quad n \in \N</math>
gerade die Fourier-Koeffizienten der Fourier-Reihe von <math>f</math>. Daher ist die Fourier-Reihe gerade die Reihendarstellung eines Elements aus <math>L^2([0,2\pi])</math> bezüglich der gegebenen Orthonormalbasis.
Weitere Beispiele
Sei <math>\ell^2</math> der Folgenraum der quadratsummierbaren Folgen. Die Menge <math>S = \{e_n \colon n \in \N\}</math> ist eine Orthonormalbasis von <math>\ell^2</math>.
Literatur
- Gerd Fischer: Lineare Algebra. Vieweg-Verlag, ISBN 3-528-03217-0.
- Dirk Werner: Funktionalanalysis. 6., korrigierte Auflage. Springer-Verlag, Berlin 2007, ISBN 978-3-540-72533-6, S. 222–236.
Einzelnachweise
<references />