Orthogonalprojektion
Eine Orthogonalprojektion (von gr. ὀρθός orthós ‚gerade‘, γωνία gōnía ‚Winkel‘ und lat. prōicere, PPP prōiectum ‚vorwärtswerfen‘), orthogonale Projektion oder senkrechte Projektion ist eine Abbildung, die in vielen Bereichen der Mathematik eingesetzt wird. Bei der Orthogonalprojektion eines Punkts auf eine Gerade oder eine Ebene bildet die Verbindungslinie zwischen dem Punkt und seinem Abbild mit dieser Gerade oder Ebene einen rechten Winkel. Das Abbild hat dann von allen Punkten der Gerade oder Ebene den kürzesten Abstand zum Ausgangspunkt. Eine Orthogonalprojektion ist damit ein Spezialfall einer Parallelprojektion, bei der die Projektionsrichtung gleich der Normalenrichtung der Gerade oder Ebene ist. Auch andere geometrische Objekte lassen sich durch Orthogonalprojektionen aufeinander abbilden, wie eine Gerade auf eine Ebene. Dazu wird jeder Punkt der Gerade auf die Ebene projiziert, was eine in der Ebene liegende Gerade ergibt.<ref>{{#invoke:Vorlage:Literatur|f}}</ref>
In der linearen Algebra wird das Konzept der Orthogonalprojektion auf höherdimensionale Vektorräume über den reellen oder komplexen Zahlen und allgemeinere Winkel- und Abstandsbegriffe erweitert. Eine Orthogonalprojektion ist dann die Projektion eines Vektors auf einen Untervektorraum, sodass der Differenzvektor aus Abbild und Ausgangsvektor in dessen orthogonalem Komplement liegt. In der Funktionalanalysis wird der Begriff noch weiter in unendlichdimensionalen Skalarprodukträumen gefasst und insbesondere auf Funktionen angewandt. Die Existenz und Eindeutigkeit solcher Orthogonalprojektionen stellt dann der Projektionssatz sicher.
Orthogonalprojektionen besitzen vielfältige Einsatzbereiche innerhalb der Mathematik, beispielsweise in der darstellenden Geometrie, dem Gram-Schmidtschen Orthogonalisierungsverfahren, der Methode der kleinsten Quadrate, dem Verfahren der konjugierten Gradienten, der Fourier-Analysis oder der Bestapproximation. Sie besitzen Anwendungen unter anderem beim Technischen Zeichnen, in der Kartografie, der Computergrafik und der Physik.
Darstellende Geometrie
In der darstellenden Geometrie und im technischen Zeichnen dienen Projektionen dazu, zweidimensionale Abbildungen von dreidimensionalen geometrischen Körpern herzustellen. Neben der Zentralprojektion kommen hierbei häufig Parallelprojektionen zum Einsatz. Eine Parallelprojektion ist eine Abbildung, die Punkte des dreidimensionalen Raums auf Punkte einer gegebenen Bildebene abbildet, wobei die Projektionsstrahlen zueinander parallel sind. Treffen die Projektionsstrahlen im rechten Winkel auf die Projektionsebene, so spricht man von einer Orthogonalprojektion.
Werden statt einer Bildebene drei Projektionsebenen verwendet, die aufeinander senkrecht stehen, dann handelt es sich um eine Dreitafelprojektion oder Normalprojektion. Meist liegen dabei die Projektionsebenen parallel zu den Achsen des verwendeten (kartesischen) Koordinatensystems. Besitzt ein Punkt im Raum dann die Koordinaten <math>(x,y,z)</math>, so erhält man die Orthogonalprojektionen des Punkts auf die drei Koordinatenebenen durch
- <math>(x,y,z) \mapsto (x,y,0)</math> (Projektion auf die xy-Ebene)
- <math>(x,y,z) \mapsto (x,0,z)</math> (Projektion auf die xz-Ebene)
- <math>(x,y,z) \mapsto (0,y,z)</math> (Projektion auf die yz-Ebene)
Verläuft eine Projektionsebene zwar parallel zu zwei der Koordinatenachsen, aber nicht durch den Nullpunkt des Koordinatensystems, so erhält man den projizierten Punkt durch Ersetzen des Werts <math>0</math> durch den Schnittpunkt der Ebene mit der dritten Koordinatenachse. Bei einer orthogonalen Axonometrie, beispielsweise einer Isometrie oder einer Dimetrie, wird das abzubildende Objekt vor der Projektion auf spezifische Weise gedreht.
Analytische Geometrie
Die analytische Geometrie beschäftigt sich mit der Berechnung und den mathematischen Eigenschaften von Orthogonalprojektionen im zwei- und dreidimensionalen Raum, insbesondere für den Fall, dass die Projektionsebene nicht parallel zu den Koordinatenachsen liegt.
Projektion auf eine Gerade
Definition
In der euklidischen Ebene ist eine Orthogonalprojektion die Abbildung eines Punkts <math>P</math> auf eine Gerade <math>g</math>, derart dass die Verbindungslinie zwischen dem Punkt und seinem Abbild <math>P'</math> einen rechten Winkel mit der Gerade bildet. Eine Orthogonalprojektion muss demnach die beiden Bedingungen
- <math>P' \in g</math> (Projektion)
- <math>\overline{PP'} \perp g</math> (Orthogonalität)
erfüllen. Die Linie <math>\overline{PP'}</math> heißt Lot des Punkts auf die Gerade und der projizierte Punkt <math>P'</math> wird Lotfußpunkt genannt. Die zeichnerische Konstruktion des Lots mit Zirkel und Lineal ist eine Standardaufgabe der euklidischen Geometrie und man spricht dabei vom Fällen des Lots.
Herleitung
In der analytischen Geometrie werden Punkte im kartesischen Koordinatensystem durch Ortsvektoren <math>\vec x = \begin{pmatrix}x_1\\x_2\end{pmatrix}</math> beschrieben und Geraden typischerweise als Geradengleichung in Parameterform <math>\vec r = \vec r_0 + \lambda \, \vec u</math>, wobei <math>\vec r_0</math> ein Stützvektor, <math>\vec u</math> der Richtungsvektor der Geraden und <math>\lambda</math> ein reeller Parameter ist. Zwei Vektoren, die einen rechten Winkel einschließen, haben ein Skalarprodukt von null. Die Orthogonalprojektion <math>P_g(\vec x)</math> auf die Gerade <math>g</math> muss die beiden Bedingungen
- <math>P_g(\vec x) = \vec r_0 + \lambda \, \vec u</math>
- <math>(P_g(\vec x) - \vec x) \cdot \vec u = 0</math>
für ein <math>\lambda \in \R</math> erfüllen.
Wird die erste Gleichung in die zweite eingesetzt, so erhält man
- <math>(\vec r_0 + \lambda \, \vec u - \vec x) \cdot \vec u = 0</math>,
was nach <math>\lambda</math> aufgelöst
- <math>\lambda = \frac{\vec x \cdot \vec u - \vec r_0 \cdot \vec u}{\vec u \cdot \vec u} = \frac{(\vec x - \vec r_0) \cdot \vec u}{\vec u \cdot \vec u}</math>
ergibt.
Verläuft die Gerade als Ursprungsgerade durch den Nullpunkt, dann ist <math>\vec r_0 = \begin{pmatrix}0 \\ 0\end{pmatrix}</math> ein Stützvektor und die Formel vereinfacht sich zu
- <math>P_g(\vec x) = \frac{ \vec x \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u</math>.
Ist zudem der Richtungsvektor der Gerade ein Einheitsvektor, gilt also <math>\vec u \cdot \vec u = 1</math>, so erhält man die einfachere Darstellung
- <math>P_g(\vec x) = ( \vec x \cdot \vec u ) \, \vec u</math>.
Der Faktor <math>\vec x \cdot \vec u</math> gibt dann an, wie weit der projizierte Punkt auf der Gerade vom Nullpunkt entfernt ist. Analog kann auch ein Punkt <math>\vec x = \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}</math> im euklidischen Raum auf eine Gerade im Raum orthogonal projiziert werden, es wird lediglich mit drei statt zwei Komponenten gerechnet.
Beispiele
Die Orthogonalprojektion des Punkts mit <math>\vec x = \begin{pmatrix}4\\3\end{pmatrix}</math> auf die Ursprungsgerade mit Richtung <math>\vec u = \begin{pmatrix}1\\2\end{pmatrix}</math> in der euklidischen Ebene ist
- <math>P_g(\vec x) = \frac{ 4 \cdot 1 + 3 \cdot 2 }{ 1 \cdot 1 + 2 \cdot 2 } \cdot \begin{pmatrix}1\\2\end{pmatrix} = \frac{10}{5} \cdot \begin{pmatrix}1\\2\end{pmatrix} = \begin{pmatrix}2\\4\end{pmatrix}</math>.
Die Orthogonalprojektion des Punkts mit <math>\vec x = \begin{pmatrix}3\\9\\6\end{pmatrix}</math> auf die Ursprungsgerade mit Richtung <math>\vec u = \begin{pmatrix}2\\1\\2\end{pmatrix}</math> im euklidischen Raum ist
- <math>P_g(\vec x) = \frac{ 3 \cdot 2 + 9 \cdot 1 + 6 \cdot 2 }{ 2 \cdot 2 + 1 \cdot 1 + 2 \cdot 2 } \cdot \begin{pmatrix}2\\1\\2\end{pmatrix} = \frac{ 27 }{ 9 } \cdot\begin{pmatrix}2\\1\\2\end{pmatrix} = \begin{pmatrix}6\\3\\6\end{pmatrix}</math>.
Eigenschaften
Befindet sich der zu projizierende Punkt <math>\vec x</math> bereits auf der Gerade, dann gibt es eine Zahl <math>\lambda</math> mit <math>\vec x = \lambda \vec u</math> und die Orthogonalprojektion
- <math>P_g(\vec x) = \frac{ \lambda \vec u \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u = \frac{ \lambda ( \vec u \cdot \vec u ) }{ \vec u \cdot \vec u } \, \vec u = \lambda \vec u = \vec x</math>
verändert den Punkt nicht. Andernfalls minimiert die Orthogonalprojektion den Abstand zwischen dem Ausgangspunkt und allen Geradenpunkten, da für das Quadrat dieses Abstands nach dem Satz des Pythagoras
- <math>| \lambda \vec u - \vec x |^2 = | \lambda \vec u - P_g(\vec x) |^2 + | P_g(\vec x) - \vec x |^2 \geq | P_g(\vec x) - \vec x |^2</math>
für alle Zahlen <math>\lambda \in \R</math> gilt. Das Minimum wird dabei eindeutig an dem orthogonal projizierten Punkt angenommen, da der erste Term der Summe genau für <math>\lambda = \tfrac{\vec x \cdot \vec u}{\vec u \cdot \vec u}</math> null wird. Bilden die Vektoren <math>\vec x</math> und <math>\vec u</math> einen rechten Winkel, so ist der projizierte Punkt der Nullpunkt.
Berechnung
Die Orthogonalprojektion eines Punkts <math>\vec x</math> auf eine Gerade <math>g</math>, die keine Ursprungsgerade ist, ist durch
- <math>P_g(\vec x) = \vec r_0 + \frac{( \vec x - \vec r_0 ) \cdot \vec u}{\vec u \cdot \vec u} \, \vec u</math>.
gegeben (siehe oben Abschnitt „Herleitung“). Aus dem Allgemeinfall erhält man die obigen Spezialfälle, indem der Stützvektor der Gerade in den Nullpunkt verschoben wird und ihr Richtungsvektor normiert wird, also durch seinen Betrag geteilt wird. In dem Beispiel der obigen Abbildung ist <math>\vec x = \begin{pmatrix}5\\2\end{pmatrix}</math>, <math>\vec r_0 = \begin{pmatrix}1\\2\end{pmatrix}</math> sowie <math>\vec u = \begin{pmatrix}1\\1\end{pmatrix}</math> und damit <math>P_g(\vec x) = \begin{pmatrix}3\\4\end{pmatrix}</math>.
Alternativ kann eine Orthogonalprojektion im zweidimensionalen Fall auch durch Ermittlung des Schnittpunkts der Ausgangsgeraden mit der Lotgeraden berechnet werden. Ist <math>\vec n</math> ein Normalenvektor der Ausgangsgeraden, so folgt aus den beiden Bedingungen
- <math>P_g(\vec x) = \vec x - \mu \, \vec n</math>
- <math>(P_g(\vec x) - \vec r_0) \cdot \vec n = 0</math>
durch Einsetzen der ersten Gleichung in die zweite Gleichung und Auflösen nach dem freien Parameter <math>\mu</math> für die Orthogonalprojektion
- <math>P_g(\vec x) = \vec x - \frac{( \vec x - \vec r_0 ) \cdot \vec n}{\vec n \cdot \vec n} \, \vec n</math>.
Einen Normalenvektor kann man durch Vertauschen der beiden Komponenten des Richtungsvektors der Geraden und durch Umkehrung des Vorzeichens einer der beiden Komponenten ermitteln. In dem obigen Beispiel ist ein solches <math>\vec n = (1,-1)</math>. Da eine Gerade im dreidimensionalen Raum keine ausgezeichnete Normalenrichtung besitzt, ist dieser einfache Ansatz aber nur in zwei Dimensionen möglich.
Projektion auf eine Ebene
Definition
Im dreidimensionalen Raum kann ein Punkt <math>P</math> auch auf eine Ebene <math>E</math> orthogonal projiziert werden. Eine Orthogonalprojektion muss dann die beiden Bedingungen
- <math>P' \in E</math> (Projektion)
- <math>\overline{PP'} \perp E</math> (Orthogonalität)
erfüllen. Auch hier spricht man von Lot und Lotfußpunkt. Die Orthogonalität impliziert dabei, dass das Lot senkrecht auf allen Geraden der Ebene durch den Lotfußpunkt <math>P'</math> steht.
Herleitung
Ein Punkt im euklidischen Raum werde wieder durch einen Ortsvektor <math display="inline">\vec x = \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}</math> beschrieben und die Ebene sei in Parameterform <math>\vec r = \vec r_0 + \lambda \vec u + \mu \vec v</math> gegeben, wobei <math>\lambda</math> und <math>\mu</math> reelle Parameter sind sowie <math>\vec u</math> und <math>\vec v</math> die Spannvektoren der Ebene, welche nicht kollinear sein dürfen.
Aufgrund der Linearität des Skalarprodukts reicht es dabei aus, Orthogonalität bezüglich der beiden Spannvektoren statt bezüglich aller Vektoren der Ebene nachzuweisen.
Handelt es sich bei der Ebene um eine Ursprungsebene, das heißt <math>\vec r_0 = \begin{pmatrix}0\\0\\0\end{pmatrix}</math>, dann muss die Orthogonalprojektion <math>P_E(\vec x)</math> des Punkts <math>\vec x</math> auf die Ebene <math>E</math> die folgenden drei Bedingungen erfüllen:
- <math>P_E(\vec x) = \lambda \, \vec u + \mu \, \vec v</math>
- <math>(P_E(\vec x) - \vec x) \cdot \vec u = 0</math>
- <math>(P_E(\vec x) - \vec x) \cdot \vec v = 0</math>
Setzt man die erste Gleichung in die anderen beiden Gleichungen ein, erhält man mit
- <math>
\begin{align} \lambda \, \vec u \cdot \vec u + \mu \, \vec v \cdot \vec u & = \vec x \cdot \vec u \\ \lambda \, \vec u \cdot \vec v + \mu \, \vec v \cdot \vec v & = \vec x \cdot \vec v \end{align} </math>
ein lineares Gleichungssystem mit zwei Gleichungen und den beiden Unbekannten <math>\lambda</math> und <math>\mu</math>. Falls die Spannvektoren zueinander orthogonal sind, das heißt <math>\vec u \cdot \vec v = \vec v \cdot \vec u = 0</math> gilt, dann zerfällt dieses Gleichungssystem in zwei voneinander unabhängige Gleichungen und seine Lösung kann direkt angegeben werden. Die Orthogonalprojektion <math>P_E(\vec x)</math> des Punkts <math>\vec x</math> auf die Ebene <math>E</math> ist dann gegeben durch
- <math>P_E(\vec x) = \frac{ \vec x \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u + \frac{ \vec x \cdot \vec v }{ \vec v \cdot \vec v } \, \vec v \, .</math>
Sind die Spannvektoren sogar orthonormal, gilt also zusätzlich <math>\vec u \cdot \vec u = \vec v \cdot \vec v = 1</math>, dann hat man die einfachere Darstellung
- <math>P_E(\vec x) = ( \vec x \cdot \vec u ) \, \vec u + ( \vec x \cdot \vec v ) \, \vec v \, .</math>
Man erhält die Orthogonalprojektion eines Punkts auf eine Ebene also durch Ermittlung der Orthogonalprojektionen <math>P_g(\vec x)</math> und <math>P_h(\vec x)</math> des Punkts auf die beiden von den Spannvektoren gebildeten Geraden <math>g</math> und <math>h</math> und durch Addition der Resultate (siehe Abbildung).
Beispiel
Die Orthogonalprojektion des Punkts <math>\vec x=\begin{pmatrix}3\\9\\6\end{pmatrix}</math> auf die Ursprungsebene, die durch die orthogonalen Vektoren <math>\vec u = \begin{pmatrix}2\\1\\2\end{pmatrix}</math> und <math>\vec v = \begin{pmatrix}2\\-2\\-1\end{pmatrix}</math> aufgespannt wird, ist
- <math>P_E(\vec x) = \frac{ 6+9+12 }{ 4+1+4 } \cdot \begin{pmatrix}2\\1\\2\end{pmatrix} + \frac{ 6-18-6 }{ 4+4+1 }\cdot \begin{pmatrix}2\\-2\\-1\end{pmatrix} = \begin{pmatrix}6\\3\\6\end{pmatrix} + \begin{pmatrix}-4\\4\\2\end{pmatrix} = \begin{pmatrix}2\\7\\8\end{pmatrix}</math>.
Eigenschaften
Befindet sich der zu projizierende Punkt <math>\vec x</math> bereits auf der Ebene, dann gibt es Zahlen <math>\lambda</math> und <math>\mu</math> mit <math>\vec x = \lambda \vec u + \mu \vec v</math> und die Orthogonalprojektion
- <math>P_E(\vec x) = \frac{ \lambda ( \vec u \cdot \vec u ) + \mu ( \vec v \cdot \vec u ) }{ \vec u \cdot \vec u } \, \vec u + \frac{ \lambda ( \vec u \cdot \vec v ) + \mu ( \vec v \cdot \vec v ) }{ \vec v \cdot \vec v } \, \vec v = \lambda \vec u + \mu \vec v = \vec x</math>
verändert den Punkt nicht. Andernfalls minimiert der orthogonal projizierte Punkt den Abstand zwischen dem Ausgangspunkt und allen Punkten der Ebene, da für das Quadrat dieses Abstands mit dem Satz des Pythagoras
- <math>| ( \lambda \vec u + \mu \vec v ) - \vec x |^2 = | ( \lambda \vec u + \mu \vec v ) - P_E(\vec x) |^2 + | P_E(\vec x) - \vec x |^2 \geq | P_E(\vec x) - \vec x |^2</math>
für alle Zahlen <math>\lambda,\mu \in \R</math> gilt. Das Minimum wird dabei eindeutig für <math>\lambda = \tfrac{\vec x \cdot \vec u}{\vec u \cdot \vec u}</math> und <math>\mu = \tfrac{\vec x \cdot \vec v}{\vec v \cdot \vec v}</math> an dem orthogonal projizierten Punkt angenommen. Bildet <math>\vec x</math> sowohl mit <math>\vec u</math> als auch mit <math>\vec v</math> einen rechten Winkel, dann ist der projizierte Punkt der Nullpunkt.
Berechnung
Verläuft eine Ebene nicht durch den Ursprung, so kann sie durch Translation um <math>\vec r_0</math> in den Ursprung verschoben werden. Sind ihre Spannvektoren nicht orthogonal, so können diese mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahrens orthogonalisiert werden. Hierzu ermittelt man (beispielsweise) einen zu <math>\vec u</math> orthogonalen Vektor <math>\vec w</math> als Verbindungsvektor von <math>\vec v</math> zur Orthogonalprojektion von <math>\vec v</math> auf die Gerade in Richtung <math>\vec u</math>
- <math>\vec w = \vec v - \frac{\vec v \cdot \vec{u}}{\vec u \cdot \vec{u}} \, \vec{u}</math>
und erhält somit den Allgemeinfall einer Orthogonalprojektion eines Punkts <math>\vec x</math> auf eine Ebene <math>E</math> durch
- <math>P_E(\vec x) = \vec r_0 + \frac{( \vec x - \vec r_0 ) \cdot \vec u}{\vec u \cdot \vec u} \, \vec u + \frac{( \vec x - \vec r_0 ) \cdot \vec w}{\vec w \cdot \vec w} \, \vec w </math>.
Alternativ dazu kann eine Orthogonalprojektion auch durch Berechnung des Schnitts der Lotgeraden mit der Ebene berechnet werden. Ein Normalenvektor <math>\vec n</math> der Ebene kann, sofern sie nicht in Normalenform gegeben ist, über das Kreuzprodukt der (nicht notwendigerweise orthogonalen, aber nichtkollinearen) Spannvektoren durch <math>\vec n = \vec u \times \vec v</math> berechnet werden. Man erhält dann wie im zweidimensionalen Fall als Orthogonalprojektion
- <math>P_E(\vec x) = \vec x - \frac{( \vec x - \vec r_0 ) \cdot \vec n}{\vec n \cdot \vec n} \, \vec n</math>.
Lineare Algebra
In der linearen Algebra wird das Konzept der Orthogonalprojektion auf allgemeine Vektorräume <math>V</math> mit endlicher Dimension <math>n</math> über dem Körper <math>\mathbb K</math> der reellen oder komplexen Zahlen, sowie allgemeine Skalarprodukte <math>\langle \cdot , \cdot \rangle</math> und damit Orthogonalitätsbegriffe verallgemeinert. Zwei Vektoren <math>v,w \in V</math> sind definitionsgemäß genau dann orthogonal, wenn ihr Skalarprodukt <math>\langle v, w \rangle=0</math> ist.<ref>Im Folgenden wird diejenige Variante des komplexen Skalarprodukts verwendet, die linear im ersten und semilinear im zweiten Argument ist.</ref>
Algebraische Darstellung
Definition
Eine Orthogonalprojektion auf einen Untervektorraum <math>U</math> eines Vektorraums <math>V</math> ist eine lineare Abbildung <math>P_U \colon V \rightarrow U</math>, die für alle Vektoren <math>v \in V</math> die beiden Eigenschaften
- <math>P_U(v) \in U</math> (Projektion)
- <math>\langle P_U(v) - v , u \rangle = 0</math> für alle <math>u \in U</math> (Orthogonalität)<ref>Eine dazu äquivalente Bedingung ist <math>\langle P_U(v) , u \rangle = \langle v, u \rangle</math> für alle <math>u \in U</math>.</ref>
erfüllt. Der Differenzvektor <math>P_U(v)-v</math> liegt damit im orthogonalen Komplement <math>U^\perp</math> von <math>U</math>. Das orthogonale Komplement ist selbst ein Untervektorraum bestehend aus denjenigen Vektoren in <math>V</math>, die orthogonal zu allen Vektoren in <math>U</math> sind.
Darstellung
Ist <math>\{ u_1, \ldots , u_k \}</math> eine Basis des Untervektorraums <math>U</math> mit der Dimension <math>k</math>, dann hat jeder Vektor <math>u \in U</math> eine eindeutige Darstellung als Linearkombination <math>u = c_1 u_1 + \ldots + c_k u_k</math>. Aufgrund der Sesquilinearität des Skalarprodukts reicht es daher aus, Orthogonalität lediglich bezüglich der Basisvektoren statt bezüglich aller Vektoren des Untervektorraums nachzuweisen. Eine Orthogonalprojektion <math>P_U</math> muss demnach die Bedingungen
- <math>P_U(v) = \sum_{i=1}^k c_i u_i</math>
- <math>\langle P_U(v) - v , u_j \rangle = 0</math> für <math>j=1, \ldots , k</math>
erfüllen. Setzt man die erste Gleichung in die anderen Gleichungen ein, erhält man mit
- <math>\sum_{i=1}^k c_i \langle u_i , u_j \rangle = \langle v, u_j \rangle</math> für <math>j=1, \ldots , k</math>
ein lineares Gleichungssystem mit <math>k</math> Gleichungen und den <math>k</math> Unbekannten <math>c_1, \ldots , c_k</math>. Die dabei zugrunde liegende Gramsche Matrix <math>( \, \langle u_i , u_j \rangle \, )_{i,j}</math> ist aufgrund der linearen Unabhängigkeit der Basisvektoren regulär und damit ist dieses Gleichungssystem eindeutig lösbar. Ist nun <math>\{ u_1, \ldots , u_k \}</math> eine Orthogonalbasis von <math>U</math>, das heißt <math>\langle u_i, u_j \rangle = 0</math> für <math>i \neq j</math>, dann ist die zugehörige Gramsche Matrix eine Diagonalmatrix und das Gleichungssystem hat eine direkt angebbare Lösung. Die Orthogonalprojektion <math>P_U</math> des Vektors <math>v</math> auf den Untervektorraum <math>U</math> ist dann durch
- <math>P_U(v) = \sum_{i=1}^k \frac{ \langle v , u_i \rangle }{ \langle u_i, u_i \rangle } u_i</math>
gegeben. Bildet <math>\{ u_1, \ldots , u_k \}</math> sogar eine Orthonormalbasis, das heißt <math>\langle u_i, u_j \rangle = \delta_{ij}</math> mit dem Kronecker-Delta <math>\delta_{ij}</math>, dann hat die Orthogonalprojektion die einfachere Darstellung
- <math>P_U(v) = \sum_{i=1}^k \langle v , u_i \rangle u_i</math>.
Beispiele
Wählt man als Vektorraum <math>V</math> den Standardraum <math>\R^n</math> und als Skalarprodukt <math>\langle \cdot , \cdot \rangle</math> das Standardskalarprodukt, so ist ein Untervektorraum eine lineare Mannigfaltigkeit (etwa eine Gerade, Ebene oder Hyperebene) durch den Nullpunkt und die Orthogonalprojektionen des vorangegangenen Geometrie-Abschnitts entsprechen gerade den Spezialfällen
- Projektion auf eine Ursprungsgerade in der Ebene: <math>n=2, k=1</math>
- Projektion auf eine Ursprungsgerade im Raum: <math>n=3, k=1</math>
- Projektion auf eine Ursprungsebene im Raum: <math>n=3, k=2</math>
Der Fall <math>k=0</math> entspricht in jeder Dimension der Abbildung eines Vektors auf den Nullpunkt und der Fall <math>k=n</math> lässt den Vektor immer unverändert, da eine Orthogonalprojektion dann die identische Abbildung ist.
Eigenschaften
Eine Orthogonalprojektion ist eine Projektion, das heißt eine idempotente lineare Abbildung des Vektorraumes <math>V</math> in sich selbst (genannt Endomorphismus). Ist der zu projizierende Vektor <math>v</math> nämlich bereits Element des Untervektorraums, dann gibt es Skalare <math>c_1, \ldots , c_k</math>, sodass <math>v = c_1 u_1 + \ldots + c_k u_k</math> ist, und die Orthogonalprojektion
- <math>P_U(v) = \sum_{i=1}^k \left\langle \sum_{j=1}^k c_j u_j , u_i \right\rangle \, u_i = \sum_{i=1}^k \sum_{j=1}^k c_j \langle u_j , u_i \rangle \, u_i = c_1 u_1 + \ldots + c_k u_k = v</math>
verändert den Vektor nicht, woraus die Idempotenz folgt. Die Linearität der Abbildung folgt direkt aus der Sesquilinearität des Skalarprodukts. Zudem gilt die Selbstadjungiertheit
- <math>\langle P_U(v), w \rangle = \left\langle \sum_{i=1}^k \langle v , u_i \rangle u_i , w \right\rangle = \sum_{i=1}^k \langle v , u_i \rangle \langle u_i , w \rangle = \left\langle v, \sum_{i=1}^k \langle w , u_i \rangle u_i \right\rangle = \langle v, P_U(w) \rangle</math>
für alle Vektoren <math>v,w \in V</math>. Der orthogonal projizierte Vektor minimiert den Abstand zwischen dem Ausgangsvektor und allen Vektoren des Untervektorraums bezüglich der von dem Skalarprodukt abgeleiteten Norm <math>\| \cdot \|</math>, denn es gilt mit dem Satz des Pythagoras für Skalarprodukträume
- <math>\| u - v \|^2 = \| u - P_U(v) \|^2 + \| P_U(v) - v \|^2 \geq \| P_U(v) - v \|^2</math>.
für alle <math>u \in U</math>. Das Minimum wird dabei eindeutig an dem orthogonal projizierten Vektor angenommen. Liegt der Vektor <math>v</math> im orthogonalen Komplement des Untervektorraums, dann ist der projizierte Vektor der Nullvektor.
Allgemeinfall
Ist die Basis <math>\{ u_1, \ldots , u_k \}</math> des Unterraums nicht orthogonal, so kann sie mit dem Gram-Schmidtschen Orthogonalisierungsverfahren orthogonalisiert und so eine Orthogonalbasis <math>\{ w_1, \ldots , w_k \}</math> von <math>U</math> erhalten werden. Weiterhin kann ein Vektor auch auf einen affinen Unterraum <math>U_0 = r_0 + U</math> mit <math>r_0 \in V</math> orthogonal projiziert werden. Man erhält dann den Allgemeinfall einer Orthogonalprojektion eines Vektors <math>v</math> auf einen affinen Unterraum <math>U_0</math> durch
- <math>P_{U_0}(v) = r_0 + \sum_{i=1}^k \frac{\langle v - r_0, w_i \rangle}{\langle w_i, w_i \rangle} w_i</math>.
Komplementäre Darstellung
Ist nun <math>\{ w_{k+1}, \ldots , w_n \}</math> eine orthogonale Komplementärbasis von <math>U</math>, also eine Orthogonalbasis des Komplements <math>U^\perp</math>, dann erhält man aufgrund von
- <math>v = \sum_{i=1}^k \frac{ \langle v, w_i \rangle }{ \langle w_i, w_i \rangle } w_i + \sum_{i=k+1}^n \frac{ \langle v, w_i \rangle }{ \langle w_i, w_i \rangle } w_i = P_U(v) + P_{U^\perp}(v)</math>
die komplementäre Darstellung einer Orthogonalprojektion <math>P_{U_0}</math> auf einen affinen Unterraum <math>U_0 = r_0 + U</math> als
- <math>P_{U_0}(v) = v - \sum_{i=k+1}^n \frac{ \langle v - r_0, w_i \rangle }{ \langle w_i, w_i \rangle } w_i</math>.
Matrixdarstellung
Koordinaten
Wählt man für den Vektorraum <math>V</math> eine Orthonormalbasis <math>\{ e_1, \ldots , e_n \}</math> bezüglich des Skalarprodukts <math>\langle \cdot , \cdot \rangle</math>, dann kann jeder Vektor <math>v \in V</math> als Koordinatenvektor <math>x = (x_1, \ldots , x_n)^\mathsf{T} \in {\mathbb K}^n</math> über
- <math>v = \sum_{i=1}^n x_i e_i</math> mit <math>x_i = \langle v, e_i \rangle</math>
dargestellt werden. Die Koordinaten <math>x_1, \ldots , x_n</math> sind dabei genau die Längen der Orthogonalprojektionen des Vektors auf die Basisvektoren. Das Skalarprodukt <math>\langle v, w \rangle</math> zweier Vektoren <math>v, w \in V</math> ist in Koordinatendarstellung dann das Standardskalarprodukt <math>y^\mathsf{H} x</math> der zugehörigen Koordinatenvektoren <math>x,y \in {\mathbb K}^n</math>, wobei <math>y^\mathsf{H}</math> der adjungierte Vektor (im reellen Fall der transponierte Vektor) zu <math>y</math> ist.
Darstellung
Sind nun <math>y_1, \ldots , y_k \in {\mathbb K}^n</math> die Koordinatenvektoren einer Orthogonalbasis <math>\{ u_1, \ldots , u_k \}</math> eines Untervektorraums <math>U</math> und <math>x</math> der Koordinatenvektor eines zu projizierenden Vektors <math>v</math>, dann ist die Koordinatendarstellung einer Orthogonalprojektion
- <math>P_U(v) = \sum_{i=1}^k \frac{ y_i^\mathsf{H} x }{ y_i^\mathsf{H} y_i } y_i = \sum_{i=1}^k \frac{ y_i y_i^\mathsf{H} }{ y_i^\mathsf{H} y_i } x</math>.
Eine Orthogonalprojektion ist in Koordinatendarstellung damit einfach ein Matrix-Vektor-Produkt <math>Q_U x</math> mit der Abbildungsmatrix <math>Q_U \in {\mathbb K}^{n \times n}</math> gegeben durch
- <math>Q_U = \sum_{i=1}^k \frac{ y_i y_i^\mathsf{H} }{ y_i^\mathsf{H} y_i }</math>.
Sind <math>y_1, \ldots , y_k</math> die Koordinatenvektoren einer Orthonormalbasis von <math>U</math>, so hat die Orthogonalprojektionsmatrix <math>Q_U</math> die einfachere Darstellung
- <math>Q_U = \sum_{i=1}^k y_i y_i^\mathsf{H}</math>.
Jeder Summand ist dabei das dyadische Produkt eines Koordinatenvektors mit sich selbst.
Beispiele
Im Koordinatenraum <math>\R^3</math> ist die Orthogonalprojektionsmatrix auf die Ursprungsgerade mit Richtung <math>y_1 = (2,1,2)^\mathsf{T}</math> gegeben durch
- <math>Q_U = \frac{1}{9} \begin{pmatrix} 2 \\ 1 \\ 2 \end{pmatrix} \begin{pmatrix} 2 & 1 & 2 \end{pmatrix} = \frac{1}{9} \begin{pmatrix} 4 & 2 & 4 \\ 2 & 1 & 2 \\ 4 & 2 & 4 \end{pmatrix}</math>.
Die Orthogonalprojektionsmatrix auf die Ursprungsebene, die durch <math>y_1 = (2,1,2)^\mathsf{T}</math> und <math>y_2 = (2,-2,-1)^\mathsf{T}</math> aufgespannt wird, ist entsprechend
- <math>Q_U = \frac{1}{9} \begin{pmatrix} 4 & 2 & 4 \\ 2 & 1 & 2 \\ 4 & 2 & 4 \end{pmatrix} + \frac{1}{9} \begin{pmatrix} 4 & -4 & -2 \\ -4 & 4 & 2 \\ -2 & 2 & 1 \end{pmatrix} = \frac{1}{9} \begin{pmatrix} 8 & -2 & 2 \\ -2 & 5 & 4 \\ 2 & 4 & 5 \end{pmatrix}</math>.
Eigenschaften
Eine Orthogonalprojektionsmatrix ist idempotent, das heißt, es gilt
- <math>(Q_U)^2 = \left( \sum_{i=1}^k y_i y_i^\mathsf{H} \right) \left( \sum_{j=1}^k y_j y_j^\mathsf{H} \right) = \sum_{i=1}^k \sum_{j=1}^k ( y_i y_i^\mathsf{H} ) ( y_j y_j^\mathsf{H} ) = \sum_{i=1}^k \sum_{j=1}^k y_i ( y_i^\mathsf{H} y_j ) y_j^\mathsf{H} = \sum_{i=1}^k y_i y_i^\mathsf{H} = Q_U</math>.
Weiterhin ist sie selbstadjungiert (im reellen Fall symmetrisch), da
- <math>(Q_U)^\mathsf{H} = \left( \sum_{i=1}^k y_i y_i^\mathsf{H} \right)^\mathsf{H} = \sum_{i=1}^k ( y_i y_i^\mathsf{H} )^\mathsf{H} = \sum_{i=1}^k y_i y_i^\mathsf{H} = Q_U</math>
ist. Für den Rang und die Spur einer Orthogonalprojektionsmatrix gilt
- <math>\operatorname{rang} Q_U = \operatorname{spur} Q_U = k</math>,
da für idempotente Matrizen Rang und Spur übereinstimmen und die Einzelmatrizen <math>y_iy_i^\mathsf{H}</math> jeweils Rang eins besitzen. Die Eigenwerte einer Orthogonalprojektionsmatrix sind <math>\lambda_1 = \ldots = \lambda_k = 1</math> und <math>\lambda_{k+1} = \ldots = \lambda_n = 0</math>, wobei die zugehörigen Eigenräume gerade der Untervektorraum <math>U</math> und sein orthogonales Komplement <math>U^\perp</math> sind. Die Spektralnorm einer Orthogonalprojektionsmatrix ist damit, sofern <math>U</math> nicht der Nullvektorraum <math>\{ 0 \}</math> ist, gleich eins.
Allgemeinfall
Bilden die Koordinatenvektoren <math>y_1, \ldots , y_k</math> zwar eine Basis, aber keine Orthogonalbasis des Untervektorraums, so kann man sie zur Berechnung einer Orthogonalprojektion orthogonalisieren oder ein entsprechendes lineares Gleichungssystem lösen. Fasst man die Basisvektoren spaltenweise zu einer Matrix <math>A = ( y_1, \ldots , y_k ) \in \mathbb{K}^{n \times k}</math> zusammen, dann hat dieses Gleichungssystem die Gestalt der Normalgleichungen
- <math>A^\mathsf{H} A c = A^\mathsf{H} x</math>
mit dem Koeffizientenvektor <math>c = (c_1, \ldots , c_k)^\mathsf{T}</math>. Die Matrixdarstellung einer Orthogonalprojektion ist dann aufgrund von <math>Q_U x = A c</math> gegeben durch
- <math>Q_U = A ( A^\mathsf{H} A )^{-1} A^\mathsf{H}</math>.
Diese Matrix findet breite Anwendung in der Statistik (siehe Projektionsmatrix (Statistik)). Eine Orthogonalprojektion auf einen affinen Unterraum <math>U_0 = r_0 + U</math> ist in Matrixdarstellung dann die affine Abbildung
- <math>P_{U_0}(v) = Q_U x + ( I - Q_U ) s</math>
mit der Einheitsmatrix <math>I</math> und mit <math>s = (s_1, \ldots , s_n)^\mathsf{T}</math> als dem Koordinatenvektor von <math>r_0</math>. Unter Verwendung homogener Koordinaten lässt sich jede Orthogonalprojektion auch als ein einfaches Matrix-Vektorprodukt darstellen.
Komplementäre Darstellung
Eine Orthogonalprojektion auf einen affinen Unterraum <math>U_0</math> hat die komplementäre Matrixdarstellung
- <math>P_{U_0}(v) = (I - Q_{U^\perp}) x + Q_{U^\perp} s</math>
mit der Orthogonalprojektionsmatrix auf den Komplementärraum <math>Q_{U^\perp} \in {\mathbb K}^{n \times n}</math> gegeben durch
- <math>Q_{U^\perp} = I - Q_U</math>.
Bilden die Koordinatenvektoren <math>y_{k+1}, \ldots , y_n</math> eine Orthogonalbasis des Komplementärraums <math>U^\perp</math>, so hat die komplementäre Orthogonalprojektionsmatrix die Darstellung
- <math>Q_{U^\perp} = \sum_{i=k+1}^n \frac{ y_i y_i^\mathsf{H} }{ y_i^\mathsf{H} y_i }</math>.
Funktionalanalysis
In der Funktionalanalysis wird das Konzept der Orthogonalprojektion auf unendlichdimensionale Skalarprodukträume über den reellen oder komplexen Zahlen verallgemeinert und insbesondere auf Funktionenräume angewandt.
Definition
Ist <math>(V, \langle \cdot, \cdot \rangle)</math> ein Skalarproduktraum und ist <math>U</math> ein Untervektorraum von <math>V</math> mit orthogonalem Komplement <math>U^\perp</math>, dann ist eine Orthogonalprojektion ein Operator <math>P_U \colon V \rightarrow V</math> (auch orthogonaler Projektor genannt), mit den beiden Eigenschaften
- <math>\operatorname{im} P_U = U</math> (Projektion)
- <math>\operatorname{ker} P_U = U^\perp</math> (Orthogonalität)
wobei <math>\operatorname{im}</math> das Bild und <math>\operatorname{ker}</math> der Kern des Operators ist. Der komplementäre Operator <math>I-P_U</math> besitzt dann als Bild <math>U^\perp</math> und als Kern <math>U</math>.
Existenz und Eindeutigkeit
Damit solche Orthogonalprojektionen auch existieren und eindeutig sind, müssen die betrachteten Räume jedoch eingeschränkt werden. Ist <math>V</math> ein Hilbertraum, also ein vollständiger Skalarproduktraum, und ist <math>U</math> ein abgeschlossener Untervektorraum von <math>V</math>, dann stellt der Projektionssatz die Existenz und Eindeutigkeit von Orthogonalprojektionen sicher. Zu jedem Vektor <math>v \in V</math> gibt es dann eindeutige Vektoren <math>u \in U</math> und <math>u^\perp \in U^\perp</math>, sodass dieser Vektor die Darstellung
- <math>v = u + u^\perp</math>
besitzt. Damit bilden <math>U</math> und <math>U^\perp</math> eine orthogonale Zerlegung von <math>V</math>, das heißt, der gesamte Raum <math>V</math> lässt sich als orthogonale Summe <math>U \oplus U^\perp</math> darstellen.<ref name="werner220">{{#invoke:Vorlage:Literatur|f}}</ref> Ein endlichdimensionaler Untervektorraum ist immer abgeschlossen und auf die Vollständigkeit von <math>V</math> kann dann auch verzichtet werden.
Darstellung
Jeder Hilbertraum besitzt eine Orthonormalbasis, die sich allerdings nicht immer explizit angeben lässt. Ist allerdings <math>V</math> ein separabler Hilbertraum, dann ist eine solche Orthonormalbasis <math>\{ e_1, e_2, \ldots \}</math> als Schauderbasis abzählbar, sodass jeder Vektor <math>v \in V</math> in eine Reihe
- <math>v = \sum_{i=1}^\infty \langle v, e_i \rangle e_i</math>
entwickelt werden kann.<ref name="werner231">{{#invoke:Vorlage:Literatur|f}}</ref> Eine solche Orthonormalbasis kann stets aus einer linear unabhängigen Teilmenge von <math>V</math> mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahrens erhalten werden. Ist nun <math>\{ u_1, u_2, \ldots \}</math> eine (ebenfalls abzählbare) Orthonormalbasis eines abgeschlossenen Untervektorraums <math>U</math>, dann hat eine Orthogonalprojektion die Reihendarstellung
- <math>P_U = \sum_{i=1}^\infty \langle \cdot , u_i \rangle u_i</math>.
Diese Darstellung lässt sich auch auf nicht-separable, also überabzählbar-dimensionale Hilberträume verallgemeinern. Ist <math>U</math> ein abgeschlossener Untervektorraum eines allgemeinen Hilbertraums und <math>\{u_i\}_{i \in I}</math> mit einer beliebigen Indexmenge <math>I</math> eine Orthonormalbasis dieses Untervektorraums, dann hat eine Orthogonalprojektion die entsprechende Darstellung
- <math>P_U = \sum_{i\in I} \langle \cdot , u_i \rangle u_i</math>,
wobei nur abzählbar viele Summenglieder dieser Summe ungleich null sind. Diese Reihen sind nach der Besselschen Ungleichung unbedingt konvergent und nach der Parsevalschen Gleichung wird dabei tatsächlich jedes Element von <math>U</math> auf sich selbst abgebildet.<ref name="werner229">{{#invoke:Vorlage:Literatur|f}}</ref>
Beispiel
Gegeben sei der Raum L2 der quadratisch integrierbaren reellen Funktionen im Intervall <math>[-1,1]</math> mit dem L2-Skalarprodukt
- <math>\langle f, g \rangle = \int_{-1}^1 f(x) g(x)~dx</math>
Für diesen Raum bilden die Legendre-Polynome ein vollständiges Orthogonalsystem. Gesucht ist nun die Orthogonalprojektion der Exponentialfunktion <math>f(x) = e^x</math> auf den Untervektorraum der linearen Funktionen. Für diesen Unterraum bilden die beiden Monome <math>\{ 1, x \}</math> eine Orthogonalbasis, was nach Normierung die Orthonormalbasis
- <math>\{ u_1(x) = \tfrac{1}{\sqrt{2}}, u_2(x) = \tfrac{\sqrt{3}}{\sqrt{2}} \, x\}</math>
ergibt. Die Orthogonalprojektion von <math>f</math> auf den Untervektorraum der linearen Funktionen ist dann gegeben durch
- <math>P_U f = \langle f, u_1 \rangle u_1 + \langle f, u_2 \rangle u_2 = \frac{1}{\sqrt{2}}\left(e-\frac{1}{e}\right) \cdot \frac{1}{\sqrt{2}} + \frac{\sqrt{6}}{e} \cdot \frac{\sqrt{3}}{\sqrt{2}} x = \frac{1}{2}\left(e-\frac{1}{e}\right) + \frac{3}{e} x</math>.
Eigenschaften
Ist <math>V</math> ein Hilbertraum und <math>U</math> ein abgeschlossener Unterraum von <math>V</math>, dann ist <math>P_U</math> ein stetiger linearer Operator mit den folgenden Eigenschaften:<ref name="werner220" /><ref name="werner236">{{#invoke:Vorlage:Literatur|f}}</ref>
- <math>P_U</math> ist eine Projektion, das heißt <math>P_U^2=P_U</math>.
- <math>P_U</math> ist selbstadjungiert, das heißt <math>P_U = P_U^\ast</math> mit dem adjungierten Operator <math>P_U^\ast</math>.
- <math>P_U</math> ist normal, das heißt <math>P_U^\ast P_U = P_U P_U^\ast</math>.
- <math>P_U</math> ist positiv, das heißt insbesondere <math>\langle P_U v , v \rangle \geq 0</math> für alle <math>v \in V</math>.
- <math>P_U</math> ist eine partielle Isometrie, bei der der isometrische Anteil die Identität ist.
- <math>P_U</math> ist genau dann kompakt, wenn <math>U</math> endlichdimensional ist.
- <math>P_U v</math> ist Bestapproximation in der Skalarproduktnorm, das heißt <math>\| P_U v - v \| = \inf_{u \in U} \| u - v \|</math>.
- <math>\| P_U \| = 1</math>, falls <math>U \neq \{ 0 \}</math>, und <math>\| I - P_U \| = 1</math>, falls <math>U \neq V</math> (in der Operatornorm).
Umgekehrt ist eine stetige lineare Projektion <math>P \neq 0</math>, die selbstadjungiert oder normal oder positiv oder auf eins normiert ist, eine Orthogonalprojektion auf den Bildraum <math>P(V)</math>.<ref name="werner236" />
Anwendungen
Orthogonalprojektionen besitzen vielfältige Anwendungen, von denen hier nur einige herausgestellt werden:
- Geometrie
- in der analytischen Geometrie bei Abstandsberechnungen und Spiegelungen an Ebenen
- in der Kartografie bei orthogonalen Grundrissprojektionen und Orthofotos
- in der Physik bei der Zerlegung von Kräften in ihre Bestandteile
- in der Computergrafik bei der Berechnung von Reflexionen und Schatten
- Lineare Algebra
- bei der Konstruktion von Orthonormalbasen mit dem Gram-Schmidtschen Orthogonalisierungsverfahren
- bei der Lösung linearer Ausgleichsprobleme mit der Methode der kleinsten Quadrate
- bei der iterativen Lösung linearer Gleichungssysteme mit dem Verfahren der konjugierten Gradienten und allgemeinen Krylow-Unterraum-Verfahren
- Funktionalanalysis
- in der Approximationstheorie bei der Bestapproximation von Funktionen
- in der Fourier-Analysis und der Wavelet-Analysis von Signalen
- in der Sobolev-Theorie zur Lösung partieller Differenzialgleichungen
- in der Quantenmechanik zur Beschreibung quantenmechanischer Zustände mittels der Bra-Ket-Notation
- Statistik und Wahrscheinlichkeitstheorie
- bei der Hauptkomponentenanalyse multivariater Datensätze
- bei bedingten Erwartungswerten
Siehe auch
Literatur
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
- {{#invoke:Vorlage:Literatur|f}}
Einzelnachweise und Anmerkungen
<references />
Weblinks
- {{#invoke:Vorlage:Literatur|f}}{{#if:|}}
- {{#if: | {{{author}}} | Eric W. Weisstein }}: Orthogonal Projection. In: MathWorld (englisch). {{#if: OrthogonalProjection | {{#ifeq: {{#property:P2812}} | OrthogonalProjection | | {{#if: {{#property:P2812}} | {{#ifeq: 0 | 0 | }} | {{#ifeq: 0 | 0 | }} }} }} }}