Notice: Unexpected clearActionName after getActionName already called in /var/www/html/includes/context/RequestContext.php on line 338
Lineare Unabhängigkeit – Wikipedia Zum Inhalt springen

Lineare Unabhängigkeit

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Linear abhängig)
Datei:Vec-indep.png
Linear unabhängige Vektoren in ℝ3
Datei:Vec-dep.png
Linear abhängige Vektoren in einer Ebene in ℝ3

In der linearen Algebra wird eine Familie von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koeffizienten der Kombination auf den Wert null gesetzt werden. Äquivalent dazu ist, dass sich keiner der Vektoren als Linearkombination der anderen Vektoren der Familie darstellen lässt.

Andernfalls heißen sie linear abhängig. In diesem Fall lässt sich mindestens einer der Vektoren (aber nicht notwendigerweise jeder) als Linearkombination der anderen darstellen.

Zum Beispiel sind im dreidimensionalen euklidischen Raum <math>\mathbb{R}^3</math> die Vektoren <math>(1,0,0)</math>, <math>(0,1,0)</math> und <math>(0,0,1)</math> linear unabhängig. Die Vektoren <math>(2, {-1}, 1)</math>, <math>(1, 0, 1)</math> und <math>(3, {-1}, 2)</math> sind hingegen linear abhängig, denn der dritte Vektor ist die Summe der beiden ersten, d. h. die Differenz von der Summe der ersten beiden und dem dritten ist der Nullvektor. Die Vektoren <math>(1,2,{-3})</math>, <math>({-2},{-4},6)</math> und <math>(1,1,1)</math> sind wegen <math>2\cdot(1,2,{-3})+({-2},{-4},6)=(0,0,0)</math> ebenfalls linear abhängig; jedoch ist hier der dritte Vektor nicht als Linearkombination der beiden anderen darstellbar.

Definition

Ist <math>V</math> ein Vektorraum über einem Körper <math>K</math>, so heißen die Vektoren <math>\vec v_1, \vec v_2, ..., \vec v_n</math> aus <math>V</math> linear unabhängig, wenn die einzig mögliche Darstellung des Nullvektors als Linearkombination

<math>a_1 \vec{v}_1 + a_2 \vec{v}_2 + \dotsb + a_n \vec{v}_n = \vec{0}</math>

mit Koeffizienten <math>a_1, a_2,\dots,a_n</math> aus dem Grundkörper <math>K</math> diejenige ist, bei der alle Koeffizienten <math>a_i</math> gleich null sind („triviale Linearkombination des Nullvektors“). Formal liest sich diese Bedingung wie folgt:

<math>a_1 \vec v_1 + a_2\vec v_2 + \dotsb + a_n \vec{v}_n = \vec{0} \quad \Longrightarrow a_1 = a_2 = \ldots = a_n = 0</math>.

Lässt sich dagegen der Nullvektor auch nichttrivial (mit Koeffizienten ungleich null) erzeugen, dann sind die Vektoren linear abhängig.<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref name=":0">{{#invoke:Vorlage:Literatur|f}}</ref><ref name=":1">{{#invoke:Vorlage:Literatur|f}}</ref>

Ist <math>I</math> eine beliebige Indexmenge, so heißt eine Familie <math>(\vec v_i)_{i\in I}</math> von Vektoren aus <math>V</math> linear unabhängig, falls jede endliche Teilfamilie linear unabhängig ist.<ref name=":0" /><ref name=":1" /> Die Familie <math>(\vec v_i)_{i\in I}</math> ist also genau dann linear abhängig, wenn es eine endliche Teilmenge <math>J\subseteq I</math> gibt, sowie Koeffizienten <math>(a_j)_{j\in J}</math>, von denen mindestens einer ungleich null ist, so dass

<math>\sum_{j\in J}a_j\vec v_j=\vec 0.</math>

Der Nullvektor <math>\vec{0}</math> ist ein Element des Vektorraumes <math>V</math>. Im Gegensatz dazu ist 0 ein Element des Körpers <math>K</math>.

Der Begriff wird auch für Teilmengen eines Vektorraums verwendet: Eine Teilmenge <math>S \subseteq V</math> eines Vektorraums <math>V</math> heißt linear unabhängig, wenn jede Linearkombination von paarweise verschiedenen Vektoren aus <math>S</math> nur dann den Nullvektor darstellen kann, wenn alle Koeffizienten in dieser Linearkombination den Wert null haben. Man beachte folgenden Unterschied: Ist etwa <math>(\vec{v}_1, \vec{v}_2)</math> eine linear unabhängige Familie, so ist <math>(\vec{v}_1, \vec{v}_1, \vec{v}_2)</math> offenbar eine linear abhängige Familie. Die Menge <math>\{\vec{v}_1,\vec{v}_1,\vec{v}_2\}=\{\vec{v}_1,\vec{v}_2\}</math> ist dann aber linear unabhängig.

Andere Charakterisierungen und einfache Eigenschaften

  • Die Familie <math>(v_i)_{i\in I}</math> von Elementen eines <math>K</math>-Vektorraums <math>V</math> ist genau dann linear unabhängig, wenn die lineare Abbildung <math>m \colon K^{(I)} \to V, (s_i)_{i\in I} \mapsto \sum_{i:s_i \ne 0} s_i \cdot v_i</math> den Kern <math>\{0\}</math> hat.
  • Die Vektoren <math>\vec v_1,\ldots,\vec v_n</math> sind genau dann linear unabhängig, wenn sich keiner von ihnen als Linearkombination der anderen darstellen lässt.
    Diese Aussage gilt nicht im allgemeineren Kontext von Moduln über Ringen.
  • Eine Variante dieser Aussage ist das Abhängigkeitslemma: Sind <math>\vec v_1,\ldots,\vec v_n</math> linear unabhängig und <math>\vec v_1,\ldots,\vec v_n,\vec w</math> linear abhängig, so lässt sich <math>\vec w</math> als Linearkombination von <math>\vec v_1,\ldots,\vec v_n</math> schreiben.
  • Ist eine Familie von Vektoren linear unabhängig, so ist jede Teilfamilie dieser Familie ebenfalls linear unabhängig. Ist eine Familie hingegen linear abhängig, so ist jede Familie, die diese abhängige Familie beinhaltet, ebenso linear abhängig.
  • Elementare Umformungen der Vektoren verändern die lineare Abhängigkeit oder die lineare Unabhängigkeit nicht.
  • Ist einer der <math>\vec{v}_i</math> der Nullvektor (hier: Sei <math>\vec{v}_j = \vec{0}</math>), so sind diese linear abhängig – der Nullvektor kann erzeugt werden, indem alle <math>a_i=0</math> gesetzt werden mit Ausnahme von <math>a_j</math>, welches als Koeffizient des Nullvektors <math>\vec{v}_j</math> beliebig (also insbesondere auch ungleich null) sein darf.
  • In einem <math>d</math>-dimensionalen Raum ist eine Familie aus mehr als <math>d</math> Vektoren immer linear abhängig (siehe Schranken-Lemma).

Ermittlung mittels Determinante

Hat man <math>n</math> Vektoren eines <math>n</math>-dimensionalen Vektorraums als Zeilen- oder Spaltenvektoren bzgl. einer festen Basis gegeben, so kann man deren lineare Unabhängigkeit dadurch prüfen, dass man diese <math>n</math> Zeilen- bzw. Spaltenvektoren zu einer <math>n\times n</math>-Matrix zusammenfasst und dann deren Determinante ausrechnet. Die Vektoren sind genau dann linear unabhängig, wenn die Determinante ungleich 0 ist.

Basis eines Vektorraums

{{#if: Basis (Vektorraum)|{{#ifexist:Basis (Vektorraum)|

|{{#if: |{{#ifexist:{{{2}}}|

→ Haupt{{#if:|seite|artikel}}: [[{{{2}}}{{#if: ||{{{titel2}}}}}]]{{#if: |{{#ifexist:{{{3}}}| und [[{{{3}}}{{#if: ||{{{titel3}}}}}]]|}}|}}

|{{#if: |{{#ifexist:{{{3}}}|

→ Haupt{{#if:|seite|artikel}}: [[{{{3}}}{{#if: ||{{{titel3}}}}}]]

|}}|}}|}}|}}|}}|Einbindungsfehler: Die Vorlage Hauptartikel benötigt immer mindestens ein Argument.}}

Eine wichtige Rolle spielt das Konzept der linear unabhängigen Vektoren bei der Definition beziehungsweise beim Umgang mit Vektorraumbasen. Eine Basis eines Vektorraums ist ein linear unabhängiges Erzeugendensystem. Basen erlauben es, insbesondere bei endlichdimensionalen Vektorräumen mit Koordinaten zu rechnen.

Beispiele

Datei:Vectores independientes.png
  • <math>\vec u</math> und <math>\vec v</math> sind linear unabhängig und definieren die Ebene P.
  • <math>\vec u</math>, <math>\vec v</math> und <math>\vec w</math> sind linear abhängig, weil sie in derselben Ebene liegen.
  • <math>\vec u</math> und <math>\vec j</math> sind linear abhängig, da sie parallel zueinander verlaufen.
  • <math>\vec u</math>, <math>\vec v</math> und <math>\vec k</math> sind linear unabhängig, da <math>\vec u</math> und <math>\vec v</math> voneinander unabhängig sind und <math>\vec k</math> sich nicht als lineare Kombination der beiden darstellen lässt bzw. weil sie nicht auf einer gemeinsamen Ebene liegen. Die drei Vektoren definieren einen drei-dimensionalen Raum.
  • Die Vektoren <math>\vec 0</math> (Nullvektor) und <math>\vec k</math> sind linear abhängig, da  <math>\vec 0 = 0 \cdot \vec k</math>

Einzelner Vektor

Der Vektor <math> \vec{v} </math> sei ein Element des Vektorraums <math>V</math> über <math>K</math>. Dann ist der einzelne Vektor <math>\vec{v}</math> für sich genau dann linear unabhängig, wenn er nicht der Nullvektor ist.

Denn aus der Definition des Vektorraums folgt, dass wenn

<math> a \, \vec{v} = \vec 0</math> mit <math> a \isin K</math>, <math>\vec{v} \isin V</math>

nur <math>a=0</math> oder <math>\vec{v}=\vec{0}</math> sein kann.

Vektoren in der Ebene

Die Vektoren <math>\vec{u}= \begin{pmatrix}1\\1\end{pmatrix}</math> und <math>\vec{v}=\begin{pmatrix}-3\\2\end{pmatrix}</math> sind in <math> \mathbb{R}^2 </math> linear unabhängig.

Beweis: Für <math>a,b \isin \mathbb{R}</math> gelte

<math> a \, \vec{u} + b \, \vec{v} = \vec{0},</math>

d. h.

<math> a \, \begin{pmatrix}1\\1\end{pmatrix} + b \, \begin{pmatrix}-3\\2\end{pmatrix} = \begin{pmatrix}0\\0\end{pmatrix} </math>

Dann gilt

<math>\begin{pmatrix}a-3b\\a+2b\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix},</math>

also

<math>a-3b=0 \quad </math>und<math>\quad a+2b=0.</math>

Dieses Gleichungssystem ist nur für <math>a=0</math> und <math>b=0</math> erfüllt; d. h. <math>\vec u</math> und <math>\vec v</math> sind linear unabhängig.

Standardbasis im n-dimensionalen Raum

Die kanonischen Einheitsvektoren

<math>

\begin{matrix} \vec{e}_1 & = & (1,0,0,\dots ,0), \\ \vec{e}_2 & = & (0,1,0,\dots ,0),\\ &\vdots & \\ \vec{e}_n & = & (0,0,0,\dots,1) \end{matrix} </math>

sind im Vektorraum <math> \mathbb{R}^n </math> linear unabhängig.

Beweis:    Für <math>a_1, a_2,\dots,a_n \isin \mathbb{R} </math> gelte

<math> a_1 \, \vec{e}_1 + a_2 \, \vec{e}_2 + \dotsb + a_n \, \vec{e}_n = \vec{0}.</math>

Dann gilt aber auch

<math> a_1 \, \vec{e}_1 + a_2 \, \vec{e}_2 +\dots + a_n \, \vec{e}_n = (a_1,a_2,\ \dots,a_n) = \vec{0},</math>

und daraus folgt, dass <math>a_i=0</math> für alle <math>i \isin \{1,2, \dots ,n\}</math>.

Funktionen als Vektoren

Sei <math> V</math> der Vektorraum aller Funktionen <math>f\colon\mathbb R\to\mathbb R</math>. Die beiden Funktionen <math>\mathrm{e}^t</math> und <math>\mathrm{e}^{2t}</math> in <math>V</math> sind linear unabhängig.

Beweis: Es seien <math>a,b \in \mathbb{R}</math> und es gelte

<math> a \, \mathrm{e}^t + b \, \mathrm{e}^{2t} = 0</math>

für alle <math>t\in\mathbb R</math>. Leitet man diese Gleichung nach <math>t</math> ab, dann erhält man eine zweite Gleichung

<math> a \, \mathrm{e}^t + 2b \, \mathrm{e}^{2t} = 0</math>.

Indem man von der zweiten Gleichung die erste subtrahiert, erhält man

<math> b \, \mathrm{e}^{2t} =0</math>.

Da diese Gleichung für alle <math>t</math> und damit insbesondere auch für <math>t=0</math> gelten muss, folgt daraus durch Einsetzen von <math>t=0</math>, dass <math>b=0</math> sein muss. Setzt man das so berechnete <math>b</math> wieder in die erste Gleichung ein, dann ergibt sich

<math> a \, \mathrm{e}^t + 0 = 0 </math>.

Daraus folgt wieder, dass (für <math>t=0</math>) <math>a=0</math> sein muss.

Da die erste Gleichung nur für <math>a=0</math> und <math>b=0</math> lösbar ist, sind die beiden Funktionen <math>\mathrm{e}^t</math> und <math>\mathrm{e}^{2t}</math> linear unabhängig.

{{#invoke:Vorlage:Siehe auch|f}}

Reihen

Sei <math>V</math> der Vektorraum aller reellwertigen stetigen Funktionen <math>f\colon (0,1)\to\mathbb R</math> auf dem offenen Einheitsintervall. Dann gilt zwar

<math>\frac 1{1-x}=\sum_{n=0}^\infty x^n,</math>

aber dennoch sind <math>\tfrac 1{1-x}, 1, x, x^2,\ldots</math> linear unabhängig. Linearkombinationen aus Potenzen von <math>x</math> sind nämlich nur Polynome und keine allgemeinen Potenzreihen, insbesondere also in der Nähe von 1 beschränkt, so dass sich <math>\tfrac1{1-x}</math> nicht als Linearkombination von Potenzen darstellen lässt.

Zeilen und Spalten einer Matrix

Interessant ist auch die Frage, ob die Zeilen einer Matrix linear unabhängig sind oder nicht. Dabei werden die Zeilen als Vektoren betrachtet. Falls die Zeilen einer quadratischen Matrix linear unabhängig sind, so nennt man die Matrix regulär, andernfalls singulär. Die Spalten einer quadratischen Matrix sind genau dann linear unabhängig, wenn die Zeilen linear unabhängig sind. Beispiel einer Folge von regulären Matrizen: Hilbert-Matrix.

Rationale Unabhängigkeit

Reelle Zahlen, die über den rationalen Zahlen als Koeffizienten linear unabhängig sind, nennt man rational unabhängig oder inkommensurabel. Die Zahlen <math> \lbrace 1, \, 1/\sqrt{2} \rbrace </math> sind demnach rational unabhängig oder inkommensurabel, die Zahlen <math> \lbrace 1, \, 1/\sqrt{2} , 1 + \sqrt{2} \rbrace </math> dagegen rational abhängig.

Verallgemeinerungen

Die Definition linear unabhängiger Vektoren lässt sich analog auf Elemente eines Moduls anwenden. In diesem Zusammenhang werden linear unabhängige Familien auch frei genannt (siehe auch: freier Modul).

Der Begriff der linearen Unabhängigkeit lässt sich weiter zu einer Betrachtung von unabhängigen Mengen verallgemeinern, siehe dazu Matroid.

Literatur

  • Siegfried Bosch: Lineare Algebra. 5. Auflage, Springer, Berlin/Heidelberg 2014, ISBN 978-3-642-55259-5, Kapitel 1.5.
  • Albrecht Beutelsbacher: Lineare Algebra. Eine Einführung in die Wissenschaft der Vektoren, Abbildungen und Matrizen. 8. Auflage, Springer, Gießen 2014, ISBN 978-3-658-02412-3.
  • Jens Kunath: Analytische Geometrie und Lineare Algebra zwischen Abitur und Studium I. 2. Auflage, Springer Spektrum, Berlin 2023, ISBN 978-3-662-67811-4, S. 100–115.

Einzelnachweise

<references />