Geometrie

Wiederholung Lineare Algebra

Vektorräume

Wir beginnen mit der Definition eines Vektorraums über einem beliebigen Grundkörper \({K}\) wie zum Beispiel \({\Q}\), \({\R}\), oder \({\C}\).

Definition (Vektorraum).

Ein Vektorraum über einem Körper \({K}\) (auch \({K}\)-Vektorraum) ist eine Menge von Vektoren \({V}\) mit einem ausgezeichneten Nullvektor   \({0 \in V}\) und zwei Verknüpfungen
\[ + \colon V \times V \to V,\, (u, v) \mapsto u + v \]
\(0\)
\(u\)
\(u+v\)
\(v\)
\[ K \times V \to V,\, (\lambda, v) \mapsto \lambda v \]
\(0\)
\(\lambda v\)
\(v\)
Addition bzw. Skalarmultiplikation derart, dass für alle \({\lambda, \mu \in K}\) und \({u, v, w \in V}\) die folgenden Gleichungen gelten:
Neutralität des Nullvektors \[ v = 0 + v \]
\(0\)
\(v = 0 + v\)
Assoziativgesetz \[ (u + v) + w = u + (v + w) \]
\(0\)
\(u\)
\(u+v\)
\(v\)
\(v+w\)
\(w\)
\(u+v+w\)
Kommutativgesetz \[ u + v = v + u \]
\(0\)
\(u\)
\(u\)
\(u+v\)
\(v\)
\(v\)
Verträglichkeit mit der Eins \[ v = 1 v \]
Verträglichkeit mit der Multiplikation \[ \lambda (\mu v) = (\lambda \mu) v \]
Verträglichkeit mit der Null \[ 0 = 0 v \]
Veträglichkeit mit der Addition \[ \lambda v + \mu v = (\lambda + \mu) v \]
Distributivgesetz \[ \lambda u + \lambda v = \lambda (u + v) \]
\(0\)
\(u\)
\(\lambda u\)
\(u+v\)
\(\lambda (u+v)\)
\(v\)
\(\lambda v\)

Die Abbildung zum Kommutativgesetz lässt schon ein Parallelogramm und die Abbildung zum Distributivgesetz eine Konfiguration wie im Strahlensatz erkennen. Anstelle der Verträglichkeit mit der Null wird häufig auch die Existenz eines additiven Inversen gefordert; so lassen sich die Eigenschaften der Addition so zusammenfassen, dass \({(V, +)}\) eine abelsche Gruppe ist. Die Definition hier ist dafür etwas elementarer weil kein Existenzquantor benötigt wird und äquivalent zur konventionellen Definition aufgrund der Gleichung \[ -1 v + v = -1 v + 1 v = (-1 + 1) v = 0 v = 0 \] für alle Vektoren \({v}\) eines \({K}\)-Vektorraums im Sinne der Definition.

Sei \({V}\) ein Vektorraum über einem Körper \({K}\). Aufgrund des Assoziativgesetzes und der Neutralität des Nullvektors können wir die Verknüpfung \({ + \colon V \times V \to V }\) und den Nullvektor \({ 0 \in V }\) auch durch eine Summenoperation \({ \sum }\) ersetzen, die jedem \({n}\)-tupel \({(v_1, \dots, v_n) \in V^n}\) für \({n \in \N_0}\) eine Summe  \({\sum_{i=1}^n v_i \in V}\) zuordnet. Der Nullvektor is dann durch die leere Summe  \({\sum_{i=1}^0 v_i = 0}\) gegeben. Weiter können wir aufgrund des Distributivegesetzes und der Verträglichkeit mit dem Einselement und der Multiplikation jede beliebige Kombination von Vektoren aus \({V}\) mit Elementen aus \({K}\) durch Addition und Skalarmultiplikation als eine Summe von skalaren Vielfachen bzw. eine sogenannte Linearkombination schreiben: \[ \sum_{i=1}^n \lambda_i v_i \in V \] wobei \({n \in \N_0}\), \({(\lambda_1, \dots, \lambda_n) \in K^n}\) und \({(v_1, \dots, v_n) \in V^n}\) gilt. Schließlich können wir aufgrund der Veträglichkeit mit der Addition jede Linearkombination \({ \sum_{i=1}^n \lambda_i v_i \in V }\) so umformen, dass \({v_i \neq v_j}\) für \({i \neq j}\) gilt.

Beispiele von \({K}\)-Vektorräumen

Lemma.

Für zwei Teilmengen \({M, N \subset V}\) eines \({K}\)-Vektorraums \({V}\) gilt die Gleichung \[ \langle M \rangle + \langle N \rangle = \langle M \cup N \rangle . \]

Beweis.

\({\langle M \rangle + \langle N \rangle \subseteq \langle M \cup N \rangle}\):
Aufgrund der Inklusionen \({M, N \subseteq M \cup N}\) haben wir auch Inklusionen \({\langle M \rangle, \langle N \rangle \subseteq \langle M \cup N \rangle}\). Weiter ist \({\langle M \rangle + \langle N \rangle}\) der kleinste Untervektorraum von \({V}\), der \({\langle M \rangle}\) und \({\langle N \rangle}\) als Teilmengen enthält. Insbesonder gilt damit \({\langle M \rangle + \langle N \rangle \subseteq \langle M \cup N \rangle}\).
\({\langle M \cup N \rangle \subseteq \langle M \rangle + \langle N \rangle}\):
Diese Inklusion folgt aus den Inklusionen \({M, N \subseteq \langle M \rangle + \langle N \rangle}\) und der Tatsache, dass \({\langle M \rangle + \langle N \rangle}\) der kleinste Untervektorraum von \({V}\) ist, der \({M}\) und \({N}\) als Teilmengen enthält.

Basis und Dimension

Im Folgenden sei \({V}\) ein Vektorraum über einem Grundkörper \({K}\).

Definition (Erzeugendensystem).

Eine Teilmenge \({M \subseteq V}\) ist ein Erzeugendensystem von \({V}\) falls \({\langle M \rangle = V}\) gilt.

Komplementär zum Begriff eines Erzeugendensystems ist der Begriff der linearen Unabhängigkeit.

Definition (Lineare Abhängigkeit).

Eine Teilmenge \({M \subseteq V}\) heißt linear abhängig falls es eine nicht-triviale Linearkombination des Nullvektors aus Vektoren in \({M}\), das heißt eine Summe \[ \sum_{i=1}^n \lambda_i v_i = 0 \] mit \({v_i \neq v_j \in M}\) für alle \({i \neq j}\) und \({\lambda_i \neq 0}\) für mindestens ein \({i = 1, \dots, n}\).

Eine Teilmenge \({M \subseteq V}\) heißt linear unabhängig falls \({M}\) nicht linear abhängig ist.

Proposition.

Für jede Teilmenge \({M \subseteq V}\) sind die folgenden Aussagen äquivalent:

Definition (Basis).

Eine Teilmenge \({M \subseteq V}\) ist eine Basis von \({V}\) falls eine (also alle) der drei äquivalenten Aussagen aus der Proposition für \({M}\) erfüllt sind.

Der Vektorraum \({V}\) heißt endlich-dimensional falls \({V}\) eine endliche Basis enthält.

Beispiele von Basen

Lemma.

Je zwei Basen eines endlich-dimensionalen Vektorraums haben gleich viele Elemente.

Definition (Dimension).

Die Dimension \({\dim V = \dim_K V \in \N_0}\) eines endlich-dimensionalen Vektorraums \({V}\) ist die Anzahl der Vektoren einer Basis von \({V}\).

Lemma.

Jeder Untervektorraum \({U \subseteq V}\) eines endlich-dimensionalen Vektorraums \({V}\) ist ebenfalls endlich-dimensional. Weiter gilt dann \({\dim U \leq \dim V}\) und Gleichheit \({\dim U = \dim V}\) genau dann wenn \({U = V}\).

Untervektorräume eines endlich-dimensionalen Vektorraums \({V}\) der Dimension \({\dim V - 1}\) werden auch lineare Hyperebenen genannt. Durch den Begriff der Dimension bekommen wir zwei weitere Charakterisierungen von Basen endlich-dimensionaler Vektorräume.

Lemma.

Für jede Teilmenge \({M \subseteq V}\) eines endlich-dimensionalen Vektorraums \({V}\) sind die folgenden Aussagen äquivalent:

Lineare Abbildungen

Die linearen Abbildungen zwischen je zwei Vektorräumen sind an sich genau die Abbildungen, welche die durch Addition und Skalarmultiplikation gegebene Struktur erhalten.

Definition (Lineare Abbildung).

Eine Abbildung \({\varphi \colon V \to W}\) für \({K}\)-Vektorräume \({V}\) und \({W}\) heißt linear  falls für alle \({\lambda \in K}\) und \({u, v \in V}\) die Gleichungen
\({ \varphi(u + v) = \varphi(u) + \varphi(v) }\)
und
\({ \varphi(\lambda v) = \lambda \varphi(v) }\)
gelten. Eine bijektive lineare Abbildung wird auch (linearer) Isomorphismus von Vektorräumen genannt und eine lineare Abbildung der Form \({\varphi \colon V \to K}\) heißt auch Linearform auf \({V}\).

Alternativ lassen sich lineare Abbildungen auch darüber charakterisieren, dass sie Linearkombinationen erhalten. Mit Hilfe linearer Abbildungen können wir einige weitere Beispiele von (Unter)vektorräumen nennen. Dazu sei \({\varphi \colon V \to W}\) eine lineare Abbildung zwischen \({K}\)-Vektorräumen \({V}\) und \({W}\).

Weitere Beispiele von (Unter)vektorräumen

Unter den vorherigen Beispielen von Vektorräumen haben wir auch den von einer Teilmenge erzeugten Untervektorraum genannt. Mit Hilfe der Begriffe aus diesem Abschnitt können wir einen Untervektorraum alternativ auch als Kern einer linearen Abbildung beschreiben. Das folgende Lemma ist ein Pendant zu dem vorherigen Lemma zur Summe von erzeugten Untervektorräumen.

Lemma.

Für zwei lineare Abbildungen \({\varphi \colon V \to W}\) und \({\psi \colon V \to W'}\) ist der Kern der linearen Abbildung \[ \begin{pmatrix} \varphi \\ \psi \end{pmatrix} \colon V \to W \times W',\, v \mapsto \begin{pmatrix} \varphi(v) \\ \psi(v) \end{pmatrix} \] durch die Schnittmenge der Kerne \[ \ker \begin{pmatrix} \varphi \\ \psi \end{pmatrix} = (\ker \varphi) \cap (\ker \psi) \] gegeben.

Das heißt je nachdem ob wir Summen oder Schnitte von Untervektorräumen bilden, kann die eine oder die andere Darstellung geeigneter sein. Außerdem eignet sich die Darstellung als den von einer Teilmenge erzeugten Untervektorraum besonders gut um das Bild unter einer linearen Abbildung zu bilden: \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] für jede Teilmenge \({M \subseteq V}\). Auf der anderen Seite haben wir für das Urbild des Kerns einer linearen Abbildung \({\psi \colon W \to W'}\) die Gleichung \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) . \]

Lemma.

Eine lineare Abbildung ist genau dann injektiv wenn ihr Kern trivial ist.

Satz  (Rangsatz).

Für jede lineare Abbildung \({\varphi \colon V \to W}\) endlich-dimensionaler Vektorräume \({V}\) und \({W}\) gilt die Gleichung \[ \dim V = \dim \ker \varphi + \dim \varphi(V) . \]

Korollar.

Sei \({\varphi \colon V \to W}\) eine lineare Abbildung zwischen Vektorräumen gleicher endlicher Dimension \({n \coloneqq \dim V = \dim W \in \N_0}\). Dann sind die folgenden Assagen äquivalent:

Beweis.

Angenommen die lineare Abbildung \({\varphi \colon V \to W}\) ist injektiv. Dann gilt \[ \dim \varphi(V) = \dim V - \dim \ker \varphi = n - 0 = n \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zur Dimension von Unterverktorräumen folgt \({\varphi(V) = V}\).

Angenommen \({\varphi}\) ist surjektiv. Dann gilt \[ \dim \ker \varphi = \dim V - \dim \varphi(V) = n - n = 0 \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zu Kern und Injektivität folgt dass \({\varphi}\) injektiv ist.

Die übrigen Implikationen folgen dann per Definition.

Korollar  (Dimensionsformel).

Sei \({V}\) ein endlich-dimensionaler Vektorraum mit Untervektorräumen \({U, W \subseteq V}\). Dann gilt die Gleichung \[ \dim (U + W) + \dim (U \cap W) = \dim U + \dim W . \]

Beweis.

Sei \[ \varphi \colon U \cap W \to U \oplus W,\, u \mapsto \begin{pmatrix} u \\ u \end{pmatrix} \] und sei \[ \psi \colon U \oplus W \to U + W,\, \begin{pmatrix} u \\ w \end{pmatrix} \mapsto u - w . \] Dann gilt \({\varphi(U \cap W) = \ker \psi}\). Außerdem ist \({\varphi \colon U \cap W \to U \oplus W}\) injektiv und \({\psi \colon U \oplus W \to U + W}\) surjektiv. Zusammen mit dem Rangsatz folgt \[ \begin{split} \dim U + \dim W &= \dim (U \oplus W) \\ &= \dim \ker \psi + \dim \psi(U \oplus W) \\ &= \dim \varphi(U \cap W) + \dim (U + W) \\ &= \dim (U \cap W) + \dim (U + W) . \end{split} \]

Der Prototyp einer linearen Abbildung ist an sich eine durch die Multiplikation mit einer Matrix \({A \in K^{m \times n}}\) gegebene lineare Abbildung: \[ \varphi_A \colon K^n \to K^m,\, v \mapsto A v . \] Wir schreiben dann auch \({ \ker A \coloneqq \ker \varphi_A \subseteq K^n}\). Dementsprechend wird eine prototypische Linearform \({K^n \to K}\) durch eine \({1 \times n}\)-Matrix, auch Zeilenvektor genannt, beschrieben. Aus dem folgenden Satz der linearen Fortsetzung folgt, dass wir an sich alle linearen Abbildungen endlich-dimensionaler Vektorräume auf diese Art beschreiben können.

Satz  (Satz der linearen Fortsetzung).

Für Vektorräume \({V, W}\), eine Basis \({\{b_1, \dots, b_n\} \subset V}\) für \({n \in \N_0}\) und Vektoren \({w_1, \dots, w_n \in W}\) gibt es genau eine lineare Abbildung \({\varphi \colon V \to W}\) mit \({\varphi(b_i) = w_i}\) für \({i = 1, \dots, n}\).

Korollar.

Sei \({\varphi \colon K^n \to K^m}\) eine lineare Abbilung und sei \({A \coloneqq \begin{pmatrix} \varphi(e_1) & \cdots & \varphi(e_n) \end{pmatrix} \in K^{m \times n} }\) die Matrix deren Spalten die Bilder der Einheitsvektoren unter \({\varphi \colon K^n \to K^m}\) sind, dann gilt \({\varphi = \varphi_A \colon K^n \to K^m,\, v \mapsto A v}\).

Insbesondere können wir jede Linearform \({K^n \to K}\) durch einen Zeilenvektor aus \({K^{1 \times n}}\) beschreiben. Für einen solchen Zeilenvektor \({0 \neq a \in K^{1 \times n}}\) ist die Linearform \({\varphi_a \colon K^n \to K,\, v \mapsto a v}\) surjektiv, das heißt der Kern \({\ker a}\) von \({\varphi_a \colon K^n \to K}\) ist eine lineare Hyperebene nach dem Rangsatz. Damit stellt sich die Frage, wie wir den Kern einer beliebigen Matrix geometrisch beschreiben können. Sei dazu \({A \in K^{m \times n}}\) eine Matrix ohne Nullzeilen. Weiter nehmen wir an, dass \({a_1, \dots, a_m \in K^{1 \times n}}\) die Zeilen von \({A}\) sind, das heißt \({ A = \begin{pmatrix} a_1 \\ \vdots \\ a_m \end{pmatrix} . }\) Dann beschreibt jeder Zeilenvektor \({a_i}\) eine lineare Hyperebene \({\ker a_i \subset K^n}\) für \({i = 1, \dots, n}\). Weiter ist der Kern \({\ker A}\) dann die Schnittmenge dieser linearen Hyperebenen nach dem vorherigen Lemma zur Schnittmenge von Kernen linearer Abbildungen: \[ \ker A = \bigcap_{i = 1}^n \ker a_i . \] Für eine Matrix die möglicherweise Nullzeilen enthält bilden wir dann die Schnittmenge der Hyperebenen, die den Zeilen ungleich \({0 \in K^{1 \times n}}\) entsprechen.

Die folgende Aussage zu Untervektorräumen kann ebenfalls noch nützlich sein und gilt auch noch etwas allgemeiner für Vektorräume, die nicht endlich-dimensional sind.

Lemma  (Retraktionen auf Untervektorräume).

Sei \({U \subseteq V}\) ein Untervektorraum eines endlich-dimensionalen Vektorraums \({V}\). Dann gibt es eine lineare Abbildung \({ \rho \colon V \to U }\) mit \({ \rho |_U = \mathrm{id}_U . }\)

Beweis.

Da \({V}\) endlich-dimensional ist, hat der Quotientenvektorraum \({V / U}\) ein endliches Erzeugendensystem. Da eine Basis von \({V / U}\) ein minimales Erzeugendensystem ist nach vorheriger Proposition hat \({V / U}\) eine Basis \({ \{v_1 + U, \dots, v_k + U\} \subset V / U . }\) Weiter gibt es nach dem Satz der linearen Fortsetzung eine lineare Abbildung \({ \sigma \colon V / U \to V }\) mit \({ \sigma(v_i + U) = v_i }\) für \({ i = 1, \dots, k. }\) Sei nun \[ \mathrm{pr} \colon V \to V / U,\, v \mapsto v + U \] die Projektion auf den Quotientenraum. Dann gilt aufgrund der Eindeutigkeit im Satz der linearen Fortsetzung die Gleichung \({ \sigma \circ \mathrm{pr} = \mathrm{id}_{V / U} . }\) Wir definieren jetzt \[ \rho \coloneqq \mathrm{id}_V - \sigma \circ \mathrm{pr} \colon V \to U,\, v \mapsto v - \sigma(\mathrm{pr}(v)). \] Sei nun \({ u \in U }\) dann gilt \[ \rho(u) = u - \sigma(\mathrm{pr}(u)) = u - \sigma(u + U) = u - \sigma(U) = u - 0 = u \] da \({ U \in V/U }\) der Nullvektor in \({ V/U }\) ist.

Korollar.

Sei \({U \subseteq V}\) ein Untervektorraum eines endlich-dimensionalen Vektorraums \({V}\) und \({W}\) ein weiterer Vektorraum über \({K}\). Dann ist die Einschränkung \[ \mathrm{Hom}(V, W) \to \mathrm{Hom}(U, W),\, \varphi \mapsto \varphi |_U \] surjektiv.

Beweis.

Sei \({ \rho \colon V \to U }\) eine Retraktion im Sinne des vorherigen Lemmas und sei \({ \psi \colon U \to W }\) linear. Dann ist auch \({ \psi \circ \rho \colon V \to W }\) linear.

Bilinearformen

Definition.

Seien \({ U }\), \({ V }\) und \({ W }\) Vektorräume über einem Grundkörper \({ K }\). Eine Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) \] heißt bilinear, wenn \({ \gamma \colon U \times V \to W }\) in jeder Komponente linear ist. Das heißt für alle Vektoren \({u \in U}\) und \({v \in V}\) sind die Abbildungen \[ \begin{split} \gamma(u, -) & \colon V \to W,\, v' \mapsto \gamma(u, v') \quad \text{und} \\ \gamma(-, v) & \colon U \to W,\, u' \mapsto \gamma(u', v) \end{split} \] linear.

Eine bilineare Abbildung \[ \gamma \colon V \times V \to K,\, (u, v) \mapsto \gamma(u, v) \] wird auch eine Bilinearform auf \({V}\) genannt. Weiter ist \({ \gamma \colon V \times V \to K }\) symmetrisch falls für alle \({ u, v \in V }\) die Gleichung \({ \gamma(u, v) = \gamma(v, u) }\) gilt.

Der Prototyp für eine Bilinearform ist die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} = \sum_{i=1}^n u_i v_i , \] die im Fall \({ K = \R }\) auch Standardskalarprodukt genannt wird.

Definition.

Sei \({ \gamma \colon V \times V \to K }\) eine Bilinearform und sei \({ U \subset V }\) ein Untervektorraum. Das orthogonale Komplement von \({ U }\) bezüglich \({ \gamma \colon V \times V \to K }\) ist die Menge \[ U^{\perp} \coloneqq \{v \in V \mid \forall u \in U \colon \gamma(u, v) = 0\} . \] Für einen einzelnen Vektor \({ v \in V }\) schreiben wir auch \({ v^{\perp} \coloneqq \langle v \rangle^{\perp} }\).

Für eine Bilinearform \({ \gamma \colon V \times V \to K }\) und einen einzelnen Vektor \({ v \in V }\) erhalten wir das orthogonale Komplement \({ v^{\perp} \subseteq V }\) auch als Kern der Linearform \({ \gamma(v, -) \colon V \to K,\, w \mapsto \gamma(v, w) }\). Als Nächstes bestimmen wir die Dimension eines orthogonalen Komplements in bestimmten Fällen. Um solche Spezialfälle zu beschreiben betrachten wir nochmals eine allgemeine bilineare Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) . \] Dann nennen wir die induzierte lineare Abbildung \[ \gamma^{\#} \colon U \to \mathrm{Hom}(V, W),\, u \mapsto \gamma(u, -) \] die Curry-Transformierte von \({ \gamma }\) nach Haskell Curry.

Definition.

Eine bilineare Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) \] ist regulär falls ihre Curry-Transformierte \({ \gamma^{\#} \colon U \to \mathrm{Hom}(V, W) }\) ein linearer Isomorphismus ist.

Für die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \sum_{i=1}^n u_i v_i \] und einen Vektor \({ u = \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix} \in K^n }\) ist das Bild \({ \gamma^{\#}(u) }\) von \({ u }\) unter der Curry-Transformierten die durch den Zeilenvektor \({ u^T = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \in K^{1 \times n} }\) bestimmte Linearform \[ \varphi_{u^T} \colon K^n \to K,\, v = \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \longmapsto u^T v = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} . \] Nach dem Korollar zum Satz der linearen Fortsetzung ist die Standard-Bilinearform damit regulär. Trotzdem ist die Schnittmenge eines Untervektorraums \({ U \subseteq V }\) mit seinem orthogonalen Komplement \({ U^{\perp} }\) bezüglich \({ \gamma }\) im Allgemeinen nicht trivial, wie zum Beispiel im Fall \({ U \coloneqq \left\langle \begin{pmatrix} 1 \\ i \end{pmatrix} \right\rangle \subset \C^2 , }\) denn es gilt dann \[ \gamma\left( \begin{pmatrix} 1 \\ i \end{pmatrix} , \begin{pmatrix} 1 \\ i \end{pmatrix} \right) = 1^2 + i^2 = 1 - 1 = 0 \] und damit \[ \begin{pmatrix} 1 \\ i \end{pmatrix} \in \begin{pmatrix} 1 \\ i \end{pmatrix}^{\perp} = U^{\perp} . \] Trotzdem erhalten wir die folgende Aussage.

Proposition  (Dimension des Orthogonalen Komplements).

Sei \({ V }\) ein endlich-dimensionaler Vektorraum, sei \({ \gamma \colon V \times V \to K }\) eine symmetrische reguläre Bilinearform und sei \({ U \subseteq V }\) ein Untervektorraum. Dann gilt die Gleichung \({ \dim U + \dim U^{\perp} = \dim V . }\)

Beweis.

Sei \[ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U \] die Einschränkung. Dann ist \({ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K) }\) nach vorherigem Korollar surjektiv. Da die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) ein linearer Isomorphismus ist, ist dann auch die Komposition \[ \xi \circ \gamma^{\#} \colon V \to \mathrm{Hom}(U, K),\, v \mapsto \gamma(v, -) |_U \] surjektiv. Weiter gilt \[ \begin{split} U^{\perp} &= \{v \in V \mid \forall u \in U \colon \gamma(u, v) = 0\} \\ &= \{v \in V \mid \forall u \in U \colon \gamma(v, u) = 0\} \\ &= \{v \in V \mid \gamma(v, -) |_U = 0\} \\ &= \ker \xi \circ \gamma^{\#} . \end{split} \] Zusammen mit dem Rangsatz folgt \( \dim U^{\perp} = \dim \ker \xi \circ \gamma^{\#} = \dim V - \dim \mathrm{Hom}(U, K) = \dim V - \dim U . \)

Korollar.

Das orthogonale Komplement \({ v^{\perp} }\) eines Vektors \({ v \in V \setminus \{0\} }\) ungleich \({ 0 }\) bezüglich einer symmetrischen regulären Bilinearform ist eine lineare Hyperebene. In diesem Fall nennen wir \({ v }\) auch eine Normale von \({ v^{\perp} }\).

Als nächstes verwenden wir diesen Begriff des orthogonalen Komplements, um den Kern einer Matrix näher zu beschreiben. Sei dazu zunächst \({A \in K^{m \times n}}\) eine Matrix ohne Nullzeilen. Weiter sei \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \sum_{i=1}^n u_i v_i \] die Standard-Bilinearform auf \({ K^n }\) und seien \({ v_1, \dots, v_m \in K^n }\) die Vektoren aus \({ K^n }\) deren Transponierte die Zeilen von \({ A }\) sind: \[ A = \begin{pmatrix} v_1^T \\ \vdots \\ v_m^T \end{pmatrix} . \] Wir nennen dann \({ \langle v_1, \dots, v_m \rangle }\) den Zeilenraum von \({ A }\). Weiter ist der Kern \({ \ker A }\) das orthogonale Komplement des Zeilenraums \({ \langle v_1, \dots, v_m \rangle }\) bezüglich \({ \gamma \colon K^n \times K^n \to K }\). Für ein \({ i = 1, \dots, m }\) haben wir bereits am Ende des vorherigen Abschnitts zu linearen Abbildungen mit Hilfe des Rangsatzes gefolgert, dass der Kern \({ \ker v_i^T = v_i^{\perp} }\) der \({ i }\)-ten Zeile von \({ A }\) eine lineare Hyperebene ist. Mit Hilfe des vorherigen Korollars erhalten wir eine alternative Begründung über die Dimension des orthogonalen Komplements. Also ist der Kern von \({ A }\) die Schnittmenge \[ \ker A = \bigcap_{i = 1}^n \ker v_i^T = \bigcap_{i = 1}^n v_i^{\perp} \] der linearen Hyperebenen, die jeweils das orthogonale Komplement einer transponierten Zeile von \({ A }\) sind. Das heißt die transponierten Zeilen von \({ A }\) bilden die Normalen der linearen Hyperebenen deren Schnitt der Kern von \({ A }\) ist. (Den bestimmten Artikel die setzen wir hier in Anführungsstriche, da jede lineare Hyperebene für \({ K \neq \Z / 2 \Z }\) mehrere Normalen hat.) Für eine Matrix die möglicherweise Nullzeilen enthält können wir uns dann auf die orthogonalen Komplemente der trasponierten Zeilen ungleich \({ 0 }\) beschränken.

Über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) einer Bilinearform \({ \gamma \colon V \times V \to K }\) bekommen wir außerdem eine konkrete Beschreibung orthogonaler Komplemente endlich-erzeugter Untervektorräume bezüglich \({ \gamma }\).

Lemma  (Orthogonales Komplement als Kern).

Sei \({ \gamma \colon V \times V \to K }\) eine Bilinearform und seien \({ v_1, \dots, v_l \in V }\) Vektoren in \({ V }\) für \({ l \in \N_0 }\). Dann ist das orthogonale Komplement \({ \langle v_1, \dots, v_l \rangle^{\perp} \subseteq V }\) der Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Mit anderen Worten, es gilt die Gleichung \({ \langle v_1, \dots, v_l \rangle^{\perp} = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} }\).

Im Fall der Standard-Bilinearform \({ \gamma \colon K^n \times K^n \to K }\) ist die lineare Abbildung \({ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon K^n \to K^l }\) die Multiplikation mit der Matrix \({ \begin{pmatrix} v_1^T \\ \vdots \\ v_l^T \end{pmatrix} \in K^{n \times n} }\).

Übersetzung Zwischen Verschiedenen Darstellungen von Untervektorräumen

Sei \({ V }\) ein endlich-dimensionaler Vektorraum über einem Körper \({ K }\). Falls \({ K }\) unendliche viele Elemente hat, wie zum Beispiel \({ \Q }\), \({ \R }\) oder \({ \C }\), dann enthält jeder nicht-triviale Untervektorraum von \({ V }\) unendlich viele Vektoren. Das heißt wir können solche Untervektorräume nicht beschreiben, indem wir ihre Vektoren aufzählen. Aus dem Abschnitt zu Vektorräumen kennen wir die Möglichkeit Untervektorräume als Erzeugnis \({ \langle M \rangle }\) einer Teilmenge von Vektoren \({ M \subset V }\) zu beschreiben. Und nach dem Abschnitt zu linearen Abbildungen können wir einen Untervektorraum auch über den Kern einer linearen Abbildung definieren. Weiter können wir für jeden Untervektorraum von \({ V }\) nach dem Lemma zur Dimension von Unterverktorräumen eine endliche Basis, also insbesondere ein endliches Erzeugendensystem wählen. Damit stellt sich die Frage, ob wir jeden Untervektorraum von \({ V }\) auch als Kern einer linearen Abbildung in einen endlich-dimensionalen Vektorraum, also letzten Endes eine Matrix, darstellen können.

Lemma  (Untervektorräume als Kerne).

Sei \({ V }\) endlich-dimensional über \({ K }\) und sei \({ U \subseteq V }\) ein Untervektorraum. Weiter sei \({ \{\alpha_1, \dots, \alpha_l\} \subset \mathrm{Hom}(V, K),\, l \in \N_0 }\) eine Basis (oder ein Erzeugendensystem) für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\) und sei \[ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \alpha_1(v) \\ \vdots \\ \alpha_l(v) \end{pmatrix} . \] Dann gilt die Gleichung \({ U = \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} . }\)

Beweis.

Sei \({ u \in U }\) dann gilt insbesondere \({ \alpha_i(u) = 0 }\) für \({ i = 1, \dots, l }\) und damit \({ U \subseteq \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} }\). Also genügt es nach dem Lemma zur Dimension von Untervektorräumen die Ungleichung \({ \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \leq \dim U }\) zu zeigen. Sei dazu \[ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U \] die Einschränkung und \[ \Theta \colon \mathrm{Hom}(\mathrm{Hom}(V, K), K) \to \mathrm{Hom}(\ker \xi, K),\, \Lambda \mapsto \Lambda |_U \] die Einschränkung auf \({ \ker \xi }\). Nach dem Korollar zur Retraktion von Untervektorräumen sind die beiden Einschränkungen \({ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K) }\) und \({ \Theta \colon \mathrm{Hom}(\mathrm{Hom}(V, K), K) \to \mathrm{Hom}(\ker \xi, K) }\) surjektiv. Also gilt nach dem Rangsatz die Gleichung \[ \begin{split} \dim \ker \xi + \dim U &= \dim \ker \xi + \dim \mathrm{Hom}(U, K) \\ &= \dim \mathrm{Hom}(V, K) \\ &= \dim \mathrm{Hom}(\mathrm{Hom}(V, K), K) \\ &= \dim \ker \Theta + \dim \mathrm{Hom}(\ker \xi, K) \\ &= \dim \ker \Theta + \dim \ker \xi . \end{split} \] Wenn wir auf beiden Seiten \({ \dim \ker \xi }\) abziehen, erhalten wir die Gleichung \({ \dim \ker \Theta = \dim U }\). Weiter sei \[ \mathrm{ev} \colon V \to \mathrm{Hom}(\mathrm{Hom}(V, K), K),\, v \longmapsto (\alpha \mapsto \alpha(v)) \] die Evaluation, dann gilt \({ \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \subseteq \ker (\Theta \circ \mathrm{ev}) }\) da \({ \{\alpha_1, \dots, \alpha_l\} }\) ein Erzeugendensystem von \({ \ker \xi }\) ist. Weil \({ \mathrm{ev} \colon V \to \mathrm{Hom}(\mathrm{Hom}(V, K), K) }\) injektiv ist, folgt zusammen mit der Gleichung \({ \dim \ker \Theta = \dim U }\) schließlich die Ungleichung \[ \dim \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \leq \dim \ker (\Theta \circ \mathrm{ev}) \leq \dim \ker \Theta = \dim U . \]

Die Basis \({ \{\alpha_1, \dots, \alpha_l\} \subset \mathrm{Hom}(V, K) }\) für den Kern der Einschränkung aus dem vorherigen Lemma können wir auch geometrisch interpretieren, indem wir uns auf eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) auf \({ V }\) festlegen. Denn über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) erhalten wir einen linearen Isomorphismus zwischen \({ V }\) und den Linearformen \({ V \to K }\).

Lemma.

Sei \({ U \subseteq V }\) ein Untervektorraum und sei \({ U^{\perp} \subseteq V }\) das orthogonale Komplement von \({ U }\) bezüglich der symmetrischen regulären Bilinearform \({ \gamma \colon V \times V \to K . }\) Dann ist das Bild \({ \gamma^{\#}(U^{\perp}) }\) von \({ U^{\perp} \subset V }\) unter der Curry-Transformierten \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) der Kern der Einschränkung \({ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U . }\) Oder mit anderen Worten \({ \gamma^{\#}(U^{\perp}) = \ker \xi . }\)

Beweis.

Sei \({ v \in V }\). Dann ist die Gleichung \({ 0 = \gamma(v, -) |_U = \gamma(-, v) |_U }\) äquivalent zu \({ v \in U^{\perp} }\).

Korollar.

Sei \({ V }\) endlich-dimensional über \({ K }\) und sei \({ U \subseteq V }\) ein Untervektorraum. Weiter sei \({ \{v_1, \dots, v_l\} \subset U^{\perp},\, l \in \N_0 }\) eine Basis (oder ein Erzeugendensystem) für das orthogonale Komplement \({ U^{\perp} \subseteq V }\) von \({ U }\) bezüglich der symmetrischen regulären Bilinearform \({ \gamma \colon V \times V \to K }\) und sei \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Dann gilt die Gleichung \({ U = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} . }\)

Beweis.

Nach dem vorherigen Lemma ist \({ \{ \gamma^{\#}(v_1), \dots, \gamma^{\#}(v_l) \} \subset \mathrm{Hom}(V, K) }\) ein Erzeugendensystem für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\). Die Behauptung folgt dann zusammen mit dem Lemma zu Unterektorräumen als Kerne linearer Abbildungen.

Alternativer Beweis: Nach dem Lemma zum orthogonalen Komplement als Kern gilt \({ U^{\perp \perp} = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} }\) und weiter \({ U = U^{\perp \perp} }\) nach Übung 2 aus Woche 2.

Das heißt um einen Untervektorraum \({ U \subseteq V }\) als Kern einer linearen Abbildung darzustellen, müssen wir nur eine Basis \({ \{v_1, \dots, v_l\} \subset U^{\perp},\, l \in \N_0 }\) des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) bestimmen; die lineare Abbildung deren Kern \({ U \subseteq V }\) ist erhalten wir dann durch \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Und falls uns \({ U \subseteq V }\) durch ein Erzeugendensystem \({ \langle u_1, \dots, u_m \rangle = U,\, m \in \N_0 }\) gegeben ist, dann erhalten wir \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m,\, v \mapsto \begin{pmatrix} \gamma(u_1, v) \\ \vdots \\ \gamma(u_m, v) \end{pmatrix} \] nach dem Lemma zum orthogonalen Komplement als Kern. Das heißt letzten Endes können wir die Übersetzung der Darstellung von \({ U }\) als Erzeugnis \({ \langle u_1, \dots, u_m \rangle = U }\) in eine Darstellung von \({ U }\) als Kern darauf zurückführen, dass wir die Darstellung des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \({ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m }\) in eine Darstellung von \({ U^{\perp} }\) als ein Erzeugnis \[ \langle v_1, \dots, v_l \rangle = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} = U^{\perp} \] übersetzen. Diese Übersetzungen sind insofern praktisch, dass wir mit der jeweils geeigneten Darstellung ohne weitere Berechnungen Summen von Untervektorräumen nach dem Lemma zur Summe von Erzeugnissen und Schnitte von Untervektorräumen nach dem Lemma zum Schnitt von Kernen bestimmen können. Außerdem können wir Bilder und Urbilder von Untervektorräumen unter linearen Abbildungen über die Formeln \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] und \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) \] aus dem Abschnitt zu linearen Abbildungen ohne weitere Berechnungen bestimmen. Alles was wir für die beiden Übersetzungen benötigen ist ein Algorithmus zur Berechnung des Kerns einer linearen Abbildung zwischen endlich-dimensionalen Vektorräumen: das Gauß-Verfahren.

Außerdem können wir die Darstellung eines Untervektorraums \({ U \subseteq V }\) als Kern der linearen Abbildung \({ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l }\) für eine Basis \({ \{v_1, \dots, v_l\} \subset U^{\perp} }\) aus dem vorherigen Korollar wie folgt geometrisch interpretieren. Nach dem Lemma zum orthogonalen Komplement als Kern und Übung 4 aus Woche 2 gilt die Gleichung \[ U = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} = \langle v_1, \dots, v_l \rangle^{\perp} = \bigcap_{i=1}^l v_i^{\perp} . \] Weiter ist nach dem Korollar zum orthogonalen Komplement eines Vektors der Untervektorraum \({ v_i^{\perp} }\) eine lineare Hyperebene für \({ i = 1, \dots, l }\). Das heißt die Vektoren \({ v_1, \dots, v_l }\) bilden die Normalen linearer Hyperebenen deren Schnitt der Untervektorraum \({ U \subseteq V }\) ist. (Den bestimmten Artikel die setzen wir hier in Anführungsstriche, da jede lineare Hyperebene für \({ K \neq \Z / 2 \Z }\) mehrere Normalen hat.)

Die Adjungierte Abbildung

Seien \({ V }\) und \({ W }\) endlich-dimensionale Vektorräume über \({ K }\) zusammen mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\). Weiter sei \({ \varphi \colon V \to W }\) eine lineare Abbildung und \({ U \subseteq W }\) ein Untervektorraum. Wie im vorherigen Abschnitt beschrieben, eignet sich die Darstellung von \({ U }\) als Kern einer linearen Abbildung besonders gut um das Urbild \({ \varphi^{-1}(U) }\) von \({ U }\) unter \({ \varphi \colon V \to W }\) zu bestimmen. Dazu sei \({ \{w_1, \dots, w_l\} }\) ein Erzeugendensystem des orthogonalen Komplements \({ U^{\perp} \subseteq W }\) bezüglich \({ \mu \colon W \times W \to K }\). Nach dem vorherigen Korollar gilt dann \({ U = \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} }\) und zusammen mit dem Lemma zum Schnitt von Kernen folgt die Gleichung \[ \begin{split} \varphi^{-1}(U) &= \varphi^{-1} \left( \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \right) \\ &= \ker \left( \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \circ \varphi \right) \\ &= \ker \begin{pmatrix} \gamma^{\#}(w_1) \circ \varphi \\ \vdots \\ \gamma^{\#}(w_l) \circ \varphi \end{pmatrix} \\ &= \bigcap_{i=1}^l \ker (\gamma^{\#}(w_i) \circ \varphi) . \end{split} \] Weiter ist für \({ i = 1, \dots, l }\) der Kern \({ \ker (\gamma^{\#}(w_i) \circ \varphi) \subseteq V }\) der Linearform \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) nach dem Rangsatz eine lineare Hyperbene oder ganz \({ V }\) je nachdem ob \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) surjektiv oder die Nullabbildung ist. In dem Fall, dass \({ \gamma^{\#}(w_i) \circ \varphi }\) surjektiv ist könnten wir versuchen eine Normale für die lineare Hyperebene \({ \ker (\gamma^{\#}(w_i) \circ \varphi) }\) bezüglich der Bilinearform \({ \gamma \colon V \times V \to K }\) anzugeben, möglichst in Abhängigkeit von \({ w_i }\) und \({ \varphi \colon V \to W }\). Diese Aufgabe erfüllt die sogennante adjungierte Abbildung von \({ \varphi \colon V \to W }\). Sei dazu \({ w \in W }\) dann erhalten wir mit \[ \mu(w, \varphi(-)) \colon V \to K,\, v \mapsto \mu(w, \varphi(v)) \] eine Linearform auf \({ V }\). Da \({ \gamma \colon V \times V \to K }\) regulär ist, gibt es dann genau einen Vektor \({ \varphi^T(w) \in V }\) mit \[ \gamma^{\#}(\varphi^T(w)) = \gamma(\varphi^T(w), -) = \mu(w, \varphi(-)) . \] Da \({ w \in W }\) beliebig war, bekommen wir so eine Abbildung \[ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) . \]

Definition.

Die soeben definierte Abbildung \({ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) }\) ist die adjungierte Abbildung von \({ \varphi \colon V \to W }\) bezüglich der regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\).

Lemma.

Die adjungierte Abbildung \({ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) }\) ist linear.

Beweis.

Seien \({ w, w' \in W }\) und \({ \lambda \in K }\) dann gelten für alle \({ v \in V }\) die Gleichungen \[ \begin{split} \gamma(\varphi^T(w) + \varphi^T(w'), v) &= \gamma(\varphi^T(w), v) + \gamma(\varphi^T(w'), v) \\ &= \mu(w, \varphi(v)) + \mu(w', \varphi(v)) \\ &= \mu(w + w', \varphi(v)) \end{split} \] und \[ \begin{split} \gamma(\lambda \varphi^T(w), v) &= \lambda \gamma(\varphi^T(w), v) \\ &= \mu(w, \varphi(v)) \\ &= \mu(\lambda w, \varphi(v)) . \end{split} \] Damit gilt \({ \varphi^T(w + w') = \varphi^T(w) + \varphi^T(w') }\) und \({ \varphi^T(\lambda w) = \lambda \varphi^T(w) }\).

Lemma.

Für die Adjungierte \({ \varphi^{TT} \colon V \to W,\, v \mapsto \varphi^{TT}(v) }\) der adjungierten Abbildung \({ \varphi^{T} \colon W \to V }\) gilt \({ \varphi^{TT} = \varphi }\).

Beweis.

Sei \({ v \in V }\) und \({ w \in W }\) dann gilt \( \mu(\varphi(v), w) = \mu(w, \varphi(v)) = \gamma\big(\varphi^T(w), v\big) = \gamma(v, \varphi^T(w)) \). Da \({ w \in W }\) beliebig war gilt damit \({ \mu(\varphi(v), -) = \gamma\big(v, \varphi^T(-)\big) \colon W \to K }\).

Lemma.

Seien \({ V }\) und \({ W }\) endlich-dimensionale Vektorräume über \({ K }\) zusammen mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\), sei \({ \varphi \colon V \to W }\) eine lineare Abbildung und sei \({ U \subseteq W }\) ein Untervektorraum. Dann gilt die Gleichung \({ \varphi^{-1}\big(U^{\perp}\big) = \varphi^T(U)^{\perp} }\).

Korollar.

Sei weiter \({ \{w_1, \dots, w_l\},\, l \in \N_0 }\) ein Erzeugendensystem des orthogonalen Komplements \({ U^{\perp} \subseteq W }\) von \({ U }\) bezüglich \({ \mu \colon W \times W \to K }\). Dann gilt die Gleichung \[ \varphi^{-1}(U) = \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} . \]

Beweis.

Nach Übung 2 aus Woche 2, dem vorherigen Lemma und Übung 4 aus Woche 2 gilt \[ \begin{split} \varphi^{-1}(U) &= \varphi^{-1}\big(U^{\perp \perp}\big) \\ &= \varphi^T(U^{\perp})^{\perp} \\ &= \varphi^T(\langle w_1, \dots, w_l \rangle)^{\perp} \\ &= \langle \varphi^T(w_1), \dots, \varphi^T(w_l) \rangle^{\perp} \\ &= \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} . \end{split} \]

Mit diesem Korollar können wir schließlich das Urbild \({ \varphi^{-1}(U) }\) als einen Schnitt von Hyperebenen darstellen deren Normalen wir über die adjungierte Abbildung erhalten: Je nachdem ob \({ \varphi^T(v_i) }\) der Nullvektor ist oder nicht, ist \({ \varphi^T(v_i)^{\perp} }\) der ganze Vektorraum \({ V }\) oder eine lineare Hyperebene von \({ V }\). Damit erhalten wir das Urbild \({ \varphi^{-1}(U) }\) als den Schnitt \[ \varphi^{-1}(U) = \bigcap_{\substack{i=1 \\ \varphi^T(v_i) \neq 0}}^l \varphi^T(w_i)^{\perp} \] linearer Hypereben. Neben dieser konkreten Beschreibung von Urbildern linearer Unterräume erhalten wir noch die Gleichungen des folgenden Korollars zum vorherigen Lemma.

Korollar.

Sei \({ \varphi \colon V \to W }\) eine lineare Abbildung endlich-dimensionaler \({ K }\)-Vektorräume mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\). Dann gelten die Gleichungen
  1. \({ \ker \varphi = \varphi^T(W)^{\perp} }\),
  2. \({ \ker \varphi^T = \varphi(V)^{\perp} }\)
  3. und \({ \big(\ker \varphi^T\big)^{\perp} = \varphi(V) }\).

Beweis.

  1. Für \({ U \coloneqq W }\) erhalten wir aufgrund der Regularität von \({ \mu \colon W \times W \to K }\) die Gleichung \({ U^{\perp} = W^{\perp} = \{0\} }\) und in Kombination mit dem vorherigen Lemma die Gleichung \( \varphi^T(W)^{\perp} = \varphi^T(U)^{\perp} = \varphi^{-1}\big(U^{\perp}\big) = \varphi^{-1}\big(\{0\}\big) = \ker \varphi \).
  2. Nach der ersten Gleichung und dem Lemma zu Adjungierten adjungierter Abbildungen gilt die Gleichung \({ \ker \varphi^T = \varphi^{TT}(V)^{\perp} = \varphi(V)^{\perp} }\).
  3. Nach der zweiten Gleichung und Übung 2 aus Woche 2 gilt \({ \big(\ker \varphi^T\big)^{\perp} = \varphi(V)^{\perp \perp} = \varphi(V) }\).

Lemma.

Sei \({ A \in K^{n \times m} }\) eine Matrix und \({ \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\) die zugehörige lineare Abbildung. Dann ist die Multiplikation mit der transponierten Matrix \({ \varphi_{A^T} \colon K^m \to K^n,\, v \mapsto A^T v }\) die zu \({ \varphi }\) adjungierte Abbdildung \({ \varphi^T \colon K^m \to K^n }\) bezüglich der Standard-Bilinearformen \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu \colon K^m \times K^m \to K }\) auf \({ K^n }\) bzw. \({ K^m }\).

Beweis.

Sei \({ w \in K^m }\) dann ist \[ \mu(w, \varphi_A(-)) \colon K^n \to K,\, v \mapsto \gamma(w, \varphi_A(v)) \] die zugehörige Linearform \({ K^n \to K }\). Sei nun \({ v \in K^n }\) dann gilt \[ \mu(w, \varphi_A(v)) = w^T (A v) = (w^T A) v = (A^T w)^T v = \gamma(\varphi_{A^T}(w), v) . \] Da \({ v \in K^n }\) beliebig war ist damit \({ \varphi_{A^T}(w) \in K^n }\) das Bild von \({ w }\) unter der adjungierten Abbildung \({ \varphi^T \colon K^m \to K^n }\).

Geometrische Betrachtung des Gauß-Verfahren

In den beiden vorherigen Abschnitten haben wir uns mit dem Problem auseinandergesetzt für eine lineare Abbildung \({ \varphi \colon V \to W }\) und einen Untervektorraum \({ U \subseteq W }\) das Urbild \({ \varphi^{-1}(U) \subseteq V }\) zu bestimmen. In diesem Abschnitt beschäftigen wir uns mit dem Spezialfall, dass \({ U }\) der Nullvektorraum \({ \{0\} \subseteq W }\) ist und \({ V }\) und \({ W }\) endlich-dimensional sind. In diesem Spezialfall ist das Urbild \({ \varphi^{-1}(U) }\) der Kern \({ \ker \varphi = \varphi^{-1}(0) }\). Wie wir im Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen gesehen haben können viele andere Probleme auf diese eine Frage reduziert werden. Eine konkretere Beschreibung des Kerns \({ \ker \varphi }\) erhalten wir indem wir eine Basis (oder ein Erzeugendensystem) \({ \{\alpha_1, \dots, \alpha_m\} }\) des Dualraums \({ \mathrm{Hom}(W, K) }\) von \({ W }\) wählen. Nach dem Lemma zu Untervektorräumen als Kerne und dem Lemma zum Schnitt von Kernen erhalten wir dann \[ \{0\} = \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} = \bigcap_{i=1}^m \ker \alpha_i \] und damit den Kern \[ \ker \varphi = \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) = \bigcap_{i=1}^m \ker (\alpha_i \circ \varphi) = \bigcap_{\stackrel{i=1}{\alpha_i \circ \varphi \neq 0}}^m \ker (\alpha_i \circ \varphi) \] als Schnitt linearer Hyperebenen in \({ V }\). Diesen Schnitt linearer Hyperebenen können wir mit Hilfe von symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\) geometrischer beschreiben. Für \({ i = 1, \dots, m }\) können wir dann die Linearform \({ \alpha_i \colon W \to K }\) durch einen Vektor \({ w_i \in W }\) darstellen: \({ \mu(w_i, -) = \alpha_i \colon W \to K }\). Damit erhalten wir \({ \ker \alpha_i = w_i^{\perp} }\) und zusammen mit dem Lemma zum Urbild und der adjungierten Abbildung die Gleichung \[ \begin{split} \ker \varphi &= \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) \\ &= \bigcap_{i=1}^m \varphi^{-1}(w_i^{\perp}) \\ &= \bigcap_{i=1}^m \varphi^T(w_i)^{\perp} \\ &= \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} , \end{split} \] wobei \({ \varphi^T \colon W \to V }\) die zu \({ \varphi \colon V \to W }\) adjungierte Abbildung bezüglich der Bilinearformen \({ \gamma }\) und \({ \mu }\) ist. Das heißt um den Kern von \({ \varphi \colon V \to W }\) zu bestimmen, können wir eine Basis (oder ein Erzeugendensystem) \({ \{w_1, \dots, w_m\} \subset W }\) wählen und dann die Urbilder \({ \varphi^{-1}\big(w_i^{\perp}\big) \subseteq V }\) der linearen Hyperebenen \({ w_1^{\perp}, \dots, w_m^{\perp} }\) unter \({ \varphi }\) in \({ V }\) schneiden; oder wir können die Normalen \({ w_1, \dots, w_m }\) selbst entlang der Adjungierten \({ \varphi^T \colon W \to V }\) nach \({ V }\) abbilden, erhalten die zugehörigen linearen Hyperebenen dann als deren orthogonale Komplemente \({ \varphi^T(w_i)^{\perp} \subset V,\, i = 1, \dots, m, \varphi^T(w_i) \neq 0 }\) und den Kern \({ \ker \varphi }\) schließlich als den Schnitt dieser linearen Hyperebenen: \[ \ker \varphi = \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} . \] Im Fall \({ V = K^n }\), \({ W = K^m }\), \({ \varphi = \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\) für \({ A \in K^{m \times n} }\) und \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu }\) die Standard-Bilinearformen sind, liefert das Gauß-Verfahren eine Methode von der Standardbasis des \({ K^m }\) ausgehend die Normalen \({ w_1, \dots, w_m \in K^m }\) sukzessive so zu wählen, dass wir anhand der Darstellung des Kerns als Schnitt geeigneter linearer Hyperebenen relativ direkt eine Basis für den Kern \[ \ker A = \bigcap_{\stackrel{i=1}{A^T w_i \neq 0}}^m (A^T w_i)^{\perp} \] ablesen können.

Nun betrachten wir die einzelnen Schritte des Gauß-Verfahrens an dem Beispiel: \[ A \coloneqq \begin{pmatrix} 3 & 9 & -4 \\ -6 & 6 & 4 \end{pmatrix} \in \R^{2 \times 3} . \] Zunächst wählen wir für \({ w_1, w_2 \in \R^2 }\) die Standardbasis \({ w_i \coloneqq e_i,\, i = 1,2 }\). Die lineare Hyperebene mit \({ w_1 = e_1 \in \R^2 }\) als Normale ist die \({ y }\)-Achse und das orthogonale Komplement von \({ w_2 = e_2 }\) die \({ x }\)-Achse. Deren Urbilder unter \({ \varphi_A \colon \R^3 \to \R^2 }\) sind jeweils die linearen Hyperebenen mit den Normalen \({ A^T w_1 = \begin{pmatrix} 3 \\ 9 \\ -4 \end{pmatrix} \in \R^3 }\) und \({ A^T w_2 = \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\), also die Zeilen von \({ A }\) transponiert; dazu hier eine Visualisierung. Der Kern von \({ A }\) ist dann der Schnitt linearer Hyperebenen \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w_2\big)^{\perp} }\). Der erste Schritt im Gauß-Verfahren sieht nun vor, dass wir die zweite Zeile von \({ A }\) und damit die zweite Normale \({ \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\) durch eine Linearkombination \[ \lambda A^T w_1 + A^T w_2 = A^T (\lambda w_1 + w_2) = A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} \] dieser beiden Normalen ersetzen, deren erste Komponente verschwindet. In der Visualisierung können wir rechts unten den Vektor \({ w_2 = \begin{pmatrix} 0 \\ 1 \end{pmatrix} \in \R^2 }\) beliebig ändern und erhalten auf die Art alle möglichen Linearkombinationen \({ A^T w }\) der beiden Normalen und die zugehörige lineare Hyperebene \({ (A^T w)^{\perp} = \varphi^{-1}\big(w^{\perp}\big) \subset \R^3 }\). In einer zweiten Visualisierung beschränken wir uns auf die Vektoren \({ w = \begin{pmatrix} \lambda \\ 1 \end{pmatrix},\, \lambda \in \R }\). Dabei ist der zugehörige Schnitt \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w\big)^{\perp} }\) linearer Hyperebenen unabhängig von \({ \lambda \in \R }\) und damit identisch zum Kern von \({ A }\). Nun verschwindet die erste Komponente der Normalen \({ A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} }\) genau dann, wenn \({ \lambda = 2 }\) gilt, wir setzen also \({ w'_2 = \begin{pmatrix} 2 \\ 1 \end{pmatrix} }\) und erhalten dann die Normale \({ A^T w'_2 = \begin{pmatrix} 0 \\ 24 \\ -4 \end{pmatrix} \in \R^3 }\). Da die erste Komponente dieser Normalen verschwindet ist der erste Einheitsvektor \({ e_1 \in \R^3 }\) im orthogonalen Komplement \({ (A^T w'_2)^{\perp} }\) enthalten: \({ (A^T w'_2)^T e_1 = 0 }\). Wie auch in der zweiten Visualisierung nach entsprechender Änderung des Vektors \({ w }\) rechts unten zu erkennen ist, ist damit auch die gesamte \({ x }\)-Achse in \({ (A^T w'_2)^{\perp} }\) enthalten. Die zugehörige Matrix \({ A' \coloneqq \begin{pmatrix} w_1^T A \\[0.4ex] {w'}_2^T A \end{pmatrix} = \begin{pmatrix} 3 & 9 & -4 \\ 0 & 24 & -4 \end{pmatrix} }\) ist bereits in Zeilenstufenform. Die Stufen befinden sich in den Spalten \({ 1 }\) und \({ 2 }\). Damit haben wir eine freie Variable und zwar die \({ z }\)-Koordinate. Um eine Basis bzw. einen Erzeuger \({ v \in \ker A' = \ker A }\) für den Kern von \({ A' }\) zu bestimmen, wählen wir den Ansatz  \({ v = \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} }\). Damit \({ A' v = 0 }\) gilt, muss insbesonder die zweite Komponente von \({ A' v }\) verschwinden und damit \[ 0 = {w'}_2^T A v = \begin{pmatrix} 0 & 24 & -4 \end{pmatrix} \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} = 24y - 4 \] gelten. Wir erhalten also \({ y = \frac{1}{6} }\). Weiter muss für \({ A' v = 0 }\) auch die erste Komponente von \({ A' v }\) verschwinden und damit \[ 0 = w_1^T A v = \begin{pmatrix} 3 & 9 & -4 \end{pmatrix} \begin{pmatrix} x \\ \frac{1}{6} \\ 1 \end{pmatrix} = 3x + \frac{9}{6} - 4 \] gelten. Wir erhalten also \({ x = \frac{5}{6} }\) und damit \({ \ker A = \left\langle \frac{1}{6} \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle = \left\langle \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle . }\)

Wenn wir also die Zeilen einer Matrix \({ A \in K^{m \times n} }\) als Normalen linearer Hyperebenen auffassen, deren Schnitt der Kern von \({ A }\) ist, dann ersetzen wir diese Normalen im Gauß-Verfahren sukzessive durch andere Normalen, deren zugehörige lineare Hyperebenen den gleichen Schnitt bilden, und an bestimmten Einträgen verschwinden.

Wozu abstrakte Vektorräume?

Im Abschnitt zu den Begriffen Basis und Dimenison haben wir gesehen dass wir für endlich-dimensionale Vektorräume sowie für deren Untervektorräume immer eine Basis und damit einen linearen Isomorphismus zu einem Vektorraum der Form \({ K^n }\) für ein \({ n \in \N_0 }\) wählen können. Weiter können wir jede lineare Abbildung \({ K^n \to K^m }\) für \({ m, n \in \N_0 }\) als Multiplikation mit einer Matrix aus \({ K^{m \times n} }\) darstellen. Daher drängt sich die Frage auf, wozu wir dann noch abstrakte Vektorräume brauchen, wenn wir im Prinzip ja sowieso alle Vektoren als Spaltenvektoren und jede lineare Abbildung als eine Matrix verstehen können. Mit Hilfe von dem Begriff des orthogonalen Komplements aus diesem Abschnitt können wir schließlich an einem konkreten Beispiel demonstrieren, dass der Begriff des abstrakten Vektorraums dennoch hilfreich ist.

Im Fall eines einzelnen Vektors \({ v \in \R^2 \setminus \{0\} }\) ist das orthogonale Komplement \({ v^{\perp} \subset \R^2 }\) eine Ursprungsgerade in \({ \R^2 }\) mit \({ v }\) als Normale; insbesondere also ein Untervektorraum der Dimension \({ 1 }\). Also wird jeder lineare Isomorphismus \({ \R \cong v^{\perp} }\) von einem einzelnen Basisvektor \({ u \in v^{\perp} \setminus \{0\} }\) bestimmt und umgekehrt. Die folgende Grafik zeigt eine Ursprungsgerade mit zugehöriger Normale \({ v }\) sowie einen passenden Basisvektor \({ u }\) für \({ v^{\perp} }\) :

Ganz egal wie wir jetzt die Normale \({ v }\) oder den Basisvektor \({ u }\) stetig bewegen, sobald die Normale \({ v }\) ein negatives Vielfaches der ursprünglichen Wahl für \({ v }\) ist, erhalten wir auch für \({ u }\) ein negatives Vielfaches des ursprünglichen Basisvektors. Also gibt es keine Möglichkeit für jede Ursprungsgerade in \({ \R^2 }\) stetig einen Basisvektor bzw. einen linearen Isomorphismus zu \({ \R }\) zu wählen. Aus diesem Grund ist es hilfreich, dass wir mit dem Begriff des Vektorraums solche Ursprungsgeraden und andere (Unter)vektorräume untersuchen können, ohne uns dabei auf eine bestimmte Basis festzulegen.

Vor diesem Hintergrund können wir uns auch noch einmal die Basis bzw. den Erzeuger ansehen, den wir in diesem Fall durch Rückwertssubstitution im Gauß-Verfahren erhalten und wo bei diesem Verfahren eine Diskontinuität auftritt. Dazu schreiben wir \({ v = \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} }\) für die Normale \({ v \in \R^2 \setminus \{0\} }\). Bezüglich der Standard-Bilinearform \({ \gamma \colon \R^2 \times \R^2 \to \R }\) erhalten wir dann die zugehörige Linearform \[ \gamma(v, -) = \varphi_{v^T} \colon \R^2 \to \R,\, w \mapsto v^T w = \begin{pmatrix} v_1 & v_2 \end{pmatrix} w \] deren Kern die lineare Hyperebene \({ v^{\perp} \subset \R^2 }\) zur Normalen \({ v }\) ist. Die zugehörige Matrix \({ v^T = \begin{pmatrix} v_1 & v_2 \end{pmatrix} \in \R^{1 \times 2} }\) ist trivialerweise bereits in Zeilenstufenform und um einen Erzeuger für den Kern \({ \ker v^T }\) zu bestimmen unterscheiden wir die beiden Fälle \({ v_1 \neq 0 }\) und \({ v_1 = 0 }\). Im Fall \({ v_1 \neq 0 }\) wählen wir bei der Rückwertssubstitution die \({ y }\)-Koordinate als freie Variable. Das heißt wir wählen den Ansatz und \({ u = \begin{pmatrix} u_1 \\ 1 \end{pmatrix} }\). Wie auch die folgende Grafik zeigt, liegt der Erzeuger \({ u }\) damit auf der affinen Geraden \({ \R \times \{1\} \subset \R^2 }\):

Mit anderen Worten, falls \({ v_1 \neq 0 }\) gilt, haben die lineare Hyperebene \({ v^{\perp} }\) und die affine Gerade \({ \R \times \{1\} }\) genau einen Schnittpunkt \({ u \in \R^2 \setminus \{0\} }\) welchen wir bei Rückwertssubstitution im Gauß-Verfahren als Erzeuger wählen: \({ \langle u \rangle = \ker v^T = v^{\perp} }\). Nähert sich die Normale \({ v }\) allerdings von außerhalb der \({ y }\)-Achse, dann wandert dieser Schnittpunkt \({ u \in v^{\perp} \cap (\R \times \{1\}) }\) auf dieser affinen Geraden \({ \R \times \{1\} }\) ins Unendliche. In dem Grenzfall, dass \({ v_1 = 0,\, v_2 \neq 0 }\) gilt und \({ v }\) damit auf der \({ y }\)-Achse liegt, wählen wir bei der Rückwertssubstitution den Ansatz \({ u = \begin{pmatrix} 1 \\ u_2 \end{pmatrix} }\) und erhalten schließlich den ersten Einheitsvektor \({ u = \begin{pmatrix} 1 \\ 0 \end{pmatrix} }\) als Erzeuger von \({ v^{\perp} }\). Und ganz offensichtlich ist diese Wahl keine stetige Fortsetzung unserer Wahl für den Fall \({ v_1 \neq 0 }\); schließlich kann es gar keine stetige Fortsetzung dieser Wahl geben. Der Untervektorraum \({ v^{\perp} \subset \R^2 }\) hängt dafür in gewisser Hinsicht stetig von \({ v \in \R^2 \setminus \{0\} }\) ab und insofern ist es hilfreich, dass wir keine Basis wählen müssen, um die Vektorraum-Struktur auf \({ v^{\perp} }\) zu beschreiben.

Affine Geometrie

Affine Unterräume

Bisher haben wir die Untervektorräume verwendet, um den Kern einer linearen Abbildung zu beschreiben und umgekehrt, können wir auch jeden Untervektorraum als Kern einer linearen Abbildung erhalten. Dabei ist es eine naheliegende Frage, inwieweit sich die bisherigen Betrachtungen auf beliebige Fasern linearer Abbildungen übertragen lassen. Ein besonders wichtiger Spezialfall sind dabei die Lösungsmengen (möglicherweise) inhomogener LGS \({ A x = b }\) für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\). Ganz allgemein verwenden wir für die Fasern linearer Abbildungen den folgenden Begriff.

Definition (Affiner Unterraum).

Sei \({ V }\) ein endlich-dimensionaler \({ K }\)-Vektorraum und \({ A \subseteq V }\) eine Teilmenge. Wir nennen \({ A }\) einen affinen Unterraum von \({ V }\) falls es eine lineare Abbildung \({ \varphi \colon V \to W }\) und einen Vektor \({ w \in W }\) gibt, mit \({ \varphi^{-1}(w) = U }\). Mit anderen Worten, die affinen Unterräume von \({ V }\) sind genau die Fasern linearer Abbildungen.

Die folgende Aussage folgt relativ direkt aus dieser Definition affiner Unterräume.

Lemma  (Schnitt Affiner Unterräume).

Seien \({ A, B \subseteq V }\) affine Unterräume eines endlich-dimensionalen Vektorraums \({ V }\). Dann ist auch die Schnittmenge \({ A \cap B }\) ein affiner Unterraum von \({ V }\).

Beweis.

Wir wählen lineare Abbildungen \({ \varphi \colon V \to W }\), \({ \psi \colon V \to W' }\) sowie Punkte \({ q \in W }\) und \({ q' \in W' }\) mit der Eigenschaft \({ A = \varphi^{-1}(q) }\) und \({ B = \psi^{-1}(q') }\). Weiter sei \[ \begin{pmatrix} \varphi \\ \psi \end{pmatrix} \colon V \to W \times W',\, v \mapsto \begin{pmatrix} \varphi(v) \\ \psi(v) \end{pmatrix} \] die zugehörige Abbildung in das Produkt \({ W \times W' }\). Dann gilt die Gleichung \[ A \cap B = \begin{pmatrix} \varphi \\ \psi \end{pmatrix}^{-1} \left( \begin{pmatrix} q \\ q' \end{pmatrix} \right) . \]

Anders als bei Untervektorräumen kann eine Faser einer linearen Abbildung und insbesondere die Lösungsmenge eines inhomogenen LGS durchaus die leere Menge sein. In allen anderen Fällen bekommen wir eine nützliche Beschreibung über den Kern einer linearen Abbildung.

Lemma.

Sei \({ \varphi \colon V \to W }\) eine lineare Abbildung, \({ p \in V }\), \({ q \coloneqq \varphi(v) }\) und \({ U \coloneqq \ker \varphi }\). Dann gilt die Gleichung \({ p + U = \varphi^{-1}(q) }\).

Beweis.

\({ p + U \subseteq \varphi^{-1}(q) }\):
Für \({ u \in U = \ker \varphi }\) gilt \({ \varphi(p + u) = \varphi(p) + \varphi(u) = q + 0 = q }\).
\({ \varphi^{-1}(q) \subseteq p + U }\):
Für \({ p' \in \varphi^{-1}(q) }\) gilt \({ \varphi(p' - p) = \varphi(p') - \varphi(p) = q - q = 0 }\) und damit \({ u \coloneqq p' - p \in \ker \varphi = U }\), also \({ p' = p + p' - p = p + u \in p + U }\).

Aufgrund von diesem Lemma und der Äquivalenz \[ p + U = p + U' ~~ \Longleftrightarrow ~~ U = U' \] für alle \({ p \in V }\) und \({ U, U' \subseteq V }\) sind die folgenden Begriffe wohldefiniert.

Definition (Tangentialraum und Dimension Affiner Unterräume).

Sei \({ V }\) endlich-dimensional über \({ K }\) und \({ A \subseteq V }\) ein nicht-leerer affiner Unterraum und eine Faser der linearen Abbildung \({ \varphi \colon V \to W }\). Dann ist der Kern \({ \ker \varphi \subseteq V }\) der Tangentialraum und \({ \dim A \coloneqq \dim \ker \varphi \in \N_0 }\) die Dimension des affinen Unterraums \({ A }\). Affine Unterräume der Dimensionen \({ 1 }\), \({ 2 }\) und \({ \dim V - 1 }\) werden auch Geraden, affine Ebenen beziehungsweise affine Hyperebenen genannt.

Für eine Linearform \({ \alpha \colon V \to K }\) erhalten wir genau zwei Möglichkeiten für die Fasern von \({ \alpha }\). Entweder \({ \alpha }\) ist surjektiv, dann bilden die Fasern von \({ \alpha }\) eine Partition von \({ V }\) in affine Hyperebenen, oder \({ \alpha }\) ist die konstante Nullabbildung, dann ist die Faser von \({ 0 }\) der ganze Vektorraum \({ V }\) und die übrigen Fasern sind die leere Menge. Weiter können wir nach dem vorherigen Lemma jeden nicht-leeren affinen Unterraum als Nebenklasse eines Untervektorraums darstellen. Damit stellt sich die Frage, ob alle Nebenklassen von Untervektorräumen affine Unterräume sind; schießlich ist das eine gängige Definition affiner Unterräume.

Lemma.

Sei \({ U \subseteq V }\) ein Untervektorraum, \({ p \in V }\), und \({ \varphi \colon V \to W }\) eine lineare Abbildung mit \({ U \subseteq \ker \varphi }\). Dann gilt für alle \({ p' \in p + U }\) die Gleichung \({ \varphi(p') = \varphi(p) }\); oder mit anderen Worten, die lineare Abbildung \({ \varphi \colon V \to W }\) is konstant auf der Nebenklasse \({ p + U }\).

Beweis.

Sei \({ p' \in p + U }\) dann gibt es ein \({ u \in U }\) mit \({ p' = p + u }\). Damit gilt die Gleichung \( \varphi(p') = \varphi(p + u) = \varphi(p) + \varphi(u) = \varphi(p) + 0 = \varphi(p) \).

Sei nun \({ V }\) ein endlich-dimensionaler \({ K }\)-Vektorraum \({ U \subseteq V }\) ein Untervektorraum und \({ p \in V }\). In dem Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen haben wir \({ U }\) als Kern einer linearen Abbildung dargestellt indem wir eine Basis \({ \{\alpha_1, \dots, \alpha_l\},\, l \in \N_0 }\) für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\) gewählt haben; siehe auch das zugehörige Lemma. Aufgrund des vorherigen Lemmas ist die Linearform \({ \alpha_i \colon V \to K }\) konstant gleich \({ \alpha_i(p) }\) auf \({ p + U }\) für \({ i = 1, \dots, l }\). Das heißt \({ p + U }\) ist in der affinen Hyperebene \({ p + \ker \alpha_i }\) enthalten für \({ i = 1, \dots, l }\). Ganz analog dazu wie wir \({ U \subseteq V }\) als den Kern der linearen Abbildung \[ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \alpha_1(v) \\ \vdots \\ \alpha_l(v) \end{pmatrix} \] wie auch als Schnitt linearer Hyperebenen \[ U = \bigcap_{i=1}^l \ker \alpha_i \] darstellen können, folgt aus dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse dass wir nun auch die Nebenklasse \({ p + U }\) als Faser von \({ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \alpha_1(p) \\ \vdots \\ \alpha_l(p) \end{pmatrix} \in K^l }\) und damit auch als Schnitt affiner Hyperebenen \[ p + U = p + \bigcap_{i=1}^l \ker \alpha_i = \bigcap_{i=1}^l (p + \ker \alpha_i) % \alpha_i^{-1}(\alpha_i(p)) \] darstellen können. Zusammenfassend erhalten wir die folgende Charakterisierung affiner Unterräume.

Proposition.

Die affinen Unterräume eines endlich-dimensionalen Vektorraums \({ V }\) sind genau die Nebenklassen \({ p + U }\) aller Untervektorräume \({ U \subseteq V }\) (bezüglich \({ p \in V }\)) sowie die leere Menge \({ \emptyset \subset V }\).

Gegeben eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) können wir die nicht-leeren affinen Unterräume von \({ V }\) noch etwas geometrischer beschreiben. Sei dazu \({ A \subseteq V }\) ein affiner Unterraum mit einem Punkt \({ p \in A }\) und Tangentialraum \({ U \subseteq V }\); oder mit anderen Worten \({ A = p + U }\) als Nebenklasse des Untervektorraums \({ U }\). Weiter sei \({ N \coloneqq U^{\perp} }\) das orthogonale Komplement von \({ U }\) in \({ V }\) bezüglich \({ \gamma }\) der sogenannte Normalenraum von \({ A }\). Dann ist für jede Normale  \({ n \in N }\) die zugehörige Linearform \({ \gamma(n, -) \colon V \to K }\) konstant gleich \({ \gamma(n, p) }\) auf \({ A }\) nach dem vorherigen Lemma. Weiter ist \({ p + n^{\perp} }\) die Faser der Linearform \({ \gamma(n, -) \colon V \to K }\) über \({ \gamma(n, p) \in K }\) und damit \({ A = p + U \subseteq p + n^{\perp} }\). Für eine Basis \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N }\) ist dann \({ U }\) der Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} \] nach dem Korollar zu Untervektorräumen und Kerne Curry-Transformierter und \({ p + U }\) nach dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse damit die Faser von \({ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} \in K^l }\). Schließlich erhalten wir den affinen Unterraum \({ A }\) damit auch als Schnittmenge affiner Hyperbenen mit (mindestens) einem gemeinsamen Punkt \({ p \in A }\): \[ A = p + U = p + \bigcap_{i=1}^l n_i^{\perp} = \bigcap_{i=1}^l (p + n_i^{\perp}) . \] Auf diese Art erhalten wir eine sehr konkrete Art jede Nebenklasse \({ p + U \subseteq V }\) im Sinne der vorherigen Proposition als Faser einer linearen Abbildung darzustellen: Zunächst bestimmen wir eine Basis (oder ein Erzeugendensystem) \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N = U^{\perp} }\) zum Beispiel mit Hilfe des Gauß Verfahrens wie im Abschnitt zu Darstellungen von Untervektorräumen beschrieben und anschließend definieren wir \({ \varphi \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} }\) und \({ q \coloneqq \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} }\) um \({ A }\) als Faser von \({ \varphi }\) über \({ q }\) zu erhalten.

Als nächstes beschäftigen wir uns mit der Frage in umgekehrter Richtung: Gegeben eine lineare Abbildung \({ \varphi \colon V \to W }\) endlich-dimensionaler Vektorräume, einen Punkt \({ q \in W }\) und symmetrische reguläre Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\), wie bestimmen wir eine Nebenklasse \({ p + U = A \coloneqq \varphi^{-1}(q) }\) falls vorhanden? Wie im Abschnitt zur geometrischen Betrachtung des Gauß-Verfahren beschrieben ist dann \({ U = \ker \varphi }\) ein Schnitt linearer Hyperebenen der Form \({ \varphi^T(w)^{\perp} \subset V }\) für \({ w \in W }\) mit \({ \varphi^T(w) \neq 0 }\). Wenn wir jetzt für einen beliebigen Vektor \({ w \in W }\) die beiden Untervektorräume \({ \ker \varphi \subseteq \varphi^T(w)^{\perp} }\) um \({ p }\) verschieben, dann erhalten wir die Inklusion \[ p + \ker \varphi \subseteq p + \varphi^T(w)^{\perp} . \] Wenn wir außerdem die Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) auf \({ p }\) anwenden, dann erhalten wir \[ \gamma\big(\varphi^T(w), p\big) = \mu(w, \varphi(p)) , \] das heißt \({ p + \varphi^T(w)^{\perp} }\) ist die Faser von \[ \gamma\big(\varphi^T(w), -\big) \colon V \to K \] über \({ \mu(w, \varphi(p)) }\). Damit ist ein notwendiges Kriterium für \({ \varphi^{-1}(q) \neq \emptyset }\), dass \({ \mu(w, \varphi(p)) }\) im Bild der Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) liegt. Für eine Linearform, hier \({ \gamma\big(\varphi^T(w), -\big) }\), gibt es genau zwei Möglichkeiten. Entweder \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) ist surjektiv oder die Nullabbildung, was äquivalent ist zu \({ \varphi^T(w) = 0 }\). Also ist die Faser von \({ \gamma\big(\varphi^T(w), -\big) }\) über \({ \mu(w, \varphi(p)) }\) genau dann leer, wenn \({ \mu(w, \varphi(p)) \neq 0 }\) aber \({ \varphi^T(w) = 0 }\) gilt. Daher ist es naheliegend, dass es einen Zusammenhang zwischen den Fasern von \({ \varphi \colon V \to W }\) und dem Kern der adjungierten Abbildung \({ \varphi^T \colon W \to V }\) gibt. Um ein hinreichendes und notwendiges Kriterium zu erhalten, das wir in endlich vielen Schritten prüfen können, verwenden wir das folgende Hilfslemma der linearen Algebra.

Lemma.

Sei \({ \psi \colon W \to V }\) eine lineare Abbildung und \({ \{w_1, \dots, w_m\} }\) eine Basis (oder ein Erzeugendensystem) von \({ W }\) derart, dass \({ \psi(w_1), \dots, \psi(w_l) }\) linear unabhängig sind und \({ w_{l+1}, \dots, w_m \in \ker \psi }\) im Kern von \({ \psi }\) liegen für ein \({ l = 1, \dots, m }\). Dann ist \({ \{w_{l+1}, \dots, w_m\} }\) eine Basis (bzw. ein Erzeugendensystem) von \({ \ker \psi }\).

Beweis.

Sei \({ w \in \ker \psi \subseteq W }\) dann gibt es Skalare \({ \lambda_1, \dots, \lambda_m \in K }\) mit \({ w = \sum_{i=1}^m \lambda_i w_i }\). Weiter gilt \[ 0 = \psi(w) = \psi\big(\textstyle{\sum_{i=1}^m} \lambda_i w_i\big) = \displaystyle{\sum_{i = 1}^m} \lambda_i \psi(w_i) = \sum_{i = 1}^l \lambda_i \psi(w_i) . \] Da \({ \psi(w_1), \dots, \psi(w_l) }\) linear unabhängig sind folgt \({ \lambda_i = 0 }\) für \({ i = 1, \dots, l }\) und damit \[ w = \sum_{i = l+1}^m \lambda_i w_i \in \langle w_{l+1}, \dots, w_m \rangle . \] Da \({ w \in \ker \psi }\) beliebig war folgt \({ \ker \psi = \langle w_{l+1}, \dots, w_m \rangle }\).

Proposition.

Sei \({ \varphi \colon V \to W }\) eine lineare Abbildung endlich-dimensionaler Vektorräume mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\) und sei \({ q \in W }\). Weiter sei \({ \{w_1, \dots, w_m\} \subset W }\) eine Basis (oder ein Erzeugendensystem) von \({ W }\) derart, dass \({ \varphi^T(w_1), \dots, \varphi^T(w_l) }\) linear unabhängig sind und \({ w_{l+1}, \dots, w_m \in \ker \varphi^T }\) im Kern der Adjungierten liegen für ein \({ l = 1, \dots, m }\). Dann erhalten wir \({ q \in \varphi(V) }\) genau dann wenn \({ \mu(w_i, q) = 0 }\) für \({ i = l+1, \dots, m }\) gilt. In diesem Fall gilt \[ \varphi^{-1}(q) = p + \ker \varphi = p + \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} \] für ein \({ p \in \varphi^{-1}(q) }\).

Beweis.

Nach Gleichung 3 aus vorherigem Korollar zum Kern und adjungierten Abbildungen, dem vorherigen Hilfslemma und nach Übung 4 aus Woche 2 gilt die Gleichung \[ \begin{split} \varphi(V) &= \big(\ker \varphi^T\big)^{\perp} \\ &= \langle w_{l+1}, \dots, w_m \rangle^{\perp} \\ &= \bigcap_{i=l+1}^m w_i^{\perp} . \end{split} \] Damit erhalten wir \({ q \in \varphi(V) }\) genau dann wenn \({ \mu(w_i, q) = 0 }\) für \({ i = l+1, \dots, m }\) gilt. Sei nun \({ p \in \varphi^{-1}(q) }\) dann gilt nach dem Lemma zu affinen Unterräumen als Nebenklasse und dem Korollar zum Urbild als Schnitt linearer Hyperebenen die Gleichung \[ \begin{split} \varphi^{-1}(q) &= p + \ker \varphi \\ &= p + \varphi^{-1}(\{0\}) \\ &= p + \bigcap_{i=1}^m \varphi^T(w_i)^{\perp} \\ &= p + \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} . \end{split} \]

Als nächstes beschreiben wir wie diese Proposition im Gauß-Verfahren ihre Anwendung findet. Dazu betrachten wir für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\) das inhomogene lineare Gleichungssystem \({ A x = b }\). Angenommen wir haben ein \({ x \in K^n }\) mit \({ Ax = b }\) und ein \({ w \in K^m }\), dann gilt insbesondere die Gleichung \[ \gamma\big(A^T w, x\big) = \big(A^T w\big)^T x = w^T A x = w^T b = \mu(w, b) , \] wobei \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu \colon K^m \times K^m \to K }\) die Standard-Bilinearformen sind. Das heißt die Gleichung \[ w^T A x = w^T b \] von Produkten von Matrizen, Zeilen- und Spaltenvektoren entspricht der Koordinaten-freien Gleichung \[ \gamma\big(\varphi_A^T(w), p\big) = \mu(w, q) \] für \({ p = x }\), \({ q = b }\) und \({ \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\). Angenommen wir haben jetzt eine Basis \({ \{w_1, \dots, w_m\} }\) von \({ K^m }\) derart, dass das Matrix-Produkt \[ A' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \in K^{m \times n} \] in Zeilenstufenform ist, dann gibt es insbesondere ein \({ l = 1, \dots, m }\) derart, dass die Vektoren \({ A^T w_1, \dots, A^T w_l }\) linear unabhängig sind und die Gleichung \({ 0 = A^T w_{l+1} = \dots = A^T w_m }\) gilt. (Schließlich ist \({ A^T w_i }\) das Transponierte der \({ i }\)-ten Zeile \({ w_i^T A }\) der Matrix \({ A' }\) für \({ i = 1, \dots, m }\).) Definieren wir jetzt noch \[ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \end{pmatrix} \coloneqq \begin{pmatrix} w_1^T b \\ \vdots \\ w_m^T b \end{pmatrix} = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b \in K^{m} \] dann erhalten wir nach der vorherigen Proposition mit \[ b'_i = w_i^T b = \mu(w_i, b) = 0 \quad \text{für} ~ i = l+1, \dots, n \] ein hinreichendes und notwendiges Kriterium für die Lösbarkeit des linearen Gleichungssystems \({ A x = b }\). Weiter ist der Kern von \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) das orthogonale Komplement \({ \langle w_1, \dots, w_m \rangle^{\perp} = (K^m)^{\perp} = \{0\} }\) und damit der affine Lösungsraum des inhomogenen LGS \({ A' x = b' }\) identisch zum affinen Lösungsraum von \({ A x = b }\). Daher ist es naheliegend, dass wir neben einer Matrix wie \({ A' }\) in Zeilenstufenform und einer zugehörigen rechten Seite \({ b' \in K^m }\) auch eine Basis wie \({ \{w_1, \dots, w_m\} }\) wie folgt mit Hilfe des Gauß-Verfahren bestimmen können. Dazu schreiben wir die Standard-Basis als Zeilenvektoren (also effektiv die Einheitsmatrix) rechts neben \[ A \eqqcolon \begin{pmatrix} a_1 \\ \vdots \\ a_m \end{pmatrix} \in K^{m \times n} \] und wenden die Zeilenoperationen auf die ganze erweiterte Matrix \[ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} \in K^{m \times (n + 1 + m)} \] an. Wenn wir dann beispielsweise die \({ j }\)-te Zeile \({ a_j \in K^{1 \times n} }\) von \({ A }\) durch \({ \lambda a_i + a_j }\) ersetzen, dann ersetzen wir gleichzeitig \({ e_j^T \in K^{1 \times m} }\) durch \({ \lambda e_i^T + e_j^T = (\lambda e_i + e_j)^T }\). Weiter gilt für \({ \lambda \in K }\) die Gleichung \[ \lambda a_i^T + a_j^T = \lambda A^T e_i + A^T e_j = A^T (\lambda e_i + e_j) , \] das heißt die neu gewählte Normale \({ \lambda a_i^T + a_j^T \in K^n }\) des Kerns von \({ A }\) (bezüglich Standard-Linearform auf \({ K^n }\)) ist tatsächlich das Bild von \({ (\lambda e_i + e_j) }\) unter der adjungierten Abbildung \[ \varphi_A^T \colon K^m \to K^n,\, w \mapsto A^T w . \] Im Zuge dessen ersetzen wir auch die \({ j }\)-te Koordinate \({ b_j }\) von \({ b }\) durch \[ \lambda b_i + b_j = \lambda e_i^T b + e_j^T b = (\lambda e_i + e_j)^T b = \mu(\lambda e_i + e_j, b) . \] Wenn wir so die Matrix \({ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} }\) schrittweise mit Zeilenoperationen in eine Matrix \({ \begin{pmatrix} a'_1 & b'_1 & w_1^T \\ \vdots & \vdots & \vdots \\ a'_m & b'_m & w_m^T \\ \end{pmatrix} }\) mit \({ A' \coloneqq \begin{pmatrix} a'_1 \\ \vdots \\ a'_m \\ \end{pmatrix} \in K^{m \times n} }\) in Zeilenstufenform überführen, dann können wir \({ A' }\) und \({ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \\ \end{pmatrix} \in K^m }\) wie oben beschrieben anhand der ursprünglichen Matrix \({ A }\) und \({ b }\) und anhand der neuen Basis \({ \{w_1, \dots, w_m\} \subset K^m }\) rekonstruieren: \[ A' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \quad \text{und} \quad b' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b . \] Außerdem ist das ganze Verfahren unabhängig von \({ b }\), das heißt wenn wir die reguläre Matrix \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) einmal bestimmt haben, dann können wir das LGS \({ A x = b }\) für jede beliebige rechte Seite \({ b \in K^m }\) lösen indem wir zunächst \({ b' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b }\) berechnen und anschließend das LGS \({ A' x = b' }\) mit identischem affinen Lösungsraum betrachten.