Wir beginnen mit der Definition eines Vektorraums über einem beliebigen Grundkörper \({K}\) wie zum Beispiel \({\Q}\), \({\R}\), oder \({\C}\).
Die Abbildung zum Kommutativgesetz lässt schon ein Parallelogramm und die Abbildung zum Distributivgesetz eine Konfiguration wie im Strahlensatz erkennen. Anstelle der Verträglichkeit mit der Null wird häufig auch die Existenz eines additiven Inversen gefordert; so lassen sich die Eigenschaften der Addition so zusammenfassen, dass \({(V, +)}\) eine abelsche Gruppe ist. Die Definition hier ist dafür etwas elementarer weil kein Existenzquantor benötigt wird und äquivalent zur konventionellen Definition aufgrund der Gleichung \[ -1 v + v = -1 v + 1 v = (-1 + 1) v = 0 v = 0 \] für alle Vektoren \({v}\) eines \({K}\)-Vektorraums im Sinne der Definition.
Sei \({V}\) ein Vektorraum über einem Körper \({K}\). Aufgrund des Assoziativgesetzes und der Neutralität des Nullvektors können wir die Verknüpfung \({ + \colon V \times V \to V }\) und den Nullvektor \({ 0 \in V }\) auch durch eine Summenoperation \({ \sum }\) ersetzen, die jedem \({n}\)-tupel \({(v_1, \dots, v_n) \in V^n}\) für \({n \in \N_0}\) eine Summe \({\sum_{i=1}^n v_i \in V}\) zuordnet. Der Nullvektor is dann durch die leere Summe \({\sum_{i=1}^0 v_i = 0}\) gegeben. Weiter können wir aufgrund des Distributivegesetzes und der Verträglichkeit mit dem Einselement und der Multiplikation jede beliebige Kombination von Vektoren aus \({V}\) mit Elementen aus \({K}\) durch Addition und Skalarmultiplikation als eine Summe von skalaren Vielfachen bzw. eine sogenannte Linearkombination schreiben: \[ \sum_{i=1}^n \lambda_i v_i \in V \] wobei \({n \in \N_0}\), \({(\lambda_1, \dots, \lambda_n) \in K^n}\) und \({(v_1, \dots, v_n) \in V^n}\) gilt. Schließlich können wir aufgrund der Veträglichkeit mit der Addition jede Linearkombination \({ \sum_{i=1}^n \lambda_i v_i \in V }\) so umformen, dass \({v_i \neq v_j}\) für \({i \neq j}\) gilt.
Abgeschlossenheit unter Produktenist eine Besonderheit von \({K}\)-Vektorräumen, die zum Beispiel nicht für Körper gilt was auch daran liegt, dass es für Körper keine Definition ohne Existenzquantoren gibt.
Im Folgenden sei \({V}\) ein Vektorraum über einem Grundkörper \({K}\).
Komplementär zum Begriff eines Erzeugendensystems ist der Begriff der linearen Unabhängigkeit.
Eine Teilmenge \({M \subseteq V}\) heißt linear abhängig falls es eine nicht-triviale Linearkombination des Nullvektors aus Vektoren in \({M}\), das heißt eine Summe \[ \sum_{i=1}^n \lambda_i v_i = 0 \] mit \({v_i \neq v_j \in M}\) für alle \({i \neq j}\) und \({\lambda_i \neq 0}\) für mindestens ein \({i = 1, \dots, n}\).
Eine Teilmenge \({M \subseteq V}\) heißt linear unabhängig falls \({M}\) nicht linear abhängig ist.
Eine Teilmenge \({M \subseteq V}\) ist eine Basis von \({V}\) falls eine (also alle) der drei äquivalenten Aussagen aus der Proposition für \({M}\) erfüllt sind.
Der Vektorraum \({V}\) heißt endlich-dimensional falls \({V}\) eine endliche Basis enthält.
Untervektorräume eines endlich-dimensionalen Vektorraums \({V}\) der Dimension \({\dim V - 1}\) werden auch lineare Hyperebenen genannt. Durch den Begriff der Dimension bekommen wir zwei weitere Charakterisierungen von Basen endlich-dimensionaler Vektorräume.
Die linearen Abbildungen zwischen je zwei Vektorräumen sind an sich genau die Abbildungen, welche die durch Addition und Skalarmultiplikation gegebene Struktur erhalten.
Alternativ lassen sich lineare Abbildungen auch darüber charakterisieren, dass sie Linearkombinationen erhalten. Mit Hilfe linearer Abbildungen können wir einige weitere Beispiele von (Unter)vektorräumen nennen. Dazu sei \({\varphi \colon V \to W}\) eine lineare Abbildung zwischen \({K}\)-Vektorräumen \({V}\) und \({W}\).
Unter den vorherigen Beispielen von Vektorräumen haben wir auch den von einer Teilmenge erzeugten Untervektorraum genannt. Mit Hilfe der Begriffe aus diesem Abschnitt können wir einen Untervektorraum alternativ auch als Kern einer linearen Abbildung beschreiben. Das folgende Lemma ist ein Pendant zu dem vorherigen Lemma zur Summe von erzeugten Untervektorräumen.
Das heißt je nachdem ob wir Summen oder Schnitte von Untervektorräumen bilden, kann die eine oder die andere Darstellung geeigneter sein. Außerdem eignet sich die Darstellung als den von einer Teilmenge erzeugten Untervektorraum besonders gut um das Bild unter einer linearen Abbildung zu bilden: \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] für jede Teilmenge \({M \subseteq V}\). Auf der anderen Seite haben wir für das Urbild des Kerns einer linearen Abbildung \({\psi \colon W \to W'}\) die Gleichung \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) . \]
Angenommen die lineare Abbildung \({\varphi \colon V \to W}\) ist injektiv. Dann gilt \[ \dim \varphi(V) = \dim V - \dim \ker \varphi = n - 0 = n \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zur Dimension von Unterverktorräumen folgt \({\varphi(V) = V}\).
Angenommen \({\varphi}\) ist surjektiv. Dann gilt \[ \dim \ker \varphi = \dim V - \dim \varphi(V) = n - n = 0 \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zu Kern und Injektivität folgt dass \({\varphi}\) injektiv ist.
Die übrigen Implikationen folgen dann per Definition.
Der Prototyp einer linearen Abbildung
ist an sich eine durch die Multiplikation mit einer Matrix
\({A \in K^{m \times n}}\)
gegebene lineare Abbildung:
\[
\varphi_A \colon
K^n \to K^m,\,
v \mapsto A v
.
\]
Wir schreiben dann auch
\({
\ker A \coloneqq \ker \varphi_A \subseteq K^n}\).
Dementsprechend wird eine prototypische Linearform
\({K^n \to K}\)
durch eine
\({1 \times n}\)-Matrix,
auch Zeilenvektor genannt,
beschrieben.
Aus dem folgenden
Satz der linearen Fortsetzung
folgt, dass wir an sich alle linearen Abbildungen
endlich-dimensionaler Vektorräume auf diese Art beschreiben können.
Insbesondere können wir jede Linearform
\({K^n \to K}\)
durch einen Zeilenvektor aus
\({K^{1 \times n}}\)
beschreiben.
Für einen solchen Zeilenvektor
\({0 \neq a \in K^{1 \times n}}\)
ist die Linearform
\({\varphi_a \colon
K^n \to K,\,
v \mapsto a v}\)
surjektiv,
das heißt der Kern
\({\ker a}\)
von
\({\varphi_a \colon
K^n \to K}\)
ist eine lineare Hyperebene nach dem
Rangsatz.
Damit stellt sich die Frage,
wie wir den Kern einer beliebigen Matrix
geometrisch
beschreiben können.
Sei dazu
\({A \in K^{m \times n}}\)
eine Matrix ohne Nullzeilen.
Weiter nehmen wir an,
dass
\({a_1, \dots, a_m \in K^{1 \times n}}\)
die Zeilen von
\({A}\)
sind,
das heißt
\({
A =
\begin{pmatrix}
a_1 \\
\vdots \\
a_m
\end{pmatrix}
.
}\)
Dann beschreibt jeder Zeilenvektor
\({a_i}\)
eine lineare Hyperebene
\({\ker a_i \subset K^n}\)
für
\({i = 1, \dots, n}\).
Weiter ist der Kern
\({\ker A}\)
dann die Schnittmenge dieser linearen Hyperebenen
nach dem
vorherigen Lemma
zur Schnittmenge von Kernen linearer Abbildungen:
\[
\ker A =
\bigcap_{i = 1}^n \ker a_i
.
\]
Für eine Matrix die möglicherweise Nullzeilen enthält
bilden wir dann die Schnittmenge der Hyperebenen,
die den
Zeilen ungleich \({0 \in K^{1 \times n}}\)
entsprechen.
Die folgende Aussage zu Untervektorräumen kann ebenfalls noch nützlich sein und gilt auch noch etwas allgemeiner für Vektorräume, die nicht endlich-dimensional sind.
Seien \({ U }\), \({ V }\) und \({ W }\) Vektorräume über einem Grundkörper \({ K }\). Eine Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) \] heißt bilinear, wenn \({ \gamma \colon U \times V \to W }\) in jeder Komponente linear ist. Das heißt für alle Vektoren \({u \in U}\) und \({v \in V}\) sind die Abbildungen \[ \begin{split} \gamma(u, -) & \colon V \to W,\, v' \mapsto \gamma(u, v') \quad \text{und} \\ \gamma(-, v) & \colon U \to W,\, u' \mapsto \gamma(u', v) \end{split} \] linear.
Eine bilineare Abbildung \[ \gamma \colon V \times V \to K,\, (u, v) \mapsto \gamma(u, v) \] wird auch eine Bilinearform auf \({V}\) genannt. Weiter ist \({ \gamma \colon V \times V \to K }\) symmetrisch falls für alle \({ u, v \in V }\) die Gleichung \({ \gamma(u, v) = \gamma(v, u) }\) gilt.
Der Prototyp für eine Bilinearform ist die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} = \sum_{i=1}^n u_i v_i , \] die im Fall \({ K = \R }\) auch Standardskalarprodukt genannt wird.
Für eine Bilinearform \({ \gamma \colon V \times V \to K }\) und einen einzelnen Vektor \({ v \in V }\) erhalten wir das orthogonale Komplement \({ v^{\perp} \subseteq V }\) auch als Kern der Linearform \({ \gamma(v, -) \colon V \to K,\, w \mapsto \gamma(v, w) }\). Als Nächstes bestimmen wir die Dimension eines orthogonalen Komplements in bestimmten Fällen. Um solche Spezialfälle zu beschreiben betrachten wir nochmals eine allgemeine bilineare Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) . \] Dann nennen wir die induzierte lineare Abbildung \[ \gamma^{\#} \colon U \to \mathrm{Hom}(V, W),\, u \mapsto \gamma(u, -) \] die Curry-Transformierte von \({ \gamma }\) nach Haskell Curry.
Für die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \sum_{i=1}^n u_i v_i \] und einen Vektor \({ u = \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix} \in K^n }\) ist das Bild \({ \gamma^{\#}(u) }\) von \({ u }\) unter der Curry-Transformierten die durch den Zeilenvektor \({ u^T = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \in K^{1 \times n} }\) bestimmte Linearform \[ \varphi_{u^T} \colon K^n \to K,\, v = \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \longmapsto u^T v = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} . \] Nach dem Korollar zum Satz der linearen Fortsetzung ist die Standard-Bilinearform damit regulär. Trotzdem ist die Schnittmenge eines Untervektorraums \({ U \subseteq V }\) mit seinem orthogonalen Komplement \({ U^{\perp} }\) bezüglich \({ \gamma }\) im Allgemeinen nicht trivial, wie zum Beispiel im Fall \({ U \coloneqq \left\langle \begin{pmatrix} 1 \\ i \end{pmatrix} \right\rangle \subset \C^2 , }\) denn es gilt dann \[ \gamma\left( \begin{pmatrix} 1 \\ i \end{pmatrix} , \begin{pmatrix} 1 \\ i \end{pmatrix} \right) = 1^2 + i^2 = 1 - 1 = 0 \] und damit \[ \begin{pmatrix} 1 \\ i \end{pmatrix} \in \begin{pmatrix} 1 \\ i \end{pmatrix}^{\perp} = U^{\perp} . \] Trotzdem erhalten wir die folgende Aussage.
Als nächstes verwenden wir diesen Begriff des orthogonalen Komplements,
um den Kern einer Matrix näher zu beschreiben.
Sei dazu zunächst
\({A \in K^{m \times n}}\)
eine Matrix ohne Nullzeilen.
Weiter sei
\[
\gamma \colon K^n \times K^n \to K,\,
\left(
\begin{pmatrix}
u_1 \\ \vdots \\ u_n
\end{pmatrix},
\begin{pmatrix}
v_1 \\ \vdots \\ v_n
\end{pmatrix}
\right)
\mapsto
\sum_{i=1}^n u_i v_i
\]
die Standard-Bilinearform auf
\({
K^n
}\)
und seien
\({
v_1, \dots, v_m \in K^n
}\)
die Vektoren aus
\({
K^n
}\)
deren Transponierte die Zeilen von
\({
A
}\)
sind:
\[
A =
\begin{pmatrix}
v_1^T \\
\vdots \\
v_m^T
\end{pmatrix}
.
\]
Wir nennen dann
\({
\langle v_1, \dots, v_m \rangle
}\)
den
Zeilenraum von
\({
A
}\).
Weiter ist der Kern
\({
\ker A
}\)
das orthogonale Komplement des Zeilenraums
\({
\langle v_1, \dots, v_m \rangle
}\)
bezüglich
\({
\gamma \colon K^n \times K^n \to K
}\).
Für ein
\({
i = 1, \dots, m
}\)
haben wir bereits am Ende des
vorherigen Abschnitts zu linearen Abbildungen
mit Hilfe des
Rangsatzes
gefolgert,
dass der Kern
\({
\ker v_i^T = v_i^{\perp}
}\)
der
\({
i
}\)-ten Zeile von
\({
A
}\)
eine lineare Hyperebene ist.
Mit Hilfe des
vorherigen Korollars
erhalten wir eine alternative Begründung
über die
Dimension des orthogonalen Komplements.
Also ist der Kern von
\({
A
}\)
die Schnittmenge
\[
\ker A =
\bigcap_{i = 1}^n \ker v_i^T =
\bigcap_{i = 1}^n v_i^{\perp}
\]
der linearen Hyperebenen,
die jeweils das orthogonale Komplement
einer transponierten Zeile von
\({
A
}\)
sind.
Das heißt die transponierten Zeilen von
\({
A
}\)
bilden die
Normalen
der linearen Hyperebenen
deren Schnitt der Kern von
\({
A
}\)
ist.
(Den bestimmten Artikel die
setzen wir hier in Anführungsstriche,
da jede lineare Hyperebene für
\({
K \neq \Z / 2 \Z
}\)
mehrere Normalen hat.)
Für eine Matrix die möglicherweise Nullzeilen enthält
können wir uns dann auf die orthogonalen Komplemente
der trasponierten
Zeilen ungleich
\({
0
}\)
beschränken.
Über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) einer Bilinearform \({ \gamma \colon V \times V \to K }\) bekommen wir außerdem eine konkrete Beschreibung orthogonaler Komplemente endlich-erzeugter Untervektorräume bezüglich \({ \gamma }\).
Im Fall der Standard-Bilinearform \({ \gamma \colon K^n \times K^n \to K }\) ist die lineare Abbildung \({ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon K^n \to K^l }\) die Multiplikation mit der Matrix \({ \begin{pmatrix} v_1^T \\ \vdots \\ v_l^T \end{pmatrix} \in K^{n \times n} }\).
Sei \({ V }\) ein endlich-dimensionaler Vektorraum über einem Körper \({ K }\). Falls \({ K }\) unendliche viele Elemente hat, wie zum Beispiel \({ \Q }\), \({ \R }\) oder \({ \C }\), dann enthält jeder nicht-triviale Untervektorraum von \({ V }\) unendlich viele Vektoren. Das heißt wir können solche Untervektorräume nicht beschreiben, indem wir ihre Vektoren aufzählen. Aus dem Abschnitt zu Vektorräumen kennen wir die Möglichkeit Untervektorräume als Erzeugnis \({ \langle M \rangle }\) einer Teilmenge von Vektoren \({ M \subset V }\) zu beschreiben. Und nach dem Abschnitt zu linearen Abbildungen können wir einen Untervektorraum auch über den Kern einer linearen Abbildung definieren. Weiter können wir für jeden Untervektorraum von \({ V }\) nach dem Lemma zur Dimension von Unterverktorräumen eine endliche Basis, also insbesondere ein endliches Erzeugendensystem wählen. Damit stellt sich die Frage, ob wir jeden Untervektorraum von \({ V }\) auch als Kern einer linearen Abbildung in einen endlich-dimensionalen Vektorraum, also letzten Endes eine Matrix, darstellen können.
Die Basis \({ \{\alpha_1, \dots, \alpha_l\} \subset \mathrm{Hom}(V, K) }\) für den Kern der Einschränkung aus dem vorherigen Lemma können wir auch geometrisch interpretieren, indem wir uns auf eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) auf \({ V }\) festlegen. Denn über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) erhalten wir einen linearen Isomorphismus zwischen \({ V }\) und den Linearformen \({ V \to K }\).
Nach dem vorherigen Lemma ist \({ \{ \gamma^{\#}(v_1), \dots, \gamma^{\#}(v_l) \} \subset \mathrm{Hom}(V, K) }\) ein Erzeugendensystem für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\). Die Behauptung folgt dann zusammen mit dem Lemma zu Unterektorräumen als Kerne linearer Abbildungen.
Alternativer Beweis: Nach dem Lemma zum orthogonalen Komplement als Kern gilt \({ U^{\perp \perp} = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} }\) und weiter \({ U = U^{\perp \perp} }\) nach Übung 2 aus Woche 2.
Das heißt um einen Untervektorraum \({ U \subseteq V }\) als Kern einer linearen Abbildung darzustellen, müssen wir nur eine Basis \({ \{v_1, \dots, v_l\} \subset U^{\perp},\, l \in \N_0 }\) des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) bestimmen; die lineare Abbildung deren Kern \({ U \subseteq V }\) ist erhalten wir dann durch \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Und falls uns \({ U \subseteq V }\) durch ein Erzeugendensystem \({ \langle u_1, \dots, u_m \rangle = U,\, m \in \N_0 }\) gegeben ist, dann erhalten wir \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m,\, v \mapsto \begin{pmatrix} \gamma(u_1, v) \\ \vdots \\ \gamma(u_m, v) \end{pmatrix} \] nach dem Lemma zum orthogonalen Komplement als Kern. Das heißt letzten Endes können wir die Übersetzung der Darstellung von \({ U }\) als Erzeugnis \({ \langle u_1, \dots, u_m \rangle = U }\) in eine Darstellung von \({ U }\) als Kern darauf zurückführen, dass wir die Darstellung des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \({ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m }\) in eine Darstellung von \({ U^{\perp} }\) als ein Erzeugnis \[ \langle v_1, \dots, v_l \rangle = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} = U^{\perp} \] übersetzen. Diese Übersetzungen sind insofern praktisch, dass wir mit der jeweils geeigneten Darstellung ohne weitere Berechnungen Summen von Untervektorräumen nach dem Lemma zur Summe von Erzeugnissen und Schnitte von Untervektorräumen nach dem Lemma zum Schnitt von Kernen bestimmen können. Außerdem können wir Bilder und Urbilder von Untervektorräumen unter linearen Abbildungen über die Formeln \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] und \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) \] aus dem Abschnitt zu linearen Abbildungen ohne weitere Berechnungen bestimmen. Alles was wir für die beiden Übersetzungen benötigen ist ein Algorithmus zur Berechnung des Kerns einer linearen Abbildung zwischen endlich-dimensionalen Vektorräumen: das Gauß-Verfahren.
Außerdem können wir die Darstellung
eines Untervektorraums
\({
U \subseteq V
}\)
als Kern der linearen Abbildung
\({
\begin{pmatrix}
\gamma^{\#}(v_1) \\
\vdots \\
\gamma^{\#}(v_l)
\end{pmatrix}
\colon
V \to K^l
}\)
für eine Basis
\({
\{v_1, \dots, v_l\} \subset U^{\perp}
}\)
aus dem
vorherigen Korollar
wie folgt geometrisch interpretieren.
Nach dem
Lemma zum orthogonalen Komplement als Kern
und
Übung 4 aus Woche 2
gilt die Gleichung
\[
U =
\ker
\begin{pmatrix}
\gamma^{\#}(v_1) \\
\vdots \\
\gamma^{\#}(v_l)
\end{pmatrix}
=
\langle v_1, \dots, v_l \rangle^{\perp}
=
\bigcap_{i=1}^l v_i^{\perp}
.
\]
Weiter ist nach dem
Korollar zum orthogonalen Komplement eines Vektors
der Untervektorraum
\({
v_i^{\perp}
}\)
eine lineare Hyperebene für
\({
i = 1, \dots, l
}\).
Das heißt die Vektoren
\({
v_1, \dots, v_l
}\)
bilden die
Normalen
linearer Hyperebenen
deren Schnitt der Untervektorraum
\({
U \subseteq V
}\)
ist.
(Den bestimmten Artikel die
setzen wir hier in Anführungsstriche,
da jede lineare Hyperebene für
\({
K \neq \Z / 2 \Z
}\)
mehrere Normalen hat.)
Seien \({ V }\) und \({ W }\) endlich-dimensionale Vektorräume über \({ K }\) zusammen mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\). Weiter sei \({ \varphi \colon V \to W }\) eine lineare Abbildung und \({ U \subseteq W }\) ein Untervektorraum. Wie im vorherigen Abschnitt beschrieben, eignet sich die Darstellung von \({ U }\) als Kern einer linearen Abbildung besonders gut um das Urbild \({ \varphi^{-1}(U) }\) von \({ U }\) unter \({ \varphi \colon V \to W }\) zu bestimmen. Dazu sei \({ \{w_1, \dots, w_l\} }\) ein Erzeugendensystem des orthogonalen Komplements \({ U^{\perp} \subseteq W }\) bezüglich \({ \mu \colon W \times W \to K }\). Nach dem vorherigen Korollar gilt dann \({ U = \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} }\) und zusammen mit dem Lemma zum Schnitt von Kernen folgt die Gleichung \[ \begin{split} \varphi^{-1}(U) &= \varphi^{-1} \left( \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \right) \\ &= \ker \left( \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \circ \varphi \right) \\ &= \ker \begin{pmatrix} \gamma^{\#}(w_1) \circ \varphi \\ \vdots \\ \gamma^{\#}(w_l) \circ \varphi \end{pmatrix} \\ &= \bigcap_{i=1}^l \ker (\gamma^{\#}(w_i) \circ \varphi) . \end{split} \] Weiter ist für \({ i = 1, \dots, l }\) der Kern \({ \ker (\gamma^{\#}(w_i) \circ \varphi) \subseteq V }\) der Linearform \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) nach dem Rangsatz eine lineare Hyperbene oder ganz \({ V }\) je nachdem ob \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) surjektiv oder die Nullabbildung ist. In dem Fall, dass \({ \gamma^{\#}(w_i) \circ \varphi }\) surjektiv ist könnten wir versuchen eine Normale für die lineare Hyperebene \({ \ker (\gamma^{\#}(w_i) \circ \varphi) }\) bezüglich der Bilinearform \({ \gamma \colon V \times V \to K }\) anzugeben, möglichst in Abhängigkeit von \({ w_i }\) und \({ \varphi \colon V \to W }\). Diese Aufgabe erfüllt die sogennante adjungierte Abbildung von \({ \varphi \colon V \to W }\). Sei dazu \({ w \in W }\) dann erhalten wir mit \[ \mu(w, \varphi(-)) \colon V \to K,\, v \mapsto \mu(w, \varphi(v)) \] eine Linearform auf \({ V }\). Da \({ \gamma \colon V \times V \to K }\) regulär ist, gibt es dann genau einen Vektor \({ \varphi^T(w) \in V }\) mit \[ \gamma^{\#}(\varphi^T(w)) = \gamma(\varphi^T(w), -) = \mu(w, \varphi(-)) . \] Da \({ w \in W }\) beliebig war, bekommen wir so eine Abbildung \[ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) . \]
Mit diesem Korollar
können wir schließlich das Urbild
\({
\varphi^{-1}(U)
}\)
als einen Schnitt von Hyperebenen darstellen
deren
Normalen wir über die adjungierte Abbildung erhalten:
Je nachdem ob
\({
\varphi^T(v_i)
}\)
der Nullvektor ist oder nicht,
ist
\({
\varphi^T(v_i)^{\perp}
}\)
der ganze Vektorraum
\({
V
}\)
oder eine lineare Hyperebene
von
\({
V
}\).
Damit erhalten wir das Urbild
\({
\varphi^{-1}(U)
}\)
als den Schnitt
\[
\varphi^{-1}(U) =
\bigcap_{\substack{i=1 \\ \varphi^T(v_i) \neq 0}}^l
\varphi^T(w_i)^{\perp}
\]
linearer Hypereben.
Neben dieser konkreten Beschreibung von Urbildern
linearer Unterräume
erhalten wir noch die Gleichungen des folgenden Korollars zum
vorherigen Lemma.
In den beiden vorherigen Abschnitten haben wir uns mit dem Problem auseinandergesetzt für eine lineare Abbildung \({ \varphi \colon V \to W }\) und einen Untervektorraum \({ U \subseteq W }\) das Urbild \({ \varphi^{-1}(U) \subseteq V }\) zu bestimmen. In diesem Abschnitt beschäftigen wir uns mit dem Spezialfall, dass \({ U }\) der Nullvektorraum \({ \{0\} \subseteq W }\) ist und \({ V }\) und \({ W }\) endlich-dimensional sind. In diesem Spezialfall ist das Urbild \({ \varphi^{-1}(U) }\) der Kern \({ \ker \varphi = \varphi^{-1}(0) }\). Wie wir im Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen gesehen haben können viele andere Probleme auf diese eine Frage reduziert werden. Eine konkretere Beschreibung des Kerns \({ \ker \varphi }\) erhalten wir indem wir eine Basis (oder ein Erzeugendensystem) \({ \{\alpha_1, \dots, \alpha_m\} }\) des Dualraums \({ \mathrm{Hom}(W, K) }\) von \({ W }\) wählen. Nach dem Lemma zu Untervektorräumen als Kerne und dem Lemma zum Schnitt von Kernen erhalten wir dann \[ \{0\} = \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} = \bigcap_{i=1}^m \ker \alpha_i \] und damit den Kern \[ \ker \varphi = \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) = \bigcap_{i=1}^m \ker (\alpha_i \circ \varphi) = \bigcap_{\stackrel{i=1}{\alpha_i \circ \varphi \neq 0}}^m \ker (\alpha_i \circ \varphi) \] als Schnitt linearer Hyperebenen in \({ V }\). Diesen Schnitt linearer Hyperebenen können wir mit Hilfe von symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\) geometrischer beschreiben. Für \({ i = 1, \dots, m }\) können wir dann die Linearform \({ \alpha_i \colon W \to K }\) durch einen Vektor \({ w_i \in W }\) darstellen: \({ \mu(w_i, -) = \alpha_i \colon W \to K }\). Damit erhalten wir \({ \ker \alpha_i = w_i^{\perp} }\) und zusammen mit dem Lemma zum Urbild und der adjungierten Abbildung die Gleichung \[ \begin{split} \ker \varphi &= \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) \\ &= \bigcap_{i=1}^m \varphi^{-1}(w_i^{\perp}) \\ &= \bigcap_{i=1}^m \varphi^T(w_i)^{\perp} \\ &= \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} , \end{split} \] wobei \({ \varphi^T \colon W \to V }\) die zu \({ \varphi \colon V \to W }\) adjungierte Abbildung bezüglich der Bilinearformen \({ \gamma }\) und \({ \mu }\) ist. Das heißt um den Kern von \({ \varphi \colon V \to W }\) zu bestimmen, können wir eine Basis (oder ein Erzeugendensystem) \({ \{w_1, \dots, w_m\} \subset W }\) wählen und dann die Urbilder \({ \varphi^{-1}\big(w_i^{\perp}\big) \subseteq V }\) der linearen Hyperebenen \({ w_1^{\perp}, \dots, w_m^{\perp} }\) unter \({ \varphi }\) in \({ V }\) schneiden; oder wir können die Normalen \({ w_1, \dots, w_m }\) selbst entlang der Adjungierten \({ \varphi^T \colon W \to V }\) nach \({ V }\) abbilden, erhalten die zugehörigen linearen Hyperebenen dann als deren orthogonale Komplemente \({ \varphi^T(w_i)^{\perp} \subset V,\, i = 1, \dots, m, \varphi^T(w_i) \neq 0 }\) und den Kern \({ \ker \varphi }\) schließlich als den Schnitt dieser linearen Hyperebenen: \[ \ker \varphi = \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} . \] Im Fall \({ V = K^n }\), \({ W = K^m }\), \({ \varphi = \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\) für \({ A \in K^{m \times n} }\) und \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu }\) die Standard-Bilinearformen sind, liefert das Gauß-Verfahren eine Methode von der Standardbasis des \({ K^m }\) ausgehend die Normalen \({ w_1, \dots, w_m \in K^m }\) sukzessive so zu wählen, dass wir anhand der Darstellung des Kerns als Schnitt geeigneter linearer Hyperebenen relativ direkt eine Basis für den Kern \[ \ker A = \bigcap_{\stackrel{i=1}{A^T w_i \neq 0}}^m (A^T w_i)^{\perp} \] ablesen können.
Nun betrachten wir die einzelnen Schritte des Gauß-Verfahrens an dem Beispiel: \[ A \coloneqq \begin{pmatrix} 3 & 9 & -4 \\ -6 & 6 & 4 \end{pmatrix} \in \R^{2 \times 3} . \] Zunächst wählen wir für \({ w_1, w_2 \in \R^2 }\) die Standardbasis \({ w_i \coloneqq e_i,\, i = 1,2 }\). Die lineare Hyperebene mit \({ w_1 = e_1 \in \R^2 }\) als Normale ist die \({ y }\)-Achse und das orthogonale Komplement von \({ w_2 = e_2 }\) die \({ x }\)-Achse. Deren Urbilder unter \({ \varphi_A \colon \R^3 \to \R^2 }\) sind jeweils die linearen Hyperebenen mit den Normalen \({ A^T w_1 = \begin{pmatrix} 3 \\ 9 \\ -4 \end{pmatrix} \in \R^3 }\) und \({ A^T w_2 = \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\), also die Zeilen von \({ A }\) transponiert; dazu hier eine Visualisierung. Der Kern von \({ A }\) ist dann der Schnitt linearer Hyperebenen \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w_2\big)^{\perp} }\). Der erste Schritt im Gauß-Verfahren sieht nun vor, dass wir die zweite Zeile von \({ A }\) und damit die zweite Normale \({ \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\) durch eine Linearkombination \[ \lambda A^T w_1 + A^T w_2 = A^T (\lambda w_1 + w_2) = A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} \] dieser beiden Normalen ersetzen, deren erste Komponente verschwindet. In der Visualisierung können wir rechts unten den Vektor \({ w_2 = \begin{pmatrix} 0 \\ 1 \end{pmatrix} \in \R^2 }\) beliebig ändern und erhalten auf die Art alle möglichen Linearkombinationen \({ A^T w }\) der beiden Normalen und die zugehörige lineare Hyperebene \({ (A^T w)^{\perp} = \varphi^{-1}\big(w^{\perp}\big) \subset \R^3 }\). In einer zweiten Visualisierung beschränken wir uns auf die Vektoren \({ w = \begin{pmatrix} \lambda \\ 1 \end{pmatrix},\, \lambda \in \R }\). Dabei ist der zugehörige Schnitt \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w\big)^{\perp} }\) linearer Hyperebenen unabhängig von \({ \lambda \in \R }\) und damit identisch zum Kern von \({ A }\). Nun verschwindet die erste Komponente der Normalen \({ A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} }\) genau dann, wenn \({ \lambda = 2 }\) gilt, wir setzen also \({ w'_2 = \begin{pmatrix} 2 \\ 1 \end{pmatrix} }\) und erhalten dann die Normale \({ A^T w'_2 = \begin{pmatrix} 0 \\ 24 \\ -4 \end{pmatrix} \in \R^3 }\). Da die erste Komponente dieser Normalen verschwindet ist der erste Einheitsvektor \({ e_1 \in \R^3 }\) im orthogonalen Komplement \({ (A^T w'_2)^{\perp} }\) enthalten: \({ (A^T w'_2)^T e_1 = 0 }\). Wie auch in der zweiten Visualisierung nach entsprechender Änderung des Vektors \({ w }\) rechts unten zu erkennen ist, ist damit auch die gesamte \({ x }\)-Achse in \({ (A^T w'_2)^{\perp} }\) enthalten. Die zugehörige Matrix \({ A' \coloneqq \begin{pmatrix} w_1^T A \\[0.4ex] {w'}_2^T A \end{pmatrix} = \begin{pmatrix} 3 & 9 & -4 \\ 0 & 24 & -4 \end{pmatrix} }\) ist bereits in Zeilenstufenform. Die Stufen befinden sich in den Spalten \({ 1 }\) und \({ 2 }\). Damit haben wir eine freie Variable und zwar die \({ z }\)-Koordinate. Um eine Basis bzw. einen Erzeuger \({ v \in \ker A' = \ker A }\) für den Kern von \({ A' }\) zu bestimmen, wählen wir den Ansatz \({ v = \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} }\). Damit \({ A' v = 0 }\) gilt, muss insbesonder die zweite Komponente von \({ A' v }\) verschwinden und damit \[ 0 = {w'}_2^T A v = \begin{pmatrix} 0 & 24 & -4 \end{pmatrix} \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} = 24y - 4 \] gelten. Wir erhalten also \({ y = \frac{1}{6} }\). Weiter muss für \({ A' v = 0 }\) auch die erste Komponente von \({ A' v }\) verschwinden und damit \[ 0 = w_1^T A v = \begin{pmatrix} 3 & 9 & -4 \end{pmatrix} \begin{pmatrix} x \\ \frac{1}{6} \\ 1 \end{pmatrix} = 3x + \frac{9}{6} - 4 \] gelten. Wir erhalten also \({ x = \frac{5}{6} }\) und damit \({ \ker A = \left\langle \frac{1}{6} \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle = \left\langle \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle . }\)
Wenn wir also die Zeilen einer Matrix \({ A \in K^{m \times n} }\) als Normalen linearer Hyperebenen auffassen, deren Schnitt der Kern von \({ A }\) ist, dann ersetzen wir diese Normalen im Gauß-Verfahren sukzessive durch andere Normalen, deren zugehörige lineare Hyperebenen den gleichen Schnitt bilden, und an bestimmten Einträgen verschwinden.
Im Abschnitt zu den Begriffen Basis und Dimenison haben wir gesehen dass wir für endlich-dimensionale Vektorräume sowie für deren Untervektorräume immer eine Basis und damit einen linearen Isomorphismus zu einem Vektorraum der Form \({ K^n }\) für ein \({ n \in \N_0 }\) wählen können. Weiter können wir jede lineare Abbildung \({ K^n \to K^m }\) für \({ m, n \in \N_0 }\) als Multiplikation mit einer Matrix aus \({ K^{m \times n} }\) darstellen. Daher drängt sich die Frage auf, wozu wir dann noch abstrakte Vektorräume brauchen, wenn wir im Prinzip ja sowieso alle Vektoren als Spaltenvektoren und jede lineare Abbildung als eine Matrix verstehen können. Mit Hilfe von dem Begriff des orthogonalen Komplements aus diesem Abschnitt können wir schließlich an einem konkreten Beispiel demonstrieren, dass der Begriff des abstrakten Vektorraums dennoch hilfreich ist.
Im Fall eines einzelnen Vektors \({ v \in \R^2 \setminus \{0\} }\) ist das orthogonale Komplement \({ v^{\perp} \subset \R^2 }\) eine Ursprungsgerade in \({ \R^2 }\) mit \({ v }\) als Normale; insbesondere also ein Untervektorraum der Dimension \({ 1 }\). Also wird jeder lineare Isomorphismus \({ \R \cong v^{\perp} }\) von einem einzelnen Basisvektor \({ u \in v^{\perp} \setminus \{0\} }\) bestimmt und umgekehrt. Die folgende Grafik zeigt eine Ursprungsgerade mit zugehöriger Normale \({ v }\) sowie einen passenden Basisvektor \({ u }\) für \({ v^{\perp} }\) :
Ganz egal wie wir jetzt die Normale \({ v }\) oder den Basisvektor \({ u }\) stetig bewegen, sobald die Normale \({ v }\) ein negatives Vielfaches der ursprünglichen Wahl für \({ v }\) ist, erhalten wir auch für \({ u }\) ein negatives Vielfaches des ursprünglichen Basisvektors. Also gibt es keine Möglichkeit für jede Ursprungsgerade in \({ \R^2 }\) stetig einen Basisvektor bzw. einen linearen Isomorphismus zu \({ \R }\) zu wählen. Aus diesem Grund ist es hilfreich, dass wir mit dem Begriff des Vektorraums solche Ursprungsgeraden und andere (Unter)vektorräume untersuchen können, ohne uns dabei auf eine bestimmte Basis festzulegen.
Vor diesem Hintergrund können wir uns auch noch einmal die Basis bzw. den Erzeuger ansehen, den wir in diesem Fall durch Rückwertssubstitution im Gauß-Verfahren erhalten und wo bei diesem Verfahren eine Diskontinuität auftritt. Dazu schreiben wir \({ v = \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} }\) für die Normale \({ v \in \R^2 \setminus \{0\} }\). Bezüglich der Standard-Bilinearform \({ \gamma \colon \R^2 \times \R^2 \to \R }\) erhalten wir dann die zugehörige Linearform \[ \gamma(v, -) = \varphi_{v^T} \colon \R^2 \to \R,\, w \mapsto v^T w = \begin{pmatrix} v_1 & v_2 \end{pmatrix} w \] deren Kern die lineare Hyperebene \({ v^{\perp} \subset \R^2 }\) zur Normalen \({ v }\) ist. Die zugehörige Matrix \({ v^T = \begin{pmatrix} v_1 & v_2 \end{pmatrix} \in \R^{1 \times 2} }\) ist trivialerweise bereits in Zeilenstufenform und um einen Erzeuger für den Kern \({ \ker v^T }\) zu bestimmen unterscheiden wir die beiden Fälle \({ v_1 \neq 0 }\) und \({ v_1 = 0 }\). Im Fall \({ v_1 \neq 0 }\) wählen wir bei der Rückwertssubstitution die \({ y }\)-Koordinate als freie Variable. Das heißt wir wählen den Ansatz und \({ u = \begin{pmatrix} u_1 \\ 1 \end{pmatrix} }\). Wie auch die folgende Grafik zeigt, liegt der Erzeuger \({ u }\) damit auf der affinen Geraden \({ \R \times \{1\} \subset \R^2 }\):
Mit anderen Worten,
falls
\({
v_1 \neq 0
}\)
gilt,
haben die lineare Hyperebene
\({
v^{\perp}
}\)
und die affine Gerade
\({
\R \times \{1\}
}\)
genau einen Schnittpunkt
\({
u \in \R^2 \setminus \{0\}
}\)
welchen wir bei Rückwertssubstitution im Gauß-Verfahren
als Erzeuger wählen:
\({
\langle u \rangle = \ker v^T = v^{\perp}
}\).
Nähert sich die Normale
\({
v
}\)
allerdings von außerhalb der
\({
y
}\)-Achse,
dann wandert dieser Schnittpunkt
\({
u \in v^{\perp} \cap (\R \times \{1\})
}\)
auf dieser affinen Geraden
\({
\R \times \{1\}
}\)
ins Unendliche
.
In dem Grenzfall,
dass
\({
v_1 = 0,\, v_2 \neq 0
}\)
gilt und
\({
v
}\)
damit auf der
\({
y
}\)-Achse
liegt,
wählen wir bei der Rückwertssubstitution den Ansatz
\({
u =
\begin{pmatrix}
1 \\ u_2
\end{pmatrix}
}\)
und erhalten schließlich
den ersten Einheitsvektor
\({
u =
\begin{pmatrix}
1 \\ 0
\end{pmatrix}
}\)
als Erzeuger von
\({
v^{\perp}
}\).
Und ganz offensichtlich ist diese Wahl
keine stetige Fortsetzung
unserer Wahl für den Fall
\({
v_1 \neq 0
}\);
schließlich kann es gar keine stetige Fortsetzung dieser Wahl geben.
Der Untervektorraum
\({
v^{\perp} \subset \R^2
}\)
hängt dafür in gewisser Hinsicht stetig von
\({
v \in \R^2 \setminus \{0\}
}\)
ab und insofern ist es hilfreich,
dass wir keine Basis wählen müssen,
um die Vektorraum-Struktur auf
\({
v^{\perp}
}\)
zu beschreiben.
Bisher haben wir die Untervektorräume verwendet, um den Kern einer linearen Abbildung zu beschreiben und umgekehrt, können wir auch jeden Untervektorraum als Kern einer linearen Abbildung erhalten. Dabei ist es eine naheliegende Frage, inwieweit sich die bisherigen Betrachtungen auf beliebige Fasern linearer Abbildungen übertragen lassen. Ein besonders wichtiger Spezialfall sind dabei die Lösungsmengen (möglicherweise) inhomogener LGS \({ A x = b }\) für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\). Ganz allgemein verwenden wir für die Fasern linearer Abbildungen den folgenden Begriff.
Die folgende Aussage folgt relativ direkt aus dieser Definition affiner Unterräume.
Anders als bei Untervektorräumen kann eine Faser einer linearen Abbildung und insbesondere die Lösungsmenge eines inhomogenen LGS durchaus die leere Menge sein. In allen anderen Fällen bekommen wir eine nützliche Beschreibung über den Kern einer linearen Abbildung.
Aufgrund von diesem Lemma und der Äquivalenz \[ p + U = p + U' ~~ \Longleftrightarrow ~~ U = U' \] für alle \({ p \in V }\) und \({ U, U' \subseteq V }\) sind die folgenden Begriffe wohldefiniert.
Für eine Linearform \({ \alpha \colon V \to K }\) erhalten wir genau zwei Möglichkeiten für die Fasern von \({ \alpha }\). Entweder \({ \alpha }\) ist surjektiv, dann bilden die Fasern von \({ \alpha }\) eine Partition von \({ V }\) in affine Hyperebenen, oder \({ \alpha }\) ist die konstante Nullabbildung, dann ist die Faser von \({ 0 }\) der ganze Vektorraum \({ V }\) und die übrigen Fasern sind die leere Menge. Weiter können wir nach dem vorherigen Lemma jeden nicht-leeren affinen Unterraum als Nebenklasse eines Untervektorraums darstellen. Damit stellt sich die Frage, ob alle Nebenklassen von Untervektorräumen affine Unterräume sind; schießlich ist das eine gängige Definition affiner Unterräume.
Sei nun \({ V }\) ein endlich-dimensionaler \({ K }\)-Vektorraum \({ U \subseteq V }\) ein Untervektorraum und \({ p \in V }\). In dem Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen haben wir \({ U }\) als Kern einer linearen Abbildung dargestellt indem wir eine Basis \({ \{\alpha_1, \dots, \alpha_l\},\, l \in \N_0 }\) für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\) gewählt haben; siehe auch das zugehörige Lemma. Aufgrund des vorherigen Lemmas ist die Linearform \({ \alpha_i \colon V \to K }\) konstant gleich \({ \alpha_i(p) }\) auf \({ p + U }\) für \({ i = 1, \dots, l }\). Das heißt \({ p + U }\) ist in der affinen Hyperebene \({ p + \ker \alpha_i }\) enthalten für \({ i = 1, \dots, l }\). Ganz analog dazu wie wir \({ U \subseteq V }\) als den Kern der linearen Abbildung \[ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \alpha_1(v) \\ \vdots \\ \alpha_l(v) \end{pmatrix} \] wie auch als Schnitt linearer Hyperebenen \[ U = \bigcap_{i=1}^l \ker \alpha_i \] darstellen können, folgt aus dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse dass wir nun auch die Nebenklasse \({ p + U }\) als Faser von \({ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \alpha_1(p) \\ \vdots \\ \alpha_l(p) \end{pmatrix} \in K^l }\) und damit auch als Schnitt affiner Hyperebenen \[ p + U = p + \bigcap_{i=1}^l \ker \alpha_i = \bigcap_{i=1}^l (p + \ker \alpha_i) % \alpha_i^{-1}(\alpha_i(p)) \] darstellen können. Zusammenfassend erhalten wir die folgende Charakterisierung affiner Unterräume.
Gegeben eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) können wir die nicht-leeren affinen Unterräume von \({ V }\) noch etwas geometrischer beschreiben. Sei dazu \({ A \subseteq V }\) ein affiner Unterraum mit einem Punkt \({ p \in A }\) und Tangentialraum \({ U \subseteq V }\); oder mit anderen Worten \({ A = p + U }\) als Nebenklasse des Untervektorraums \({ U }\). Weiter sei \({ N \coloneqq U^{\perp} }\) das orthogonale Komplement von \({ U }\) in \({ V }\) bezüglich \({ \gamma }\) der sogenannte Normalenraum von \({ A }\). Dann ist für jede Normale \({ n \in N }\) die zugehörige Linearform \({ \gamma(n, -) \colon V \to K }\) konstant gleich \({ \gamma(n, p) }\) auf \({ A }\) nach dem vorherigen Lemma. Weiter ist \({ p + n^{\perp} }\) die Faser der Linearform \({ \gamma(n, -) \colon V \to K }\) über \({ \gamma(n, p) \in K }\) und damit \({ A = p + U \subseteq p + n^{\perp} }\). Für eine Basis \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N }\) ist dann \({ U }\) der Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} \] nach dem Korollar zu Untervektorräumen und Kerne Curry-Transformierter und \({ p + U }\) nach dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse damit die Faser von \({ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} \in K^l }\). Schließlich erhalten wir den affinen Unterraum \({ A }\) damit auch als Schnittmenge affiner Hyperbenen mit (mindestens) einem gemeinsamen Punkt \({ p \in A }\): \[ A = p + U = p + \bigcap_{i=1}^l n_i^{\perp} = \bigcap_{i=1}^l (p + n_i^{\perp}) . \] Auf diese Art erhalten wir eine sehr konkrete Art jede Nebenklasse \({ p + U \subseteq V }\) im Sinne der vorherigen Proposition als Faser einer linearen Abbildung darzustellen: Zunächst bestimmen wir eine Basis (oder ein Erzeugendensystem) \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N = U^{\perp} }\) zum Beispiel mit Hilfe des Gauß Verfahrens wie im Abschnitt zu Darstellungen von Untervektorräumen beschrieben und anschließend definieren wir \({ \varphi \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} }\) und \({ q \coloneqq \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} }\) um \({ A }\) als Faser von \({ \varphi }\) über \({ q }\) zu erhalten.
Als nächstes beschäftigen wir uns mit der Frage in umgekehrter Richtung: Gegeben eine lineare Abbildung \({ \varphi \colon V \to W }\) endlich-dimensionaler Vektorräume, einen Punkt \({ q \in W }\) und symmetrische reguläre Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\), wie bestimmen wir eine Nebenklasse \({ p + U = A \coloneqq \varphi^{-1}(q) }\) falls vorhanden? Wie im Abschnitt zur geometrischen Betrachtung des Gauß-Verfahren beschrieben ist dann \({ U = \ker \varphi }\) ein Schnitt linearer Hyperebenen der Form \({ \varphi^T(w)^{\perp} \subset V }\) für \({ w \in W }\) mit \({ \varphi^T(w) \neq 0 }\). Wenn wir jetzt für einen beliebigen Vektor \({ w \in W }\) die beiden Untervektorräume \({ \ker \varphi \subseteq \varphi^T(w)^{\perp} }\) um \({ p }\) verschieben, dann erhalten wir die Inklusion \[ p + \ker \varphi \subseteq p + \varphi^T(w)^{\perp} . \] Wenn wir außerdem die Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) auf \({ p }\) anwenden, dann erhalten wir \[ \gamma\big(\varphi^T(w), p\big) = \mu(w, \varphi(p)) , \] das heißt \({ p + \varphi^T(w)^{\perp} }\) ist die Faser von \[ \gamma\big(\varphi^T(w), -\big) \colon V \to K \] über \({ \mu(w, \varphi(p)) }\). Damit ist ein notwendiges Kriterium für \({ \varphi^{-1}(q) \neq \emptyset }\), dass \({ \mu(w, \varphi(p)) }\) im Bild der Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) liegt. Für eine Linearform, hier \({ \gamma\big(\varphi^T(w), -\big) }\), gibt es genau zwei Möglichkeiten. Entweder \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) ist surjektiv oder die Nullabbildung, was äquivalent ist zu \({ \varphi^T(w) = 0 }\). Also ist die Faser von \({ \gamma\big(\varphi^T(w), -\big) }\) über \({ \mu(w, \varphi(p)) }\) genau dann leer, wenn \({ \mu(w, \varphi(p)) \neq 0 }\) aber \({ \varphi^T(w) = 0 }\) gilt. Daher ist es naheliegend, dass es einen Zusammenhang zwischen den Fasern von \({ \varphi \colon V \to W }\) und dem Kern der adjungierten Abbildung \({ \varphi^T \colon W \to V }\) gibt. Um ein hinreichendes und notwendiges Kriterium zu erhalten, das wir in endlich vielen Schritten prüfen können, verwenden wir das folgende Hilfslemma der linearen Algebra.
Als nächstes beschreiben wir wie diese Proposition im Gauß-Verfahren ihre Anwendung findet. Dazu betrachten wir für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\) das inhomogene lineare Gleichungssystem \({ A x = b }\). Angenommen wir haben ein \({ x \in K^n }\) mit \({ Ax = b }\) und ein \({ w \in K^m }\), dann gilt insbesondere die Gleichung \[ \gamma\big(A^T w, x\big) = \big(A^T w\big)^T x = w^T A x = w^T b = \mu(w, b) , \] wobei \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu \colon K^m \times K^m \to K }\) die Standard-Bilinearformen sind. Das heißt die Gleichung \[ w^T A x = w^T b \] von Produkten von Matrizen, Zeilen- und Spaltenvektoren entspricht der Koordinaten-freien Gleichung \[ \gamma\big(\varphi_A^T(w), p\big) = \mu(w, q) \] für \({ p = x }\), \({ q = b }\) und \({ \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\). Angenommen wir haben jetzt eine Basis \({ \{w_1, \dots, w_m\} }\) von \({ K^m }\) derart, dass das Matrix-Produkt \[ A' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \in K^{m \times n} \] in Zeilenstufenform ist, dann gibt es insbesondere ein \({ l = 1, \dots, m }\) derart, dass die Vektoren \({ A^T w_1, \dots, A^T w_l }\) linear unabhängig sind und die Gleichung \({ 0 = A^T w_{l+1} = \dots = A^T w_m }\) gilt. (Schließlich ist \({ A^T w_i }\) das Transponierte der \({ i }\)-ten Zeile \({ w_i^T A }\) der Matrix \({ A' }\) für \({ i = 1, \dots, m }\).) Definieren wir jetzt noch \[ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \end{pmatrix} \coloneqq \begin{pmatrix} w_1^T b \\ \vdots \\ w_m^T b \end{pmatrix} = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b \in K^{m} \] dann erhalten wir nach der vorherigen Proposition mit \[ b'_i = w_i^T b = \mu(w_i, b) = 0 \quad \text{für} ~ i = l+1, \dots, n \] ein hinreichendes und notwendiges Kriterium für die Lösbarkeit des linearen Gleichungssystems \({ A x = b }\). Weiter ist der Kern von \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) das orthogonale Komplement \({ \langle w_1, \dots, w_m \rangle^{\perp} = (K^m)^{\perp} = \{0\} }\) und damit der affine Lösungsraum des inhomogenen LGS \({ A' x = b' }\) identisch zum affinen Lösungsraum von \({ A x = b }\). Daher ist es naheliegend, dass wir neben einer Matrix wie \({ A' }\) in Zeilenstufenform und einer zugehörigen rechten Seite \({ b' \in K^m }\) auch eine Basis wie \({ \{w_1, \dots, w_m\} }\) wie folgt mit Hilfe des Gauß-Verfahren bestimmen können. Dazu schreiben wir die Standard-Basis als Zeilenvektoren (also effektiv die Einheitsmatrix) rechts neben \[ A \eqqcolon \begin{pmatrix} a_1 \\ \vdots \\ a_m \end{pmatrix} \in K^{m \times n} \] und wenden die Zeilenoperationen auf die ganze erweiterte Matrix \[ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} \in K^{m \times (n + 1 + m)} \] an. Wenn wir dann beispielsweise die \({ j }\)-te Zeile \({ a_j \in K^{1 \times n} }\) von \({ A }\) durch \({ \lambda a_i + a_j }\) ersetzen, dann ersetzen wir gleichzeitig \({ e_j^T \in K^{1 \times m} }\) durch \({ \lambda e_i^T + e_j^T = (\lambda e_i + e_j)^T }\). Weiter gilt für \({ \lambda \in K }\) die Gleichung \[ \lambda a_i^T + a_j^T = \lambda A^T e_i + A^T e_j = A^T (\lambda e_i + e_j) , \] das heißt die neu gewählte Normale \({ \lambda a_i^T + a_j^T \in K^n }\) des Kerns von \({ A }\) (bezüglich Standard-Linearform auf \({ K^n }\)) ist tatsächlich das Bild von \({ (\lambda e_i + e_j) }\) unter der adjungierten Abbildung \[ \varphi_A^T \colon K^m \to K^n,\, w \mapsto A^T w . \] Im Zuge dessen ersetzen wir auch die \({ j }\)-te Koordinate \({ b_j }\) von \({ b }\) durch \[ \lambda b_i + b_j = \lambda e_i^T b + e_j^T b = (\lambda e_i + e_j)^T b = \mu(\lambda e_i + e_j, b) . \] Wenn wir so die Matrix \({ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} }\) schrittweise mit Zeilenoperationen in eine Matrix \({ \begin{pmatrix} a'_1 & b'_1 & w_1^T \\ \vdots & \vdots & \vdots \\ a'_m & b'_m & w_m^T \\ \end{pmatrix} }\) mit \({ A' \coloneqq \begin{pmatrix} a'_1 \\ \vdots \\ a'_m \\ \end{pmatrix} \in K^{m \times n} }\) in Zeilenstufenform überführen, dann können wir \({ A' }\) und \({ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \\ \end{pmatrix} \in K^m }\) wie oben beschrieben anhand der ursprünglichen Matrix \({ A }\) und \({ b }\) und anhand der neuen Basis \({ \{w_1, \dots, w_m\} \subset K^m }\) rekonstruieren: \[ A' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \quad \text{und} \quad b' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b . \] Außerdem ist das ganze Verfahren unabhängig von \({ b }\), das heißt wenn wir die reguläre Matrix \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) einmal bestimmt haben, dann können wir das LGS \({ A x = b }\) für jede beliebige rechte Seite \({ b \in K^m }\) lösen indem wir zunächst \({ b' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b }\) berechnen und anschließend das LGS \({ A' x = b' }\) mit identischem affinen Lösungsraum betrachten.