Wir beginnen mit der Definition eines Vektorraums über einem beliebigen Grundkörper \({K}\) wie zum Beispiel \({\Q}\), \({\R}\), oder \({\C}\).
Die Abbildung zum Kommutativgesetz lässt schon ein Parallelogramm und die Abbildung zum Distributivgesetz eine Konfiguration wie im Strahlensatz erkennen. Anstelle der Verträglichkeit mit der Null wird häufig auch die Existenz eines additiven Inversen gefordert; so lassen sich die Eigenschaften der Addition so zusammenfassen, dass \({(V, +)}\) eine abelsche Gruppe ist. Die Definition hier ist dafür etwas elementarer weil kein Existenzquantor benötigt wird und äquivalent zur konventionellen Definition aufgrund der Gleichung \[ -1 v + v = -1 v + 1 v = (-1 + 1) v = 0 v = 0 \] für alle Vektoren \({v}\) eines \({K}\)-Vektorraums im Sinne der Definition.
Sei \({V}\) ein Vektorraum über einem Körper \({K}\). Aufgrund des Assoziativgesetzes und der Neutralität des Nullvektors können wir die Verknüpfung \({ + \colon V \times V \to V }\) und den Nullvektor \({ 0 \in V }\) auch durch eine Summenoperation \({ \sum }\) ersetzen, die jedem \({n}\)-tupel \({(v_1, \dots, v_n) \in V^n}\) für \({n \in \N_0}\) eine Summe \({\sum_{i=1}^n v_i \in V}\) zuordnet. Der Nullvektor is dann durch die leere Summe \({\sum_{i=1}^0 v_i = 0}\) gegeben. Weiter können wir aufgrund des Distributivegesetzes und der Verträglichkeit mit dem Einselement und der Multiplikation jede beliebige Kombination von Vektoren aus \({V}\) mit Elementen aus \({K}\) durch Addition und Skalarmultiplikation als eine Summe von skalaren Vielfachen bzw. eine sogenannte Linearkombination schreiben: \[ \sum_{i=1}^n \lambda_i v_i \in V \] wobei \({n \in \N_0}\), \({(\lambda_1, \dots, \lambda_n) \in K^n}\) und \({(v_1, \dots, v_n) \in V^n}\) gilt. Schließlich können wir aufgrund der Veträglichkeit mit der Addition jede Linearkombination \({ \sum_{i=1}^n \lambda_i v_i \in V }\) so umformen, dass \({v_i \neq v_j}\) für \({i \neq j}\) gilt.
Abgeschlossenheit unter Produktenist eine Besonderheit von \({K}\)-Vektorräumen, die zum Beispiel nicht für Körper gilt was auch daran liegt, dass es für Körper keine Definition ohne Existenzquantoren gibt.
Im Folgenden sei \({V}\) ein Vektorraum über einem Grundkörper \({K}\).
Komplementär zum Begriff eines Erzeugendensystems ist der Begriff der linearen Unabhängigkeit.
Eine Teilmenge \({M \subseteq V}\) heißt linear abhängig falls es eine nicht-triviale Linearkombination des Nullvektors aus Vektoren in \({M}\), das heißt eine Summe \[ \sum_{i=1}^n \lambda_i v_i = 0 \] mit \({v_i \neq v_j \in M}\) für alle \({i \neq j}\) und \({\lambda_i \neq 0}\) für mindestens ein \({i = 1, \dots, n}\).
Eine Teilmenge \({M \subseteq V}\) heißt linear unabhängig falls \({M}\) nicht linear abhängig ist.
Eine Teilmenge \({M \subseteq V}\) ist eine Basis von \({V}\) falls eine (also alle) der drei äquivalenten Aussagen aus der Proposition für \({M}\) erfüllt sind.
Der Vektorraum \({V}\) heißt endlich-dimensional falls \({V}\) eine endliche Basis enthält.
Untervektorräume eines endlich-dimensionalen Vektorraums \({V}\) der Dimension \({\dim V - 1}\) werden auch lineare Hyperebenen genannt. Durch den Begriff der Dimension bekommen wir zwei weitere Charakterisierungen von Basen endlich-dimensionaler Vektorräume.
Die linearen Abbildungen zwischen je zwei Vektorräumen sind an sich genau die Abbildungen, welche die durch Addition und Skalarmultiplikation gegebene Struktur erhalten.
Alternativ lassen sich lineare Abbildungen auch darüber charakterisieren, dass sie Linearkombinationen erhalten. Mit Hilfe linearer Abbildungen können wir einige weitere Beispiele von (Unter)vektorräumen nennen. Dazu sei \({\varphi \colon V \to W}\) eine lineare Abbildung zwischen \({K}\)-Vektorräumen \({V}\) und \({W}\).
Unter den vorherigen Beispielen von Vektorräumen haben wir auch den von einer Teilmenge erzeugten Untervektorraum genannt. Mit Hilfe der Begriffe aus diesem Abschnitt können wir einen Untervektorraum alternativ auch als Kern einer linearen Abbildung beschreiben. Das folgende Lemma ist ein Pendant zu dem vorherigen Lemma zur Summe von erzeugten Untervektorräumen.
Das heißt je nachdem ob wir Summen oder Schnitte von Untervektorräumen bilden, kann die eine oder die andere Darstellung geeigneter sein. Außerdem eignet sich die Darstellung als den von einer Teilmenge erzeugten Untervektorraum besonders gut um das Bild unter einer linearen Abbildung zu bilden: \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] für jede Teilmenge \({M \subseteq V}\). Auf der anderen Seite haben wir für das Urbild des Kerns einer linearen Abbildung \({\psi \colon W \to W'}\) die Gleichung \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) . \]
Angenommen die lineare Abbildung \({\varphi \colon V \to W}\) ist injektiv. Dann gilt \[ \dim \varphi(V) = \dim V - \dim \ker \varphi = n - 0 = n \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zur Dimension von Unterverktorräumen folgt \({\varphi(V) = V}\).
Angenommen \({\varphi}\) ist surjektiv. Dann gilt \[ \dim \ker \varphi = \dim V - \dim \varphi(V) = n - n = 0 \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zu Kern und Injektivität folgt dass \({\varphi}\) injektiv ist.
Die übrigen Implikationen folgen dann per Definition.
Der Prototyp einer linearen Abbildung
ist an sich eine durch die Multiplikation mit einer Matrix
\({A \in K^{m \times n}}\)
gegebene lineare Abbildung:
\[
\varphi_A \colon
K^n \to K^m,\,
v \mapsto A v
.
\]
Wir schreiben dann auch
\({
\ker A \coloneqq \ker \varphi_A \subseteq K^n}\).
Dementsprechend wird eine prototypische Linearform
\({K^n \to K}\)
durch eine
\({1 \times n}\)-Matrix,
auch Zeilenvektor genannt,
beschrieben.
Aus dem folgenden
Satz der linearen Fortsetzung
folgt, dass wir an sich alle linearen Abbildungen
endlich-dimensionaler Vektorräume auf diese Art beschreiben können.
Insbesondere können wir jede Linearform
\({K^n \to K}\)
durch einen Zeilenvektor aus
\({K^{1 \times n}}\)
beschreiben.
Für einen solchen Zeilenvektor
\({0 \neq a \in K^{1 \times n}}\)
ist die Linearform
\({\varphi_a \colon
K^n \to K,\,
v \mapsto a v}\)
surjektiv,
das heißt der Kern
\({\ker a}\)
von
\({\varphi_a \colon
K^n \to K}\)
ist eine lineare Hyperebene nach dem
Rangsatz.
Damit stellt sich die Frage,
wie wir den Kern einer beliebigen Matrix
geometrisch
beschreiben können.
Sei dazu
\({A \in K^{m \times n}}\)
eine Matrix ohne Nullzeilen.
Weiter nehmen wir an,
dass
\({a_1, \dots, a_m \in K^{1 \times n}}\)
die Zeilen von
\({A}\)
sind,
das heißt
\({
A =
\begin{pmatrix}
a_1 \\
\vdots \\
a_m
\end{pmatrix}
.
}\)
Dann beschreibt jeder Zeilenvektor
\({a_i}\)
eine lineare Hyperebene
\({\ker a_i \subset K^n}\)
für
\({i = 1, \dots, n}\).
Weiter ist der Kern
\({\ker A}\)
dann die Schnittmenge dieser linearen Hyperebenen
nach dem
vorherigen Lemma
zur Schnittmenge von Kernen linearer Abbildungen:
\[
\ker A =
\bigcap_{i = 1}^n \ker a_i
.
\]
Für eine Matrix die möglicherweise Nullzeilen enthält
bilden wir dann die Schnittmenge der Hyperebenen,
die den
Zeilen ungleich \({0 \in K^{1 \times n}}\)
entsprechen.
Die folgende Aussage zu Untervektorräumen kann ebenfalls noch nützlich sein und gilt auch noch etwas allgemeiner für Vektorräume, die nicht endlich-dimensional sind.
Seien \({ U }\), \({ V }\) und \({ W }\) Vektorräume über einem Grundkörper \({ K }\). Eine Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) \] heißt bilinear, wenn \({ \gamma \colon U \times V \to W }\) in jeder Komponente linear ist. Das heißt für alle Vektoren \({u \in U}\) und \({v \in V}\) sind die Abbildungen \[ \begin{split} \gamma(u, -) & \colon V \to W,\, v' \mapsto \gamma(u, v') \quad \text{und} \\ \gamma(-, v) & \colon U \to W,\, u' \mapsto \gamma(u', v) \end{split} \] linear.
Eine bilineare Abbildung \[ \gamma \colon V \times V \to K,\, (u, v) \mapsto \gamma(u, v) \] wird auch eine Bilinearform auf \({V}\) genannt. Weiter ist \({ \gamma \colon V \times V \to K }\) symmetrisch falls für alle \({ u, v \in V }\) die Gleichung \({ \gamma(u, v) = \gamma(v, u) }\) gilt.
Der Prototyp für eine Bilinearform ist die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} = \sum_{i=1}^n u_i v_i , \] die im Fall \({ K = \R }\) auch Standardskalarprodukt genannt wird.
Für eine Bilinearform \({ \gamma \colon V \times V \to K }\) und einen einzelnen Vektor \({ v \in V }\) erhalten wir das orthogonale Komplement \({ v^{\perp} \subseteq V }\) auch als Kern der Linearform \({ \gamma(v, -) \colon V \to K,\, w \mapsto \gamma(v, w) }\). Als Nächstes bestimmen wir die Dimension eines orthogonalen Komplements in bestimmten Fällen. Um solche Spezialfälle zu beschreiben betrachten wir nochmals eine allgemeine bilineare Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) . \] Dann nennen wir die induzierte lineare Abbildung \[ \gamma^{\#} \colon U \to \mathrm{Hom}(V, W),\, u \mapsto \gamma(u, -) \] die Curry-Transformierte von \({ \gamma }\) nach Haskell Curry.
Für die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \sum_{i=1}^n u_i v_i \] und einen Vektor \({ u = \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix} \in K^n }\) ist das Bild \({ \gamma^{\#}(u) }\) von \({ u }\) unter der Curry-Transformierten die durch den Zeilenvektor \({ u^T = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \in K^{1 \times n} }\) bestimmte Linearform \[ \varphi_{u^T} \colon K^n \to K,\, v = \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \longmapsto u^T v = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} . \] Nach dem Korollar zum Satz der linearen Fortsetzung ist die Standard-Bilinearform damit regulär. Trotzdem ist die Schnittmenge eines Untervektorraums \({ U \subseteq V }\) mit seinem orthogonalen Komplement \({ U^{\perp} }\) bezüglich \({ \gamma }\) im Allgemeinen nicht trivial, wie zum Beispiel im Fall \({ U \coloneqq \left\langle \begin{pmatrix} 1 \\ i \end{pmatrix} \right\rangle \subset \C^2 , }\) denn es gilt dann \[ \gamma\left( \begin{pmatrix} 1 \\ i \end{pmatrix} , \begin{pmatrix} 1 \\ i \end{pmatrix} \right) = 1^2 + i^2 = 1 - 1 = 0 \] und damit \[ \begin{pmatrix} 1 \\ i \end{pmatrix} \in \begin{pmatrix} 1 \\ i \end{pmatrix}^{\perp} = U^{\perp} . \] Trotzdem erhalten wir die folgende Aussage.
Als Nächstes verwenden wir diesen Begriff des orthogonalen Komplements,
um den Kern einer Matrix näher zu beschreiben.
Sei dazu zunächst
\({A \in K^{m \times n}}\)
eine Matrix ohne Nullzeilen.
Weiter sei
\[
\gamma \colon K^n \times K^n \to K,\,
\left(
\begin{pmatrix}
u_1 \\ \vdots \\ u_n
\end{pmatrix},
\begin{pmatrix}
v_1 \\ \vdots \\ v_n
\end{pmatrix}
\right)
\mapsto
\sum_{i=1}^n u_i v_i
\]
die Standard-Bilinearform auf
\({
K^n
}\)
und seien
\({
v_1, \dots, v_m \in K^n
}\)
die Vektoren aus
\({
K^n
}\)
deren Transponierte die Zeilen von
\({
A
}\)
sind:
\[
A =
\begin{pmatrix}
v_1^T \\
\vdots \\
v_m^T
\end{pmatrix}
.
\]
Wir nennen dann
\({
\langle v_1, \dots, v_m \rangle
}\)
den
Zeilenraum von
\({
A
}\).
Weiter ist der Kern
\({
\ker A
}\)
das orthogonale Komplement des Zeilenraums
\({
\langle v_1, \dots, v_m \rangle
}\)
bezüglich
\({
\gamma \colon K^n \times K^n \to K
}\).
Für ein
\({
i = 1, \dots, m
}\)
haben wir bereits am Ende des
vorherigen Abschnitts zu linearen Abbildungen
mit Hilfe des
Rangsatzes
gefolgert,
dass der Kern
\({
\ker v_i^T = v_i^{\perp}
}\)
der
\({
i
}\)-ten Zeile von
\({
A
}\)
eine lineare Hyperebene ist.
Mit Hilfe des
vorherigen Korollars
erhalten wir eine alternative Begründung
über die
Dimension des orthogonalen Komplements.
Also ist der Kern von
\({
A
}\)
die Schnittmenge
\[
\ker A =
\bigcap_{i = 1}^n \ker v_i^T =
\bigcap_{i = 1}^n v_i^{\perp}
\]
der linearen Hyperebenen,
die jeweils das orthogonale Komplement
einer transponierten Zeile von
\({
A
}\)
sind.
Das heißt die transponierten Zeilen von
\({
A
}\)
bilden die
Normalen
der linearen Hyperebenen
deren Schnitt der Kern von
\({
A
}\)
ist.
(Den bestimmten Artikel die
setzen wir hier in Anführungsstriche,
da jede lineare Hyperebene für
\({
K \neq \Z / 2 \Z
}\)
mehrere Normalen hat.)
Für eine Matrix die möglicherweise Nullzeilen enthält
können wir uns dann auf die orthogonalen Komplemente
der trasponierten
Zeilen ungleich
\({
0
}\)
beschränken.
Über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) einer Bilinearform \({ \gamma \colon V \times V \to K }\) bekommen wir außerdem eine konkrete Beschreibung orthogonaler Komplemente endlich-erzeugter Untervektorräume bezüglich \({ \gamma }\).
Im Fall der Standard-Bilinearform \({ \gamma \colon K^n \times K^n \to K }\) ist die lineare Abbildung \({ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon K^n \to K^l }\) die Multiplikation mit der Matrix \({ \begin{pmatrix} v_1^T \\ \vdots \\ v_l^T \end{pmatrix} \in K^{n \times n} }\).
Sei \({ V }\) ein endlich-dimensionaler Vektorraum über einem Körper \({ K }\). Falls \({ K }\) unendliche viele Elemente hat, wie zum Beispiel \({ \Q }\), \({ \R }\) oder \({ \C }\), dann enthält jeder nicht-triviale Untervektorraum von \({ V }\) unendlich viele Vektoren. Das heißt wir können solche Untervektorräume nicht beschreiben, indem wir ihre Vektoren aufzählen. Aus dem Abschnitt zu Vektorräumen kennen wir die Möglichkeit Untervektorräume als Erzeugnis \({ \langle M \rangle }\) einer Teilmenge von Vektoren \({ M \subset V }\) zu beschreiben. Und nach dem Abschnitt zu linearen Abbildungen können wir einen Untervektorraum auch über den Kern einer linearen Abbildung definieren. Weiter können wir für jeden Untervektorraum von \({ V }\) nach dem Lemma zur Dimension von Unterverktorräumen eine endliche Basis, also insbesondere ein endliches Erzeugendensystem wählen. Damit stellt sich die Frage, ob wir jeden Untervektorraum von \({ V }\) auch als Kern einer linearen Abbildung in einen endlich-dimensionalen Vektorraum, also letzten Endes eine Matrix, darstellen können.
Die Basis \({ \{\alpha_1, \dots, \alpha_l\} \subset \mathrm{Hom}(V, K) }\) für den Kern der Einschränkung aus dem vorherigen Lemma können wir auch geometrisch interpretieren, indem wir uns auf eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) auf \({ V }\) festlegen. Denn über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) erhalten wir einen linearen Isomorphismus zwischen \({ V }\) und den Linearformen \({ V \to K }\).
Nach dem vorherigen Lemma ist \({ \{ \gamma^{\#}(v_1), \dots, \gamma^{\#}(v_l) \} \subset \mathrm{Hom}(V, K) }\) ein Erzeugendensystem für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\). Die Behauptung folgt dann zusammen mit dem Lemma zu Unterektorräumen als Kerne linearer Abbildungen.
Alternativer Beweis: Nach dem Lemma zum orthogonalen Komplement als Kern gilt \({ U^{\perp \perp} = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} }\) und weiter \({ U = U^{\perp \perp} }\) nach Übung 2 aus Woche 2.
Das heißt um einen Untervektorraum \({ U \subseteq V }\) als Kern einer linearen Abbildung darzustellen, müssen wir nur eine Basis \({ \{v_1, \dots, v_l\} \subset U^{\perp},\, l \in \N_0 }\) des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) bestimmen; die lineare Abbildung deren Kern \({ U \subseteq V }\) ist erhalten wir dann durch \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Und falls uns \({ U \subseteq V }\) durch ein Erzeugendensystem \({ \langle u_1, \dots, u_m \rangle = U,\, m \in \N_0 }\) gegeben ist, dann erhalten wir \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m,\, v \mapsto \begin{pmatrix} \gamma(u_1, v) \\ \vdots \\ \gamma(u_m, v) \end{pmatrix} \] nach dem Lemma zum orthogonalen Komplement als Kern. Das heißt letzten Endes können wir die Übersetzung der Darstellung von \({ U }\) als Erzeugnis \({ \langle u_1, \dots, u_m \rangle = U }\) in eine Darstellung von \({ U }\) als Kern darauf zurückführen, dass wir die Darstellung des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \({ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m }\) in eine Darstellung von \({ U^{\perp} }\) als ein Erzeugnis \[ \langle v_1, \dots, v_l \rangle = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} = U^{\perp} \] übersetzen. Diese Übersetzungen sind insofern praktisch, dass wir mit der jeweils geeigneten Darstellung ohne weitere Berechnungen Summen von Untervektorräumen nach dem Lemma zur Summe von Erzeugnissen und Schnitte von Untervektorräumen nach dem Lemma zum Schnitt von Kernen bestimmen können. Außerdem können wir Bilder und Urbilder von Untervektorräumen unter linearen Abbildungen über die Formeln \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] und \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) \] aus dem Abschnitt zu linearen Abbildungen ohne weitere Berechnungen bestimmen. Alles was wir für die beiden Übersetzungen benötigen ist ein Algorithmus zur Berechnung des Kerns einer linearen Abbildung zwischen endlich-dimensionalen Vektorräumen: das Gauß-Verfahren.
Außerdem können wir die Darstellung
eines Untervektorraums
\({
U \subseteq V
}\)
als Kern der linearen Abbildung
\({
\begin{pmatrix}
\gamma^{\#}(v_1) \\
\vdots \\
\gamma^{\#}(v_l)
\end{pmatrix}
\colon
V \to K^l
}\)
für eine Basis
\({
\{v_1, \dots, v_l\} \subset U^{\perp}
}\)
aus dem
vorherigen Korollar
wie folgt geometrisch interpretieren.
Nach dem
Lemma zum orthogonalen Komplement als Kern
und
Übung 4 aus Woche 2
gilt die Gleichung
\[
U =
\ker
\begin{pmatrix}
\gamma^{\#}(v_1) \\
\vdots \\
\gamma^{\#}(v_l)
\end{pmatrix}
=
\langle v_1, \dots, v_l \rangle^{\perp}
=
\bigcap_{i=1}^l v_i^{\perp}
.
\]
Weiter ist nach dem
Korollar zum orthogonalen Komplement eines Vektors
der Untervektorraum
\({
v_i^{\perp}
}\)
eine lineare Hyperebene für
\({
i = 1, \dots, l
}\).
Das heißt die Vektoren
\({
v_1, \dots, v_l
}\)
bilden die
Normalen
linearer Hyperebenen
deren Schnitt der Untervektorraum
\({
U \subseteq V
}\)
ist.
(Den bestimmten Artikel die
setzen wir hier in Anführungsstriche,
da jede lineare Hyperebene für
\({
K \neq \Z / 2 \Z
}\)
mehrere Normalen hat.)
Seien \({ V }\) und \({ W }\) endlich-dimensionale Vektorräume über \({ K }\) zusammen mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\). Weiter sei \({ \varphi \colon V \to W }\) eine lineare Abbildung und \({ U \subseteq W }\) ein Untervektorraum. Wie im vorherigen Abschnitt beschrieben, eignet sich die Darstellung von \({ U }\) als Kern einer linearen Abbildung besonders gut um das Urbild \({ \varphi^{-1}(U) }\) von \({ U }\) unter \({ \varphi \colon V \to W }\) zu bestimmen. Dazu sei \({ \{w_1, \dots, w_l\} }\) ein Erzeugendensystem des orthogonalen Komplements \({ U^{\perp} \subseteq W }\) bezüglich \({ \mu \colon W \times W \to K }\). Nach dem vorherigen Korollar gilt dann \({ U = \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} }\) und zusammen mit dem Lemma zum Schnitt von Kernen folgt die Gleichung \[ \begin{split} \varphi^{-1}(U) &= \varphi^{-1} \left( \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \right) \\ &= \ker \left( \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \circ \varphi \right) \\ &= \ker \begin{pmatrix} \gamma^{\#}(w_1) \circ \varphi \\ \vdots \\ \gamma^{\#}(w_l) \circ \varphi \end{pmatrix} \\ &= \bigcap_{i=1}^l \ker (\gamma^{\#}(w_i) \circ \varphi) . \end{split} \] Weiter ist für \({ i = 1, \dots, l }\) der Kern \({ \ker (\gamma^{\#}(w_i) \circ \varphi) \subseteq V }\) der Linearform \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) nach dem Rangsatz eine lineare Hyperbene oder ganz \({ V }\) je nachdem ob \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) surjektiv oder die Nullabbildung ist. In dem Fall, dass \({ \gamma^{\#}(w_i) \circ \varphi }\) surjektiv ist könnten wir versuchen eine Normale für die lineare Hyperebene \({ \ker (\gamma^{\#}(w_i) \circ \varphi) }\) bezüglich der Bilinearform \({ \gamma \colon V \times V \to K }\) anzugeben, möglichst in Abhängigkeit von \({ w_i }\) und \({ \varphi \colon V \to W }\). Diese Aufgabe erfüllt die sogennante adjungierte Abbildung von \({ \varphi \colon V \to W }\). Sei dazu \({ w \in W }\) dann erhalten wir mit \[ \mu(w, \varphi(-)) \colon V \to K,\, v \mapsto \mu(w, \varphi(v)) \] eine Linearform auf \({ V }\). Da \({ \gamma \colon V \times V \to K }\) regulär ist, gibt es dann genau einen Vektor \({ \varphi^T(w) \in V }\) mit \[ \gamma^{\#}(\varphi^T(w)) = \gamma(\varphi^T(w), -) = \mu(w, \varphi(-)) . \] Da \({ w \in W }\) beliebig war, bekommen wir so eine Abbildung \[ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) . \]
Mit diesem Korollar
können wir schließlich das Urbild
\({
\varphi^{-1}(U)
}\)
als einen Schnitt von Hyperebenen darstellen
deren
Normalen wir über die adjungierte Abbildung erhalten:
Je nachdem ob
\({
\varphi^T(v_i)
}\)
der Nullvektor ist oder nicht,
ist
\({
\varphi^T(v_i)^{\perp}
}\)
der ganze Vektorraum
\({
V
}\)
oder eine lineare Hyperebene
von
\({
V
}\).
Damit erhalten wir das Urbild
\({
\varphi^{-1}(U)
}\)
als den Schnitt
\[
\varphi^{-1}(U) =
\bigcap_{\substack{i=1 \\ \varphi^T(v_i) \neq 0}}^l
\varphi^T(w_i)^{\perp}
\]
linearer Hypereben.
Neben dieser konkreten Beschreibung von Urbildern
linearer Unterräume
erhalten wir noch die Gleichungen des folgenden Korollars zum
vorherigen Lemma.
In den beiden vorherigen Abschnitten haben wir uns mit dem Problem auseinandergesetzt für eine lineare Abbildung \({ \varphi \colon V \to W }\) und einen Untervektorraum \({ U \subseteq W }\) das Urbild \({ \varphi^{-1}(U) \subseteq V }\) zu bestimmen. In diesem Abschnitt beschäftigen wir uns mit dem Spezialfall, dass \({ U }\) der Nullvektorraum \({ \{0\} \subseteq W }\) ist und \({ V }\) und \({ W }\) endlich-dimensional sind. In diesem Spezialfall ist das Urbild \({ \varphi^{-1}(U) }\) der Kern \({ \ker \varphi = \varphi^{-1}(0) }\). Wie wir im Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen gesehen haben können viele andere Probleme auf diese eine Frage reduziert werden. Eine konkretere Beschreibung des Kerns \({ \ker \varphi }\) erhalten wir indem wir eine Basis (oder ein Erzeugendensystem) \({ \{\alpha_1, \dots, \alpha_m\} }\) des Dualraums \({ \mathrm{Hom}(W, K) }\) von \({ W }\) wählen. Nach dem Lemma zu Untervektorräumen als Kerne und dem Lemma zum Schnitt von Kernen erhalten wir dann \[ \{0\} = \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} = \bigcap_{i=1}^m \ker \alpha_i \] und damit den Kern \[ \ker \varphi = \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) = \bigcap_{i=1}^m \ker (\alpha_i \circ \varphi) = \bigcap_{\stackrel{i=1}{\alpha_i \circ \varphi \neq 0}}^m \ker (\alpha_i \circ \varphi) \] als Schnitt linearer Hyperebenen in \({ V }\). Diesen Schnitt linearer Hyperebenen können wir mit Hilfe von symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\) geometrischer beschreiben. Für \({ i = 1, \dots, m }\) können wir dann die Linearform \({ \alpha_i \colon W \to K }\) durch einen Vektor \({ w_i \in W }\) darstellen: \({ \mu(w_i, -) = \alpha_i \colon W \to K }\). Damit erhalten wir \({ \ker \alpha_i = w_i^{\perp} }\) und zusammen mit dem Lemma zum Urbild und der adjungierten Abbildung die Gleichung \[ \begin{split} \ker \varphi &= \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) \\ &= \bigcap_{i=1}^m \varphi^{-1}(w_i^{\perp}) \\ &= \bigcap_{i=1}^m \varphi^T(w_i)^{\perp} \\ &= \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} , \end{split} \] wobei \({ \varphi^T \colon W \to V }\) die zu \({ \varphi \colon V \to W }\) adjungierte Abbildung bezüglich der Bilinearformen \({ \gamma }\) und \({ \mu }\) ist. Das heißt um den Kern von \({ \varphi \colon V \to W }\) zu bestimmen, können wir eine Basis (oder ein Erzeugendensystem) \({ \{w_1, \dots, w_m\} \subset W }\) wählen und dann die Urbilder \({ \varphi^{-1}\big(w_i^{\perp}\big) \subseteq V }\) der linearen Hyperebenen \({ w_1^{\perp}, \dots, w_m^{\perp} }\) unter \({ \varphi }\) in \({ V }\) schneiden; oder wir können die Normalen \({ w_1, \dots, w_m }\) selbst entlang der Adjungierten \({ \varphi^T \colon W \to V }\) nach \({ V }\) abbilden, erhalten die zugehörigen linearen Hyperebenen dann als deren orthogonale Komplemente \({ \varphi^T(w_i)^{\perp} \subset V,\, i = 1, \dots, m, \varphi^T(w_i) \neq 0 }\) und den Kern \({ \ker \varphi }\) schließlich als den Schnitt dieser linearen Hyperebenen: \[ \ker \varphi = \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} . \] Im Fall \({ V = K^n }\), \({ W = K^m }\), \({ \varphi = \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\) für \({ A \in K^{m \times n} }\) und \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu }\) die Standard-Bilinearformen sind, liefert das Gauß-Verfahren eine Methode von der Standardbasis des \({ K^m }\) ausgehend die Normalen \({ w_1, \dots, w_m \in K^m }\) sukzessive so zu wählen, dass wir anhand der Darstellung des Kerns als Schnitt geeigneter linearer Hyperebenen relativ direkt eine Basis für den Kern \[ \ker A = \bigcap_{\stackrel{i=1}{A^T w_i \neq 0}}^m (A^T w_i)^{\perp} \] ablesen können.
Nun betrachten wir die einzelnen Schritte des Gauß-Verfahrens an dem Beispiel: \[ A \coloneqq \begin{pmatrix} 3 & 9 & -4 \\ -6 & 6 & 4 \end{pmatrix} \in \R^{2 \times 3} . \] Zunächst wählen wir für \({ w_1, w_2 \in \R^2 }\) die Standardbasis \({ w_i \coloneqq e_i,\, i = 1,2 }\). Die lineare Hyperebene mit \({ w_1 = e_1 \in \R^2 }\) als Normale ist die \({ y }\)-Achse und das orthogonale Komplement von \({ w_2 = e_2 }\) die \({ x }\)-Achse. Deren Urbilder unter \({ \varphi_A \colon \R^3 \to \R^2 }\) sind jeweils die linearen Hyperebenen mit den Normalen \({ A^T w_1 = \begin{pmatrix} 3 \\ 9 \\ -4 \end{pmatrix} \in \R^3 }\) und \({ A^T w_2 = \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\), also die Zeilen von \({ A }\) transponiert; dazu hier eine Visualisierung. Der Kern von \({ A }\) ist dann der Schnitt linearer Hyperebenen \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w_2\big)^{\perp} }\). Der erste Schritt im Gauß-Verfahren sieht nun vor, dass wir die zweite Zeile von \({ A }\) und damit die zweite Normale \({ \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\) durch eine Linearkombination \[ \lambda A^T w_1 + A^T w_2 = A^T (\lambda w_1 + w_2) = A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} \] dieser beiden Normalen ersetzen, deren erste Komponente verschwindet. In der Visualisierung können wir rechts unten den Vektor \({ w_2 = \begin{pmatrix} 0 \\ 1 \end{pmatrix} \in \R^2 }\) beliebig ändern und erhalten auf die Art alle möglichen Linearkombinationen \({ A^T w }\) der beiden Normalen und die zugehörige lineare Hyperebene \({ (A^T w)^{\perp} = \varphi^{-1}\big(w^{\perp}\big) \subset \R^3 }\). In einer zweiten Visualisierung beschränken wir uns auf die Vektoren \({ w = \begin{pmatrix} \lambda \\ 1 \end{pmatrix},\, \lambda \in \R }\). Dabei ist der zugehörige Schnitt \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w\big)^{\perp} }\) linearer Hyperebenen unabhängig von \({ \lambda \in \R }\) und damit identisch zum Kern von \({ A }\). Nun verschwindet die erste Komponente der Normalen \({ A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} }\) genau dann, wenn \({ \lambda = 2 }\) gilt, wir setzen also \({ w'_2 = \begin{pmatrix} 2 \\ 1 \end{pmatrix} }\) und erhalten dann die Normale \({ A^T w'_2 = \begin{pmatrix} 0 \\ 24 \\ -4 \end{pmatrix} \in \R^3 }\). Da die erste Komponente dieser Normalen verschwindet ist der erste Einheitsvektor \({ e_1 \in \R^3 }\) im orthogonalen Komplement \({ (A^T w'_2)^{\perp} }\) enthalten: \({ (A^T w'_2)^T e_1 = 0 }\). Wie auch in der zweiten Visualisierung nach entsprechender Änderung des Vektors \({ w }\) rechts unten zu erkennen ist, ist damit auch die gesamte \({ x }\)-Achse in \({ (A^T w'_2)^{\perp} }\) enthalten. Die zugehörige Matrix \({ A' \coloneqq \begin{pmatrix} w_1^T A \\[0.4ex] {w'}_2^T A \end{pmatrix} = \begin{pmatrix} 3 & 9 & -4 \\ 0 & 24 & -4 \end{pmatrix} }\) ist bereits in Zeilenstufenform. Die Stufen befinden sich in den Spalten \({ 1 }\) und \({ 2 }\). Damit haben wir eine freie Variable und zwar die \({ z }\)-Koordinate. Um eine Basis bzw. einen Erzeuger \({ v \in \ker A' = \ker A }\) für den Kern von \({ A' }\) zu bestimmen, wählen wir den Ansatz \({ v = \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} }\). Damit \({ A' v = 0 }\) gilt, muss insbesonder die zweite Komponente von \({ A' v }\) verschwinden und damit \[ 0 = {w'}_2^T A v = \begin{pmatrix} 0 & 24 & -4 \end{pmatrix} \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} = 24y - 4 \] gelten. Wir erhalten also \({ y = \frac{1}{6} }\). Weiter muss für \({ A' v = 0 }\) auch die erste Komponente von \({ A' v }\) verschwinden und damit \[ 0 = w_1^T A v = \begin{pmatrix} 3 & 9 & -4 \end{pmatrix} \begin{pmatrix} x \\ \frac{1}{6} \\ 1 \end{pmatrix} = 3x + \frac{9}{6} - 4 \] gelten. Wir erhalten also \({ x = \frac{5}{6} }\) und damit \({ \ker A = \left\langle \frac{1}{6} \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle = \left\langle \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle . }\)
Wenn wir also die Zeilen einer Matrix \({ A \in K^{m \times n} }\) als Normalen linearer Hyperebenen auffassen, deren Schnitt der Kern von \({ A }\) ist, dann ersetzen wir diese Normalen im Gauß-Verfahren sukzessive durch andere Normalen, deren zugehörige lineare Hyperebenen den gleichen Schnitt bilden, und an bestimmten Einträgen verschwinden.
Im Abschnitt zu den Begriffen Basis und Dimenison haben wir gesehen dass wir für endlich-dimensionale Vektorräume sowie für deren Untervektorräume immer eine Basis und damit einen linearen Isomorphismus zu einem Vektorraum der Form \({ K^n }\) für ein \({ n \in \N_0 }\) wählen können. Weiter können wir jede lineare Abbildung \({ K^n \to K^m }\) für \({ m, n \in \N_0 }\) als Multiplikation mit einer Matrix aus \({ K^{m \times n} }\) darstellen. Daher drängt sich die Frage auf, wozu wir dann noch abstrakte Vektorräume brauchen, wenn wir im Prinzip ja sowieso alle Vektoren als Spaltenvektoren und jede lineare Abbildung als eine Matrix verstehen können. Mit Hilfe von dem Begriff des orthogonalen Komplements aus diesem Abschnitt können wir schließlich an einem konkreten Beispiel demonstrieren, dass der Begriff des abstrakten Vektorraums dennoch hilfreich ist.
Im Fall eines einzelnen Vektors \({ v \in \R^2 \setminus \{0\} }\) ist das orthogonale Komplement \({ v^{\perp} \subset \R^2 }\) eine Ursprungsgerade in \({ \R^2 }\) mit \({ v }\) als Normale; insbesondere also ein Untervektorraum der Dimension \({ 1 }\). Also wird jeder lineare Isomorphismus \({ \R \cong v^{\perp} }\) von einem einzelnen Basisvektor \({ u \in v^{\perp} \setminus \{0\} }\) bestimmt und umgekehrt. Die folgende Grafik zeigt eine Ursprungsgerade mit zugehöriger Normale \({ v }\) sowie einen passenden Basisvektor \({ u }\) für \({ v^{\perp} }\) :
Ganz egal wie wir jetzt die Normale \({ v }\) oder den Basisvektor \({ u }\) stetig bewegen, sobald die Normale \({ v }\) ein negatives Vielfaches der ursprünglichen Wahl für \({ v }\) ist, erhalten wir auch für \({ u }\) ein negatives Vielfaches des ursprünglichen Basisvektors. Also gibt es keine Möglichkeit für jede Ursprungsgerade in \({ \R^2 }\) stetig einen Basisvektor bzw. einen linearen Isomorphismus zu \({ \R }\) zu wählen. Aus diesem Grund ist es hilfreich, dass wir mit dem Begriff des Vektorraums solche Ursprungsgeraden und andere (Unter)vektorräume untersuchen können, ohne uns dabei auf eine bestimmte Basis festzulegen.
Vor diesem Hintergrund können wir uns auch noch einmal die Basis bzw. den Erzeuger ansehen, den wir in diesem Fall durch Rückwertssubstitution im Gauß-Verfahren erhalten und wo bei diesem Verfahren eine Diskontinuität auftritt. Dazu schreiben wir \({ v = \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} }\) für die Normale \({ v \in \R^2 \setminus \{0\} }\). Bezüglich der Standard-Bilinearform \({ \gamma \colon \R^2 \times \R^2 \to \R }\) erhalten wir dann die zugehörige Linearform \[ \gamma(v, -) = \varphi_{v^T} \colon \R^2 \to \R,\, w \mapsto v^T w = \begin{pmatrix} v_1 & v_2 \end{pmatrix} w \] deren Kern die lineare Hyperebene \({ v^{\perp} \subset \R^2 }\) zur Normalen \({ v }\) ist. Die zugehörige Matrix \({ v^T = \begin{pmatrix} v_1 & v_2 \end{pmatrix} \in \R^{1 \times 2} }\) ist trivialerweise bereits in Zeilenstufenform und um einen Erzeuger für den Kern \({ \ker v^T }\) zu bestimmen unterscheiden wir die beiden Fälle \({ v_1 \neq 0 }\) und \({ v_1 = 0 }\). Im Fall \({ v_1 \neq 0 }\) wählen wir bei der Rückwertssubstitution die \({ y }\)-Koordinate als freie Variable. Das heißt wir wählen den Ansatz und \({ u = \begin{pmatrix} u_1 \\ 1 \end{pmatrix} }\). Wie auch die folgende Grafik zeigt, liegt der Erzeuger \({ u }\) damit auf der affinen Geraden \({ \R \times \{1\} \subset \R^2 }\):
Mit anderen Worten,
falls
\({
v_1 \neq 0
}\)
gilt,
haben die lineare Hyperebene
\({
v^{\perp}
}\)
und die affine Gerade
\({
\R \times \{1\}
}\)
genau einen Schnittpunkt
\({
u \in \R^2 \setminus \{0\}
}\)
welchen wir bei Rückwertssubstitution im Gauß-Verfahren
als Erzeuger wählen:
\({
\langle u \rangle = \ker v^T = v^{\perp}
}\).
Nähert sich die Normale
\({
v
}\)
allerdings von außerhalb der
\({
y
}\)-Achse,
dann wandert dieser Schnittpunkt
\({
u \in v^{\perp} \cap (\R \times \{1\})
}\)
auf dieser affinen Geraden
\({
\R \times \{1\}
}\)
ins Unendliche
.
In dem Grenzfall,
dass
\({
v_1 = 0,\, v_2 \neq 0
}\)
gilt und
\({
v
}\)
damit auf der
\({
y
}\)-Achse
liegt,
wählen wir bei der Rückwertssubstitution den Ansatz
\({
u =
\begin{pmatrix}
1 \\ u_2
\end{pmatrix}
}\)
und erhalten schließlich
den ersten Einheitsvektor
\({
u =
\begin{pmatrix}
1 \\ 0
\end{pmatrix}
}\)
als Erzeuger von
\({
v^{\perp}
}\).
Und ganz offensichtlich ist diese Wahl
keine stetige Fortsetzung
unserer Wahl für den Fall
\({
v_1 \neq 0
}\);
schließlich kann es gar keine stetige Fortsetzung dieser Wahl geben.
Der Untervektorraum
\({
v^{\perp} \subset \R^2
}\)
hängt dafür in gewisser Hinsicht stetig von
\({
v \in \R^2 \setminus \{0\}
}\)
ab und insofern ist es hilfreich,
dass wir keine Basis wählen müssen,
um die Vektorraum-Struktur auf
\({
v^{\perp}
}\)
zu beschreiben.
Bisher haben wir die Untervektorräume verwendet, um den Kern einer linearen Abbildung zu beschreiben und umgekehrt, können wir auch jeden Untervektorraum als Kern einer linearen Abbildung erhalten. Dabei ist es eine naheliegende Frage, inwieweit sich die bisherigen Betrachtungen auf beliebige Fasern linearer Abbildungen übertragen lassen. Ein besonders wichtiger Spezialfall sind dabei die Lösungsmengen (möglicherweise) inhomogener LGS \({ A x = b }\) für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\). Ganz allgemein verwenden wir für die Fasern linearer Abbildungen den folgenden Begriff.
Die folgende Aussage folgt relativ direkt aus dieser Definition affiner Unterräume.
Anders als bei Untervektorräumen kann eine Faser einer linearen Abbildung und insbesondere die Lösungsmenge eines inhomogenen LGS durchaus die leere Menge sein. In allen anderen Fällen bekommen wir eine nützliche Beschreibung über den Kern einer linearen Abbildung.
Aufgrund von diesem Lemma und der Äquivalenz \[ p + U = p + U' ~~ \Longleftrightarrow ~~ U = U' \] für alle \({ p \in V }\) und \({ U, U' \subseteq V }\) sind die folgenden Begriffe wohldefiniert.
Für eine Linearform \({ \alpha \colon V \to K }\) erhalten wir genau zwei Möglichkeiten für die Fasern von \({ \alpha }\). Entweder \({ \alpha }\) ist surjektiv, dann bilden die Fasern von \({ \alpha }\) eine Partition von \({ V }\) in affine Hyperebenen, oder \({ \alpha }\) ist die konstante Nullabbildung, dann ist die Faser von \({ 0 }\) der ganze Vektorraum \({ V }\) und die übrigen Fasern sind die leere Menge. Weiter können wir nach dem vorherigen Lemma jeden nicht-leeren affinen Unterraum als Nebenklasse eines Untervektorraums darstellen. Damit stellt sich die Frage, ob alle Nebenklassen von Untervektorräumen affine Unterräume sind; schießlich ist das eine gängige Definition affiner Unterräume.
Sei nun \({ V }\) ein endlich-dimensionaler \({ K }\)-Vektorraum \({ U \subseteq V }\) ein Untervektorraum und \({ p \in V }\). In dem Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen haben wir \({ U }\) als Kern einer linearen Abbildung dargestellt indem wir eine Basis \({ \{\alpha_1, \dots, \alpha_l\},\, l \in \N_0 }\) für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\) gewählt haben; siehe auch das zugehörige Lemma. Aufgrund des vorherigen Lemmas ist die Linearform \({ \alpha_i \colon V \to K }\) konstant gleich \({ \alpha_i(p) }\) auf \({ p + U }\) für \({ i = 1, \dots, l }\). Das heißt \({ p + U }\) ist in der affinen Hyperebene \({ p + \ker \alpha_i }\) enthalten für \({ i = 1, \dots, l }\). Ganz analog dazu wie wir \({ U \subseteq V }\) als den Kern der linearen Abbildung \[ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \alpha_1(v) \\ \vdots \\ \alpha_l(v) \end{pmatrix} \] wie auch als Schnitt linearer Hyperebenen \[ U = \bigcap_{i=1}^l \ker \alpha_i \] darstellen können, folgt aus dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse dass wir nun auch die Nebenklasse \({ p + U }\) als Faser von \({ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \alpha_1(p) \\ \vdots \\ \alpha_l(p) \end{pmatrix} \in K^l }\) und damit auch als Schnitt affiner Hyperebenen \[ p + U = p + \bigcap_{i=1}^l \ker \alpha_i = \bigcap_{i=1}^l (p + \ker \alpha_i) % \alpha_i^{-1}(\alpha_i(p)) \] darstellen können. Zusammenfassend erhalten wir die folgende Charakterisierung affiner Unterräume.
Gegeben eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) können wir die nicht-leeren affinen Unterräume von \({ V }\) noch etwas geometrischer beschreiben. Sei dazu \({ A \subseteq V }\) ein affiner Unterraum mit einem Punkt \({ p \in A }\) und Tangentialraum \({ U \subseteq V }\); oder mit anderen Worten \({ A = p + U }\) als Nebenklasse des Untervektorraums \({ U }\). Weiter sei \({ N \coloneqq U^{\perp} }\) das orthogonale Komplement von \({ U }\) in \({ V }\) bezüglich \({ \gamma }\) der sogenannte Normalenraum von \({ A }\). Dann ist für jede Normale \({ n \in N }\) die zugehörige Linearform \({ \gamma(n, -) \colon V \to K }\) konstant gleich \({ \gamma(n, p) }\) auf \({ A }\) nach dem vorherigen Lemma. Weiter ist \({ p + n^{\perp} }\) die Faser der Linearform \({ \gamma(n, -) \colon V \to K }\) über \({ \gamma(n, p) \in K }\) und damit \({ A = p + U \subseteq p + n^{\perp} }\). Für eine Basis \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N }\) ist dann \({ U }\) der Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} \] nach dem Korollar zu Untervektorräumen und Kerne Curry-Transformierter und \({ p + U }\) nach dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse damit die Faser von \({ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} \in K^l }\). Schließlich erhalten wir den affinen Unterraum \({ A }\) damit auch als Schnittmenge affiner Hyperbenen mit (mindestens) einem gemeinsamen Punkt \({ p \in A }\): \[ A = p + U = p + \bigcap_{i=1}^l n_i^{\perp} = \bigcap_{i=1}^l (p + n_i^{\perp}) . \] Auf diese Art erhalten wir eine sehr konkrete Art jede Nebenklasse \({ p + U \subseteq V }\) im Sinne der vorherigen Proposition als Faser einer linearen Abbildung darzustellen: Zunächst bestimmen wir eine Basis (oder ein Erzeugendensystem) \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N = U^{\perp} }\) zum Beispiel mit Hilfe des Gauß Verfahrens wie im Abschnitt zu Darstellungen von Untervektorräumen beschrieben und anschließend definieren wir \({ \varphi \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} }\) und \({ q \coloneqq \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} }\) um \({ A }\) als Faser von \({ \varphi }\) über \({ q }\) zu erhalten.
Als Nächstes beschäftigen wir uns mit der Frage in umgekehrter Richtung: Gegeben eine lineare Abbildung \({ \varphi \colon V \to W }\) endlich-dimensionaler Vektorräume, einen Punkt \({ q \in W }\) und symmetrische reguläre Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\), wie bestimmen wir eine Nebenklasse \({ p + U = A \coloneqq \varphi^{-1}(q) }\) falls vorhanden? Wie im Abschnitt zur geometrischen Betrachtung des Gauß-Verfahren beschrieben ist dann \({ U = \ker \varphi }\) ein Schnitt linearer Hyperebenen der Form \({ \varphi^T(w)^{\perp} \subset V }\) für \({ w \in W }\) mit \({ \varphi^T(w) \neq 0 }\). Wenn wir jetzt für einen beliebigen Vektor \({ w \in W }\) die beiden Untervektorräume \({ \ker \varphi \subseteq \varphi^T(w)^{\perp} }\) um \({ p }\) verschieben, dann erhalten wir die Inklusion \[ p + \ker \varphi \subseteq p + \varphi^T(w)^{\perp} . \] Wenn wir außerdem die Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) auf \({ p }\) anwenden, dann erhalten wir \[ \gamma\big(\varphi^T(w), p\big) = \mu(w, \varphi(p)) , \] das heißt \({ p + \varphi^T(w)^{\perp} }\) ist die Faser von \[ \gamma\big(\varphi^T(w), -\big) \colon V \to K \] über \({ \mu(w, \varphi(p)) }\). Damit ist ein notwendiges Kriterium für \({ \varphi^{-1}(q) \neq \emptyset }\), dass \({ \mu(w, \varphi(p)) }\) im Bild der Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) liegt. Für eine Linearform, hier \({ \gamma\big(\varphi^T(w), -\big) }\), gibt es genau zwei Möglichkeiten. Entweder \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) ist surjektiv oder die Nullabbildung, was äquivalent ist zu \({ \varphi^T(w) = 0 }\). Also ist die Faser von \({ \gamma\big(\varphi^T(w), -\big) }\) über \({ \mu(w, \varphi(p)) }\) genau dann leer, wenn \({ \mu(w, \varphi(p)) \neq 0 }\) aber \({ \varphi^T(w) = 0 }\) gilt. Daher ist es naheliegend, dass es einen Zusammenhang zwischen den Fasern von \({ \varphi \colon V \to W }\) und dem Kern der adjungierten Abbildung \({ \varphi^T \colon W \to V }\) gibt. Um ein hinreichendes und notwendiges Kriterium zu erhalten, das wir in endlich vielen Schritten prüfen können, verwenden wir das folgende Hilfslemma der linearen Algebra.
Als Nächstes beschreiben wir wie diese Proposition im Gauß-Verfahren ihre Anwendung findet. Dazu betrachten wir für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\) das inhomogene lineare Gleichungssystem \({ A x = b }\). Angenommen wir haben ein \({ x \in K^n }\) mit \({ Ax = b }\) und ein \({ w \in K^m }\), dann gilt insbesondere die Gleichung \[ \gamma\big(A^T w, x\big) = \big(A^T w\big)^T x = w^T A x = w^T b = \mu(w, b) , \] wobei \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu \colon K^m \times K^m \to K }\) die Standard-Bilinearformen sind. Das heißt die Gleichung \[ w^T A x = w^T b \] von Produkten von Matrizen, Zeilen- und Spaltenvektoren entspricht der Koordinaten-freien Gleichung \[ \gamma\big(\varphi_A^T(w), p\big) = \mu(w, q) \] für \({ p = x }\), \({ q = b }\) und \({ \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\). Angenommen wir haben jetzt eine Basis \({ \{w_1, \dots, w_m\} }\) von \({ K^m }\) derart, dass das Matrix-Produkt \[ A' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \in K^{m \times n} \] in Zeilenstufenform ist, dann gibt es insbesondere ein \({ l = 1, \dots, m }\) derart, dass die Vektoren \({ A^T w_1, \dots, A^T w_l }\) linear unabhängig sind und die Gleichung \({ 0 = A^T w_{l+1} = \dots = A^T w_m }\) gilt. (Schließlich ist \({ A^T w_i }\) das Transponierte der \({ i }\)-ten Zeile \({ w_i^T A }\) der Matrix \({ A' }\) für \({ i = 1, \dots, m }\).) Definieren wir jetzt noch \[ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \end{pmatrix} \coloneqq \begin{pmatrix} w_1^T b \\ \vdots \\ w_m^T b \end{pmatrix} = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b \in K^{m} \] dann erhalten wir nach der vorherigen Proposition mit \[ b'_i = w_i^T b = \mu(w_i, b) = 0 \quad \text{für} ~ i = l+1, \dots, n \] ein hinreichendes und notwendiges Kriterium für die Lösbarkeit des linearen Gleichungssystems \({ A x = b }\). Weiter ist der Kern von \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) das orthogonale Komplement \({ \langle w_1, \dots, w_m \rangle^{\perp} = (K^m)^{\perp} = \{0\} }\) und damit der affine Lösungsraum des inhomogenen LGS \({ A' x = b' }\) identisch zum affinen Lösungsraum von \({ A x = b }\). Daher ist es naheliegend, dass wir neben einer Matrix wie \({ A' }\) in Zeilenstufenform und einer zugehörigen rechten Seite \({ b' \in K^m }\) auch eine Basis wie \({ \{w_1, \dots, w_m\} }\) wie folgt mit Hilfe des Gauß-Verfahren bestimmen können. Dazu schreiben wir die Standard-Basis als Zeilenvektoren (also effektiv die Einheitsmatrix) rechts neben \[ A \eqqcolon \begin{pmatrix} a_1 \\ \vdots \\ a_m \end{pmatrix} \in K^{m \times n} \] und wenden die Zeilenoperationen auf die ganze erweiterte Matrix \[ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} \in K^{m \times (n + 1 + m)} \] an. Wenn wir dann beispielsweise die \({ j }\)-te Zeile \({ a_j \in K^{1 \times n} }\) von \({ A }\) durch \({ \lambda a_i + a_j }\) ersetzen, dann ersetzen wir gleichzeitig \({ e_j^T \in K^{1 \times m} }\) durch \({ \lambda e_i^T + e_j^T = (\lambda e_i + e_j)^T }\). Weiter gilt für \({ \lambda \in K }\) die Gleichung \[ \lambda a_i^T + a_j^T = \lambda A^T e_i + A^T e_j = A^T (\lambda e_i + e_j) , \] das heißt die neu gewählte Normale \({ \lambda a_i^T + a_j^T \in K^n }\) des Kerns von \({ A }\) (bezüglich Standard-Linearform auf \({ K^n }\)) ist tatsächlich das Bild von \({ (\lambda e_i + e_j) }\) unter der adjungierten Abbildung \[ \varphi_A^T \colon K^m \to K^n,\, w \mapsto A^T w . \] Im Zuge dessen ersetzen wir auch die \({ j }\)-te Koordinate \({ b_j }\) von \({ b }\) durch \[ \lambda b_i + b_j = \lambda e_i^T b + e_j^T b = (\lambda e_i + e_j)^T b = \mu(\lambda e_i + e_j, b) . \] Wenn wir so die Matrix \({ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} }\) schrittweise mit Zeilenoperationen in eine Matrix \({ \begin{pmatrix} a'_1 & b'_1 & w_1^T \\ \vdots & \vdots & \vdots \\ a'_m & b'_m & w_m^T \\ \end{pmatrix} }\) mit \({ A' \coloneqq \begin{pmatrix} a'_1 \\ \vdots \\ a'_m \\ \end{pmatrix} \in K^{m \times n} }\) in Zeilenstufenform überführen, dann können wir \({ A' }\) und \({ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \\ \end{pmatrix} \in K^m }\) wie oben beschrieben anhand der ursprünglichen Matrix \({ A }\) und \({ b }\) und anhand der neuen Basis \({ \{w_1, \dots, w_m\} \subset K^m }\) rekonstruieren: \[ A' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \quad \text{und} \quad b' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b . \] Außerdem ist das ganze Verfahren unabhängig von \({ b }\), das heißt wenn wir die reguläre Matrix \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) einmal bestimmt haben, dann können wir das LGS \({ A x = b }\) für jede beliebige rechte Seite \({ b \in K^m }\) lösen indem wir zunächst \({ b' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b }\) berechnen und anschließend das LGS \({ A' x = b' }\) mit identischem affinen Lösungsraum betrachten.
Sei \({ V }\) ein endlich-dimensionaler Vektorraum über \({ K }\) und sei \({ A \subseteq V }\) ein affiner Unterraum. Für \({ \lambda_1, \dots, \lambda_l \in K }\) und \({ p_1, \dots, p_l \in A }\) für ein \({ l \in N_0 }\) ist dann die Linearkombination \({ \sum_{i=1}^l \lambda_i p_i }\) im allgemeinen kein Punkt in \({ A }\). Zum Beispiel enthält für \({ V = \R^2 }\) und \[ \varphi \coloneqq \varphi_{(1 ~ 1)} \colon V \to \R, (x, y) \mapsto x+y \] die Gerade \({ A \coloneqq \varphi^{-1}(1) }\) die Einheitsvektoren \({ e_1, e_2 \in \R^2 }\) allerdings liegt \({ e_1 + e_2 }\) nicht in \({ A }\). Trotzdem sind affine Unterräume unter affinen Kombinationen abgeschlossen.
An sich bilden die in affinen Kombinationen zulässigen Koeffizienten-\({ l }\)-Tupel selbst einen affinen Unterraum. Denn für \[ \varphi \coloneqq \varphi_{(1 ~ \cdots ~ 1)} \colon K^l \to K,\, (\lambda_i)_{i=1}^l \mapsto \sum_{i=1}^l \lambda_i \] enthält die Faser von \({ \varphi }\) über \({ 1 \in K }\) genau die in einer affinen Kombination zugelassenen Koeffizienten-\({ l }\)-Tupel. Für \({ l \geq 1 }\) können wir die Menge der in affinen Kombinationen zulässigen Koeffizienten-\({ l }\)-Tupel auch als einen Prototyp für einen affinen Unterraum der Dimension \({ l-1 }\) auffassen.
Diesem Lemma nach liefern die
affinen Kombinationen eine
Struktur
auf affinen Unterräumen
ähnlich zur Struktur der Linearkombinationen auf Vektorräumen.
Die affinen Abbildungen zwischen affinen Unteräumen
definieren wir als die Abbildungen,
die diese Struktur erhalten.
An sich können wir die affinen Kombinationen innerhalb eines affinen Unterraums \({ A }\) selbst als Bilder affiner Abbildungen \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A }\) auffassen: Für ein \({ l }\)-Tupel \({ (p_1, \dots, p_l) }\) von Punkten in \({ A }\) erhalten wir die Abbildung \[ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A,\, (\lambda_i)_{i=1}^l \mapsto \sum_{i=1}^l \lambda_i p_i \] deren Bilder genau die affinen Kombinationen der Punkte \({ p_1, \dots, p_l \in A }\) sind. Da jeder Punkt in \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \subset K^l }\) eine affine Kombination der Basisvektoren der Standard-Basis ist, sind alle affinen Abbildungen \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A }\) von dieser Form. Diese affinen Abbildungen können wir auch als Prototypen für affine Abbildungen auffassen. Wie bei linearen Abbildungen erwarten wir auch bei affinen Abbildungen dass die Komposition zweier affinen Abbildungen wieder eine affine Abbildung ist. Damit ist dann notwendigerweise jede Komposition \[ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A \xrightarrow{f} B \] einer prototypischen affinen Abbildung \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A }\) und einer affinen Abbildung \({ f \colon A \to B }\) wieder eine affine Abbildung \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to B ; }\) womit wir neben der vorherigen Definition eine weitere Charakterisierung affiner Abbildungen erhalten. Im folgenden nehmen wir stets implizit an, dass alle affinen Abbildungen Abbildungen zwischen affinen Unterräumen im Sinne der vorherigen Definition.
An sich ist die Taylor-Entwicklung bei unserer Definition der Ableitung nur eine alternative Schreibweise der ursprünglichen affinen Abbildung \({ f \colon A \to B }\) denn es gilt für alle \({ p' \in A }\) die Gleichung \( f(p) + T_p f (p' - p) = f(p) + f(p + p' - p) - f(p) = f(p') \). Die folgende einfache Beziehung zwischen einer affinen Abbildung und ihrer Ableitung (in einem Punkt) ist ebenfalls nützlich.
Weiter haben wir in Analogie zur Analysis auch hier eine Kettenregel.
Als Nächstes zeigen wir, dass Ableitungen im Sinne der vorherigen Definition lineare Abbildungen sind.
Aus den beiden vorherigen Lemmata folgt die Linearität der Ableitung.
Aufgrund von diesem Korollar bekommen wir für jede affine Abbildung
(mit nicht-leerem Definitionsbereich)
eine lineare Abbildung zwischen den zugehörigen Tangentialräumen:
die
Ableitung.
(Den bestimmten Artikel setzen wir hier in Anführungsstriche
da wir noch nicht gezeigt haben,
dass die Ableitungen nicht von dem Punkt abhängen
in dem wir die Ableitung nehmen.)
Als Nächstes gehen wir die umgekehrte Richtung
indem wir affine Abbildungen durch lineare Abbildungen
zwischen den zugehörigen Tangentialräumen beschreiben.
Nach diesem Lemma können wir schließlich die Ableitung einer affinen Abbildung unabhängig von dem Punkt in dem wir die Ableitung nehmen definieren.
Da affine Abbildungen unter Kompositionen abgeschlossen sind, stellt sich auch die Frage, wie sich die Taylor-Entwicklung einer Komposition \[ A \xrightarrow{f} B \xrightarrow{g} C \] affiner Abbildungen in einem Punkt \({ p \in A }\) in Abhängigkeit der Taylor-Entwicklungen von \({ f }\) und \({ g }\) in \({ p }\) bzw. \({ q \in B }\) darstellen lässt.
Als Nächstes zeigen wir, dass die Fasern und die Bilder affiner Abbildungen ebenfalls affine Unterräume sind.
An sich ist die Darstellung eines affinen Unterraums als Nebenklasse das Beispiel schlechthin für das Bild einer affinen Abbildung: Sei \({ V }\) ein endlich-dimensionaler Vektorraum, \({ p \in V }\) und \({ U \subseteq V }\) ein Untervektorraum. Dann ist die Inklusion \({ j \colon U \hookrightarrow V }\) eine lineare Abbildung und damit \[ f \colon U \to V,\, u \mapsto p + j(u) = p + u \] eine affine Abbildung nach Teil a aus vorherigem Lemma zur Konstruktion affiner Abbildungen aus linearen Abbildungen. Weiter ist das Bild von \({ f }\) genau die Nebenklasse \({ p + U }\).
Direkt zu Beginn des Abschnitts zu affinen Unterräumen haben wir in einem Lemma gezeigt, dass auch der Schnitt zweier affiner Unterräume ein affiner Unterraum ist. Dabei war die Darstellung affiner Unterräume als Faser einer linearen Abbildung besonders gut geeignet, da wir den Schnitt dann sehr direkt als Faser einer linearen Abbildung schreiben können wie im Beweis von diesem Lemma. Allerdings ist die Darstellung affiner Unterräume als Fasern linearer Abbildungen nicht unbedingt die effizienteste; besonders bei affinen Unterräumen von relativ niedriger Dimension. Damit stellt sich die Frage, wie wir den Schnitt affiner Unterräume \({ A, B \subseteq V }\) für einen endlich-dimensionalen Vektorraum \({ V }\) bestimmen können, falls wir für \({ A }\) oder \({ B }\) nur eine Beschreibung als Nebenklasse kennen. (Falls der Tangentialraum Kern einer uns bekannten linearen Abbildung \({ \varphi }\) ist, können wir jede Nebenklasse relativ direkt als Faser von \({ \varphi }\) darstellen. Deshalb gehen wir im Folgenden davon aus, dass wir für den Tangentialraum nur ein Erzeugendensystem kennen.) Zunächst betrachten wir den Fall, dass wir sowohl \({ A }\) als auch \({ B }\) als Nebenklasse kennen und anschließend den Fall gemischter Darstellungen.
Wenn wir also den Schnitt affiner Unterräume \({ A, B \subseteq W }\) mit Punkten \({ p \in A }\) und \({ q \in B }\) über ihre Darstellungen als Nebenklassen \({ p + TA }\) und \({ q + TB }\) bestimmen möchten, stellen sich zwei Fragen. Die erste Frage ist ob \({ q - p \in TA + TB }\) liegt aufgrund des vorherigen Lemmas. Und als zweites stellt sich (bei nicht-leerem Schnitt \({ A \cap B \neq \emptyset }\)) die Frage nach dem Schnitt der Tangentialräume \({ TA \cap TB }\) aufgrund des Lemmas zum Tangentialraum der Schnittmenge. Für beide Fragen ist es hilfreich, wenn wir die affinen Unterräume \({ A, B \subseteq W }\) als Bilder affiner Abbildungen \({ f \colon V_1 \to W }\) bzw. \({ g \colon V_2 \to W }\) für \({ K }\)-Vektorräume \({ V_1, V_2 }\) schreiben, wie nach dem Lemma zum Bild affiner Abbildungen beschrieben. Sei weiter \({ U \subseteq W }\) ein Komplement von \({ TA }\) in \({ W }\), das heißt \({ W = TA + U }\) und \({ TA \cap U = \{0\} }\). Damit können wir \({ W }\) (bis auf Isomorphie) als direkte Summe \({ TA \oplus U }\) schreiben. Für die Ableitung von \({ g \colon V_2 \to W }\) erhalten wir dann die Darstellung \[ Tg = \begin{pmatrix} \varphi \\ \psi \end{pmatrix} \colon V_2 \to W \cong TA \oplus U,\, v_2 \mapsto \varphi(v_2) + \psi(v_2) \] für lineare Abbildungen \({ \varphi \colon V_2 \to TA }\) und \({ \psi \colon V_2 \to U }\). Für die zusammengesetzte Abbildung \[ (Tf ~~~ Tg) \colon V_1 \oplus V_2 \to W,\, (v_1, v_2) \mapsto Tf(v_1) + Tg(v_2) \] erhalten wir dann die Darstellung als Matrix \({ \begin{pmatrix} Tf & \varphi \\ 0 & \psi \end{pmatrix} }\) ähnlich einer Zeilenstufenform.
Das heißt um den Schnitt \({ A \cap B }\) zu bestimmen benötigen wir einen Vektor \({ \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} \in V_1 \times V_2 = V_1 \oplus V_2 }\) mit \[ q - p = \begin{pmatrix} Tf & Tg \end{pmatrix} \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} = Tf(v_1) + Tg(v_2) \] sofern vorhanden (andernfalls gilt \({ A \cap B = \emptyset }\)) sowie den Untervektorraum \({ Tg(\ker \psi) }\) für den Tangentialraum \({ T(A \cap B) = TA \cap TB }\). Als nächstes beschreiben wir wie wir ein Komplement \({ U \subseteq W }\) von \({ TA }\) in \({ W }\) wie oben sowie den Kern der zugehörigen Abbildung \({ \psi \colon V_2 \to U }\) mit Hilfe des Gauß-Verfahren bestimmen können. Sei dazu \({ W = K^m }\) und \({ A = p + \langle v_1, \dots, v_{n_1} \rangle }\) und \({ B = q + \langle w_1, \dots, w_{n_2} \rangle }\) für \({ n_1, n_2 \in \N }\). Damit haben wir die affinen Abbildungen \[ \begin{split} f & \colon K^{n_1} \to W,\, x \mapsto p + \begin{pmatrix} v_1 & \cdots & v_{n_1} \end{pmatrix} x \\ \text{und} \quad g & \colon K^{n_2} \to W,\, x \mapsto q + \begin{pmatrix} w_1 & \cdots & w_{n_2} \end{pmatrix} x \end{split} \] mit \({ f(K^{n_1}) = A }\) und \({ g(K^{n_2}) = B }\). Angenommen wir haben einen linearen Isomorphismus \({ \theta \colon W \to W }\) derart, dass die Darstellungsmatrix der linearen Abbilung \[ \theta \circ (Tf ~~~ Tg) \colon K^{n_1} \oplus K^{n_2} \cong K^{n_1 + n_2} \to K^m \] (bezüglich Standard-Basen) in Zeilenstufenform ist, dann ist die Darstellungsmatrix von \({ \theta \circ Tf \colon K^{n_1} \to K^m }\) von der Form \({ \begin{pmatrix} M \\ 0 \end{pmatrix} }\) mit \({ M \in K^{m' \times n_1} }\) von vollem Rang eine Zeilenstufenform der Matrix \({ \begin{pmatrix} v_1 & \cdots & v_{n_1} \end{pmatrix} \in K^{m \times n_1} }\) und die Darstellungsmatrix von \({ \theta \circ Tg \colon K^{n_2} \to K^m }\) von der Form \({ \begin{pmatrix} N \\ L \end{pmatrix} }\) mit \({ N \in K^{m' \times n_2} }\) und \({ L \in K^{(m - m') \times n_2} }\) in Zeilenstufenform. Sei \({ U \coloneqq \theta^{-1}(\{0\} \times K^{m-m'}) }\) und \({ \varphi \colon K^{n_1} \to TA }\) und \({ \psi \colon K^{n_2} \to U }\) die entsprechenden Abbildungen mit \({ Tg = \varphi + \psi }\). Dann gilt \({ \ker \psi = \ker (\theta \circ \psi) = \ker L }\) und der affine Lösungsraum des inhomogenen linearen Gleichungssystems \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} x = \theta(q-p) }\) ist die Faser von \({ (Tf ~~~ Tg) \colon K^{n_1} \oplus K^{n_2} \cong K^{n_1 + n_2} \to K^m }\) über \({ q - p }\). Wenn wir also einen Vektor \({ x = \begin{pmatrix} x_1 \\ x_2 \end{pmatrix} \in K^{n_1 + n_2} \cong K^{n_1} \oplus K^{n_2} }\) (wobei \({ x_1 \in K^{n_1} }\) und \({ x_2 \in K^{n_2} }\)) mit \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} x = \theta(q-p) }\) haben, dann gilt \[ A \cap B = p + Tf(x_1) + Tg(\ker L) \] nach dem vorherigen Korollar. Schließlich können wir ohne einen Isomorphismus \({ \theta \colon K^m \to K^m }\) explizit zu berechnen eine zugehörige Zeilenstufenform \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} \in K^{m \times (n_1 + n_2)} }\) explizit berechnen indem wir die Matrix \({ \begin{pmatrix} v_1 & \cdots & v_{n_1} & w_1 & \cdots & w_{n_2} \end{pmatrix} \in K^{m \times (n_1 + n_2)} }\) mit Hilfe des Gauß-Verfahren auf Zeilenstufenform bringen. Für eine Basis \({ \{u_1, \dots, u_l\} \subset K^{n_2} }\) von \({ \ker L }\) ist dann die Menge \( \big\{ Tf(u_1), \dots, Tf(u_l) \big\} = \big\{ \begin{pmatrix} w_1 & \cdots & w_{n_2} \end{pmatrix} u_1, \dots, \begin{pmatrix} w_1 & \cdots & w_{n_2} \end{pmatrix} u_l \big\} \subset K^m \) ein Erzeugendensystem von \({ Tg(\ker L) = TA \cap TB }\).
Beispiel: Seien \({ v_1 \coloneqq \begin{pmatrix} -1 \\ 1 \\ -2 \end{pmatrix} }\), \({ v_2 \coloneqq \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} }\), \({ w_1 \coloneqq \begin{pmatrix} -2 \\ 5 \\ -6 \end{pmatrix} }\), \({ w_2 \coloneqq \begin{pmatrix} 3 \\ -8 \\ 8 \end{pmatrix} }\), \({ p \coloneqq \begin{pmatrix} -1 \\ 5 \\ -2 \end{pmatrix} }\) und \({ q \coloneqq \begin{pmatrix} 4 \\ 1 \\ 4 \end{pmatrix} }\) reellwertige Vektoren, seien \({ f \colon \R^2 \to \R^3,\, \begin{pmatrix} \lambda_1 \\ \lambda_2 \end{pmatrix} \mapsto p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \end{pmatrix} = p + \lambda_1 v_1 + \lambda_2 v_2 }\) und \({ g \colon \R^2 \to \R^3,\, \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix} \mapsto q + \begin{pmatrix} w_1 & w_2 \end{pmatrix} \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix} = q + \mu_1 w_1 + \mu_2 w_2 }\) die zugehörigen affinen Abbildungen und seien \({ A \coloneqq f(\R^2) = p + \langle v_1, v_2 \rangle }\) und \({ B \coloneqq g(\R^2) = q + \langle w_1, w_2 \rangle }\) die zugehörigen affinenen Ebenen \({ A, B \subset \R^3 }\). Wir bestimmen die Schnittmenge \({ A \cap B \subset \R^3 }\) mit dem eben skizzierten Verfahren. Dazu bringen wir zunächst die erweiterte Koeffizientenmatrix \({ \left(\hspace{-5pt}\begin{array}{cccc|c} v_1 & v_2 & w_1 & w_2 & q-p \end{array}\hspace{-5pt}\right) }\) auf Zeilenstufenform: \[ \begin{split} \left(\hspace{-5pt}\begin{array}{rrrr|r} -1 & 1 & -2 & 3 & 5 \\ 1 & 1 & 5 & -8 & -4 \\ -2 & 0 & -6 & 8 & 6 \end{array}\hspace{-5pt}\right) & \to \left(\hspace{-5pt}\begin{array}{rrrr|r} -1 & 1 & -2 & 3 & 5 \\ 0 & 2 & 3 & -5 & 1 \\ 0 & -2 & -2 & 2 & -4 \end{array}\hspace{-5pt}\right) \\ & \to \left(\hspace{-5pt}\begin{array}{rrrr|r} -1 & 1 & -2 & 3 & 5 \\ 0 & 2 & 3 & -5 & 1 \\ 0 & 0 & 1 & -3 & -3 \end{array}\hspace{-5pt}\right) . \end{split} \] Für \({ M \coloneqq \begin{pmatrix} -1 & 1 \\ 0 & 2 \end{pmatrix} }\), \({ N \coloneqq \begin{pmatrix} -2 & 3 \\ 3 & -5 \end{pmatrix} }\) und \({ L \coloneqq \begin{pmatrix} 1 & -3 \end{pmatrix} }\) erhalten wir damit die Zeilenstufenform \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} }\) der Matrix \({ \begin{pmatrix} v_1 & v_2 & w_1 & w_2 \end{pmatrix} }\). Um einen Vektor \({ \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ \mu_2 \end{pmatrix} \in \R^4 \cong \R^2 \oplus \R^2 }\) mit \({ q - p = \begin{pmatrix} Tf & Tg \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ \mu_2 \end{pmatrix} = \lambda_1 v_1 + \lambda_2 v_2 + \mu_1 w_1 + \mu_2 w_2 }\) zu bestimmen machen wir den Ansatz \({ \mu_2 = 0 }\). Damit \({ \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ 0 \end{pmatrix} }\) in der Faser von \({ (Tf ~~~ Tg) }\) über \({ q - p }\) liegt, muss insbesondere die Gleichung \( -3 = \begin{pmatrix} 0 & L \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ 0 \end{pmatrix} = L \begin{pmatrix} \mu_1 \\ 0 \end{pmatrix} = \begin{pmatrix} 1 & -3 \end{pmatrix} \begin{pmatrix} \mu_1 \\ 0 \end{pmatrix} = \mu_1 \) gelten. Betrachten wir anschließend die zweite und erste Komponente von \({ \begin{pmatrix} 0 & L \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ -3 \\ 0 \end{pmatrix} }\) so erhalten wir \({ \lambda_2 = 5 }\) und \({ \lambda_1 = 6 }\). Also gilt \({ q - p = Tf \begin{pmatrix} 6 \\ 5 \end{pmatrix} + Tg \begin{pmatrix} -3 \\ 0 \end{pmatrix} }\). Zusammen mit dem vorherigen Korollar erhalten wir \[ \begin{split} A \cap B &= p + Tf \begin{pmatrix} 6 \\ 5 \end{pmatrix} + Tg(\ker \psi) \\ &= \begin{pmatrix} -1 \\ 5 \\ -2 \end{pmatrix} + \begin{pmatrix} -1 & 1 \\ 1 & 1\\ -2 & 0 \end{pmatrix} \begin{pmatrix} 6 \\ 5 \end{pmatrix} + Tg(\ker L) \\ &= \begin{pmatrix} -1 \\ 5 \\ -2 \end{pmatrix} + \begin{pmatrix} -1 \\ 11\\ -12 \end{pmatrix} + Tg(\ker L) \\ &= \begin{pmatrix} -2 \\ 16 \\ -14 \end{pmatrix} + Tg(\ker L) \\ &= p' + Tg(\ker L) , \end{split} \] wobei \({ p' \coloneqq \begin{pmatrix} -2 \\ 16 \\ -14 \end{pmatrix} }\). Um eine Basis, das heißt einen Erzeuger \({ e }\), von \({ \ker L }\) zu bestimmen, machen wir den Ansatz \({ e = \begin{pmatrix} x \\ 1 \end{pmatrix} }\) und erhalten anhand von \[ 0 = L e = \begin{pmatrix} 1 & -3 \end{pmatrix} \begin{pmatrix} x \\ 1 \end{pmatrix} = x-3 \] die Gleichung \({ x = 3 }\). Folglich ist \( u \coloneqq Tg(e) = \begin{pmatrix} w_1 & w_2 \end{pmatrix} \begin{pmatrix} 3 \\ 1 \end{pmatrix} = 3 w_1 + w_2 = 3 \begin{pmatrix} -2 \\ 5 \\ -6 \end{pmatrix} + \begin{pmatrix} 3 \\ -8 \\ 8 \end{pmatrix} = \begin{pmatrix} -3 \\ 7 \\ -10 \end{pmatrix} \) ein Erzeuger von \({ Tg(\ker L) }\). Insgesamt erhalten wir die Gerade \({ A \cap B = p' + \langle u \rangle }\) als Schnittmenge.
Als Nächstes betrachten wir den gemischten Fall. Seien dazu \({ U }\), \({ V }\) und \({ W }\) Vektorräume über \({ K }\), sei \({ f \colon U \to W }\) eine affine Abbildung und \({ \varphi \colon V \to W }\) linear. Weiter sei \({ q \in W }\) dann erhalten wir affine Unterräume \({ A \coloneqq f(U) }\) und \({ B \coloneqq \varphi^{-1}(q) }\). Um den Schnitt \({ A \cap B = f(A) \cap \varphi^{-1}(q) }\) zu bestimmen machen wir zunächst die folgende Beobachtung aus der Mengenlehre.
Um also die Schnittmenge \({ A \cap B }\) zu bestimmen, können wir zunächst das Urbild \({ (\varphi \circ f)^{-1}(q) }\) und dann das zugehörige Bild \({ f((\varphi \circ f)^{-1}(q)) }\) unter \({ f \colon U \to V }\) bestimmen. Jetzt ist \({ \varphi \circ f \colon U \to W }\) im Allgemeinen keine lineare Abbildung. Um die Berechnung von \({ (\varphi \circ f)^{-1}(q) }\) auf die Faser einer linearen Abbildung zurückzuführen definieren wir \({ p \coloneqq f(0) }\) und bilden die Taylor-Entwicklung \[ f \colon U \to V,\, u \mapsto p + Tf(u) \] von \({ f }\) in \({ 0 \in U }\). Für \({ u \in U }\) gilt dann die Gleichung \( q = (\varphi \circ f)(u) = \varphi(p + Tf(u)) = \varphi(p) + \varphi(Tf(u)) = \varphi(p) + (\varphi \circ Tf)(u) \) genau dann wenn die Gleichung \({ q - \varphi(p) = (\varphi \circ Tf)(u) }\) gilt. Damit erhalten wir \({ (\varphi \circ f)^{-1}(q) = (\varphi \circ Tf)^{-1}(q - \varphi(p)) }\); das heißt die Faser von \({ \varphi \circ f \colon U \to W }\) über \({ q }\) ist die Faser der linearen Abbildung \({ \varphi \circ Tf \colon U \to W }\) über \({ q - \varphi(p) }\). Diese Beobachtung halten wir noch als Lemma fest.
Beispiel: Seien \({ p \coloneqq \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} }\), \({ v_1 \coloneqq \begin{pmatrix} -1 \\ -1 \\ 0 \end{pmatrix} }\), \({ v_2 \coloneqq \begin{pmatrix} 2 \\ 0 \\ 1 \end{pmatrix} }\), \({ f \colon \R^2 \to \R^3,\, u \mapsto p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} u }\) die zugehörige affine Abbildung und \({ A \coloneqq f(\R^2) = p + \langle v_1, v_2 \rangle }\) die von \({ v_1 }\) und \({ v_2 }\) an \({ p }\) aufgespannte affine Ebene. Weiter sei \({ a \coloneqq \begin{pmatrix} 1 & -3 & 2 \end{pmatrix} }\), \({ \alpha \coloneqq \varphi_a \colon \R^3 \to \R,\, v \mapsto a v }\) die zugehörige Linearform, \({ t = 3 }\) und \({ B \coloneqq \alpha^{-1}(t) \subset \R^3 }\) die zugehörige affine (Hyper)ebene. Nach dem Lemma zum Schnitt von Bild und Faser gilt die Gleichung \({ A \cap B = f(\R^2) \cap \alpha^{-1}(t) = f\big((\alpha \circ f)^{-1}(t)\big) }\). Daher bestimmen wir zunächst die Faser \({ (\alpha \circ f)^{-1}(t) }\) von \({ \alpha \circ f \colon \R^2 \to \R }\) über \({ t = 3 }\). Sei dazu \({ u \in \R^2 }\) dann gilt \[ \begin{split} 3 &= t \\ &= (\alpha \circ f)(u) \\ &= a \big( p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \big) \\ &= a p + a \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \\ &= \begin{pmatrix} 1 & -3 & 2 \end{pmatrix} \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + \begin{pmatrix} 1 & -3 & 2 \end{pmatrix} \begin{pmatrix} -1 & 2 \\ -1 & 0 \\ 0 & 1 \end{pmatrix} u \\ &= 5 + \begin{pmatrix} 2 & 4 \end{pmatrix} u \end{split} \] genau dann wenn \({ \begin{pmatrix} 2 & 4 \end{pmatrix} u = 3 - 5 = -2 }\) gilt. Für eine spezielle Lösung \({ p' }\) dieser Gleichung machen wir den Ansatz \({ p' = \begin{pmatrix} x \\ 0 \end{pmatrix} }\) und erhalten \({ x = -1 }\) und somit \({ p' = \begin{pmatrix} -1 \\ 0 \end{pmatrix} }\). Für einen Erzeuger \({ u }\) von \({ \ker \begin{pmatrix} 2 & 4 \end{pmatrix} }\) machen wir den Ansatz \({ u = \begin{pmatrix} x' \\ 1 \end{pmatrix} }\) und erhalten \({ x' = -2 }\) und damit \({ u = \begin{pmatrix} -2 \\ 1 \end{pmatrix} }\). Insgesamt erhalten wir \({ (\alpha \circ f)^{-1}(t) = p' + \langle u \rangle }\) und weiter \[ \begin{split} A \cap B &= f\big( (\alpha \circ f)^{-1}(t) \big) \\ &= f(p' + \langle u \rangle) \\ &= p + Tf(p' + \langle u \rangle) \\ &= p + Tf(p') + Tf(\langle u \rangle) \\ &= p + Tf(p') + \langle Tf(u) \rangle \\ &= p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} p' + \left\langle \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \right\rangle . \end{split} \] Schließlich berechnen wir \[ \begin{split} q &\coloneqq p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} p' \\ &= \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + \begin{pmatrix} -1 & 2 \\ -1 & 0\\ 0 & 1 \end{pmatrix} \begin{pmatrix} -1 \\ 0 \end{pmatrix} \\ &= \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} \\ &= \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} \end{split} \] und \[ \begin{split} w &\coloneqq \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \\ &= \begin{pmatrix} -1 & 2 \\ -1 & 0\\ 0 & 1 \end{pmatrix} \begin{pmatrix} -2 \\ 1 \end{pmatrix} \\ &= \begin{pmatrix} 4 \\ 2 \\ 1 \end{pmatrix} \end{split} \] und erhalten insgesamt die Gerade \({ q + \langle w \rangle = A \cap B }\) als Schnittmenge.
Häufig beschreiben wir affine Hyperebenen \({ H \subset V }\) auch über einen Punkt \({ p \in H }\) und eine Normale \({ n \in V \setminus \{0\} }\) bezüglich einer regulären symmetrischen Bilinearform \({ \gamma \colon V \times V \to K }\) durch \({ H = p + n^{\perp} }\). Diese affine Hyperebene \({ H }\) ist dann genau die Faser der Linearform \({ \gamma(n, -) \colon V \to K }\) über \({ \gamma(n, p) \in K }\). Diese Beschreibung eignet sich wie in vorherigem Beispiel besonders gut dazu um Schnitte mit anderen affinen Unterräumen von \({ V }\) zu berechnen.
Wie im vorherigen Abschnitt zu Schnitten von Fasern mit Nebenklassen beobachtet eignet sich die Darstellung affiner Hyperebenen als Fasern von Linearformen besonders gut dazu um die Schnittmengen mit anderen affinen Unterräumen zu berechnen. Eine Beschreibung über ein Erzeugendensystem des Tangentialraums ist dagegen eher unhandlich, weil dann in dem Verfahren zu Schnitten von Nebenklassen deutlich mehr Parameter im Spiel sind. In diesem Abschnitt verwenden wir Volumenformen um ein Erzeugendensystem einer linearen Hyperebene (wie zum Beispiel dem Tangentialraum einer affinen Hyperebene) in eine Linearform mit entsprechendem Kern zu übersetzen.
Eine alternierende
\({
k
}\)-Form
\({
\alpha \colon V^k \to K
}\)
ordnet an sich jedem
\({
k
}\)-Tupel
von Vektoren
\({
v_1, \dots, v_k \in V
}\)
ein gerichtetes
\({
k
}\)-dimensionales
Volumen
\({
\alpha(v_1, \dots, v_k) \in K
}\)
zu.
Der Grund für die Namensgebung
alternierend
ist das folgende Lemma.
Sei nun \({ \{b_1, \dots, b_n\} \subset V }\) eine geordnete Basis und \[ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K,\, \nu \mapsto \nu(b_1, \dots, b_n) \] die Auswertung an \({ (b_1, \dots, b_n) }\). Dann ist \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) eine Linearform auf dem \({ K }\)-Vektorraum aller alternierenden \({ n }\)-Formen. Weiter besagt das vorherige Lemma, dass es genau eine alternierende \({ n }\)-Form \({ \nu \colon V^n \to K }\) in der Faser von \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) über \({ 1 \in K }\) gibt. Insbesondere ist die Evaluation \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) eine nicht-triviale Lineaform und \({ \{\nu\} }\) eine \({ 1 }\)-elementige affine Hyperebene in \({ \mathrm{Alt}^n V }\). Foglich gilt \({ \dim \mathrm{Alt}^n V = 1 }\) und \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) ist ein linearer Isomorphismus.
Bemerkenswert an diesem Lemma ist, dass sich damit Volumenformen deutlich einfacher klassifizieren lassen, als reguläre symmetrische Bilinearformen. Sei nun \({ V }\) ein \({ n }\)-dimensionaler \({ K }\)-Vektorraum und \({ \nu \colon V^n \to K }\) eine Volumenform auf \({ V }\). Im folgenden verwenden wir die Volumenform \({ \nu }\) um Darstellungen affiner Hyperebenen durch einen Punkt und einer Basis für den Tangentialraum in eine Darstellung als Faser einer Linearform zu übersetzen. Dazu betrachten wir zunächst den Spezialfall linearer Hyperebenen.
Affine Hyperebenen beschreiben wir häufig auch anhand einer Normalen bezüglich einer regulären symmetrischen Bilinearform \({ \gamma \colon V \times V \to K }\). Mit Hilfe einer solchen Bilinearform \({ \gamma }\) können wir außerdem zu jeder Linearform \({ \alpha \colon V \to K }\) genau einen Vektor \({ w \in V }\) mit \({ \alpha = \gamma(w, -) \colon V \to K,\, v \mapsto \gamma(w, v) }\) zuordnen. Diese Möglichkeit kombinieren wir jetzt mit der Konstruktion von Linearformen über die Volumenform \({ \nu \colon V^n \to K }\), um ein \({ n-1 }\)-faches Kreuzprodukt von Vektoren in \({ V }\) zu definieren. Dazu seien \({ v_2, \dots, v_n \in V }\) Vektoren und \({ \alpha \coloneqq \nu(-, v_2, \dots, v_n) }\) die zugehörige Linearform. Dann gibt es genau einen Vektor \({ w \in V }\) mit \({ \gamma(w, -) = \alpha }\).
Als nächstes beschreiben wir das Kreuzprodukt bezüglich Standard-Volumenform \({ \nu \colon (K^n)^n \to K }\) und Standard-Bilinearform \({ \gamma \colon K^n \times K^n \to K }\) konkreter.
Beispiel: Seien \({ p \coloneqq \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} }\) und \({ u = \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} }\) reelle Vektoren und \({ G \coloneqq p + \langle u \rangle \subset \R^3 }\) die zugehörige Gerade. Seien weiter \({ q \coloneqq \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} }\), \({ v_1 \coloneqq \begin{pmatrix} 2 \\ 0 \\ 1 \end{pmatrix} }\) und \({ v_2 \coloneqq \begin{pmatrix} 3 \\ 1 \\ 0 \end{pmatrix} }\) reelle Vektoren sowie \({ E \coloneqq q + \langle v_1, v_2 \rangle }\) die zugehörige affine Ebene. Aus dem Abschnitt zu Schnitten von Nebenklassen kennen wir ein Verfahren, mit dem wir die Schnittmenge \({ G \cap E }\) beziehungsweise hier a posteriori den Schnittpunkt von \({ G }\) und \({ E }\) bestimmen können. Da die affine Ebene \({ E }\) in \({ \R^3 }\) auch eine affine Hyperebene ist, können wir hier mit Hilfe des Kreuzprodukt ein etwas einfacheres Verfahren verwenden. Sei dazu \({ n \coloneqq v_1 \times v_2 = \begin{pmatrix} 2 \\ 0 \\ 1 \end{pmatrix} \times \begin{pmatrix} 3 \\ 1 \\ 0 \end{pmatrix} = \begin{pmatrix} -1 \\ 3 \\ 2 \end{pmatrix} }\), dann gilt nach dem Lemma zur Normalen einer affinen Hyperebene als Kreuzprodukt die Gleichung \({ E = q + n^{\perp} }\). Damit ist dann \({ E }\) die Faser der Linearform \({ \alpha \colon \R^3 \to \R,\, v \mapsto n^T v }\) über \({ \alpha(q) = n^T q = \begin{pmatrix} -1 & 3 & 2 \end{pmatrix} \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} = -4 }\) nach dem Lemma zu affinen Unterräumen als Nebenklasse. Sei nun \({ f \colon \R \to \R^3,\, t \mapsto p + tu }\) dann gilt \({ G = f(\R) }\). Wie gehabt bestimmen wir zunächst die Faser von \({ \alpha \circ f \colon \R \to \R }\) über \({ -4 }\). Sei dazu \({ t \in \R }\) dann gilt die Gleichung \[ \begin{split} -4 &= (\alpha \circ f)(t) \\ &= n^T (p + tu) \\ &= n^T p + t n^T u \\ &= \begin{pmatrix} -1 & 3 & 2 \end{pmatrix} \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + t \begin{pmatrix} -1 & 3 & 2 \end{pmatrix} \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} \\ &= -1 + 3t \end{split} \] genau dann wenn die Gleichung \({ -3 = 3t }\) also \({ t = -1 }\) gilt. Folglich gilt \({ (\alpha \circ f)^{-1}(-4) = \{-1\} }\) und zusammen mit dem Lemma zum Schnitt von Bild und Faser die Gleichung \[ \begin{split} G \cap E &= f(\{-1\}) \\ &= \{p - u\} \\ &= \left\{ \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} - \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} \right\} \\ &= \left\{ \begin{pmatrix} -2 \\ -2 \\ 0 \end{pmatrix} \right\} . \end{split} \]
Als nächstes untersuchen wir wie sich das Volumen entlang einer linearen Abbildung zwischen Vektorräumen gleicher Dimension ändert. Seien dazu \({ V }\) und \({ W }\) Vektorräume über \({ K }\) der Dimension \({ n \in \N_0 }\) und seien \({ \nu_1 \colon V^n \to K }\) und \({ \nu_2 \colon W^n \to K }\) Volumenformen. Sei weiter \({ \varphi \colon V \to W }\) eine lineare Abbildung, dann erhalten wir mit \[ \varphi^* \nu_2 \colon V^n \to K,\, (v_1, \dots, v_n) \mapsto \nu_2(\varphi(v_1), \dots, \varphi(v_n)) \] eine alternierende \({ n }\)-Form auf \({ V }\). Außerdem ist der Vektorraum \({ \mathrm{Alt}^n V }\) der alternierenden \({ n }\)-Formen auf \({ V }\) nach einem vorherigen Korollar \({ 1 }\)-dimensional. Da \({ \nu_1 \colon V^n \to K }\) als Volumenform per Definition nicht-trivial ist, erzeugt \({ \nu_1 }\) damit den Vektorraum \({ \mathrm{Alt}^n V }\) der alternierenden \({ n }\)-Formen \({ V^n \to K }\). Folglich gibt es einen Skalar \({ \lambda \in K }\) mit \({ \lambda \nu_1 = \varphi^* \nu_2 }\).
Die Determinante \({ \det \varphi }\) der linearen Abbildung \({ \varphi \colon V \to W }\) beschreibt an sich wie sich das Volumen entlang \({ \varphi }\) ändert: Die Volumenform \({ \nu_1 \colon V^n \to K }\) ordnet jedem \({ n }\)-Tupel \({ (v_1, \dots, v_n) \in V^n }\) das Volumen \({ \nu_1(v_1, \dots, v_n) \in K }\) zu. Die Volumenform \({ \nu_2 \colon W^n \to K }\) hingegen ordnet dem entsprechenden \({ n }\)-Tupel \({ (\varphi(v_1), \dots, \varphi(v_n)) \in W^n }\) von Bildvektoren das Volumen \[ \begin{split} \nu_2(\varphi(v_1), \dots, \varphi(v_n)) &= (\varphi^* \nu_2)(v_1, \dots, v_n) \\ &= (\det \varphi) \nu_1 (v_1, \dots, v_n) \end{split} \] zu. Insbesondere hängt die Determinante \({ \det \varphi }\) von den jeweils auf \({ V }\) und \({ W }\) gewählten Volumenformen \({ \nu_1 \colon V^n \to K }\) und \({ \nu_2 \colon W^n \to K }\) ab. Wenn wir allerdings bei einem Endomorphismus, das heißt in dem Spezialfall \({ V = W }\), auch Gleichheit der Volumenformen \({ \nu_1 = \nu_2 }\) fordern, dann hängt die Determinante nicht mehr von der Wahl einer bestimmten Volumenform ab wie das folgende Lemma zeigt.
Mit dem folgenden Lemma zeigen wir schließlich, dass der eben eingeführte Begriff einer Determinante mit Determinanten von Matrizen konsistent ist.
Wie wir mit dem vorherigen Korollar zur Dimension der alternierenden \({ n }\)-Formen festgestellt haben, ist der Vektorraum \({ \mathrm{Alt}^n V }\) eindimensional für einen Vektorraum \({ V }\) der Dimension \({ n \in \N \setminus \{0\} }\). In diesem Abschnitt liefern wir für die alternierenden \({ n-1 }\)-Formen \({ V^{n-1} \to K }\) eine ähnlich konkrete wenn auch etwas kompliziertere Beschreibung. Dabei ist es hilfreich, wenn wir eine Volumenform \({ \nu \colon V^n \to K }\) fixieren. Dann erhalten wir nämlich zu jedem Vektor \({ v \in V }\) durch fixieren des ersten Arguments von \({ \nu }\) die \({ n-1 }\)-Form \({ \nu(v, -, \dots, -) \colon V^{n-1} \to K }\). Diese Zuordnung von einem Vektor \({ v \in V }\) zur zugehörigen \({ n-1 }\)-Form \({ \nu(v, -, \dots, -) }\) können wir auch als Curry-Transformierte \({ \nu^{\#} \colon V \to \mathrm{Alt}^{n-1} V,\, v \mapsto \nu(v, -, \dots, -) }\) von \({ \nu }\) verstehen. Während die Curry-Transformierte einer nicht-trivialen Bilinearform kein Isomorphismus zu sein braucht gilt das nicht für Volumenformen, wie wir in diesem Abschnitt sehen werden. Dazu zeigen wir zunächst die Injektivität.
Um aus der Injektivität der Curry-Transformierten \({ \nu^{\#} \colon V \to \mathrm{Alt}^{n-1} V }\) Bijektivität zu folgern, werden wir den Rangsatz verwenden. Sei dazu \({ b_1, \dots, b_n \in V }\) eine Basis von \({ V }\). Dann erhalten wir für \({ i = 1, \dots, n }\) die Auswertung \[ \mathrm{ev}_i \coloneqq \mathrm{ev}_{b_1, \dots, \hat{b}_i, \dots, b_n} \colon \begin{cases} \mathrm{Alt}^{n-1} V \to K,\, \\ \alpha \mapsto \alpha(b_1, \dots, \hat{b}_i, \dots, b_n), \end{cases} \] wobei der Hut über \({ b_i }\) bedeutet, dass wir \({ b_i }\) an entsprechender Stelle auslassen. Sei weiter \[ \begin{pmatrix} \mathrm{ev}_1 \\ \vdots \\ \mathrm{ev}_n \end{pmatrix} \colon \mathrm{Alt}^{n-1} V \to K^n,\, \alpha \mapsto \begin{pmatrix} \mathrm{ev}_1 (\alpha) \\ \vdots \\ \mathrm{ev}_n (\alpha) \end{pmatrix} \] die entsprechende Abbildung nach \({ K^n }\).
In diesem Abschnitt
verwenden wir die Ergebnisse der beiden vorherigen Abschnitte,
um zu einer linearen Abbildung
\({
\varphi \colon V \to W
}\)
zwischen Vektorräumen
\({
V
}\)
und
\({
W
}\)
gleicher Dimension
\({
n \in \N \setminus \{0\}
}\)
mit Volumenformen
\({
\nu_1 \colon V^n \to K
}\)
und
\({
\nu_2 \colon W^n \to K
}\)
eine Abbildung in umgekehrter Richtung
\({
W \to V
}\)
anzugeben,
die wir auch als
Inverse bis auf Vielfache
verstehen können.
Dazu verwenden wir einerseits
das vorherige Korollar
und andererseits,
dass wir eine alternierende
\({
n-1
}\)-Form
\({
\alpha \colon W^{n-1} \to K
}\)
so wie eine Volumenform auf
\({
V
}\)
zurückziehen können:
\[
\varphi^* \alpha \colon
V^{n-1} \to K,\,
(v_2, \dots, v_n) \mapsto \alpha(\varphi(v_2), \dots, \varphi(v_n))
.
\]
Sei nun
\({
w \in W
}\)
dann erhalten wir mit
\[
\nu_2^{\#}(w) \colon
W^{n-1} \to K,\,
(u_2, \dots, u_n) \mapsto \nu_2(w, u_2, \dots, u_n)
\]
eine alternierende
\({
n-1
}\)-Form
auf
\({
W
}\).
Mit
\[
\varphi^* (\nu_2^{\#}(w)) \colon
V^{n-1} \to K,\,
(v_2, \dots, v_n) \mapsto \nu_2(w, \varphi(v_2), \dots, \varphi(v_n))
\]
erhalten wir weiter eine alternierende
\({
n-1
}\)-Form
auf
\({
V
}\).
Nach
dem vorherige Korollar
gibt es nun genau einen Vektor
\({
\mathrm{adj}(\varphi)(w) \in V
}\)
mit
\[
\begin{split}
\nu_1(\mathrm{adj}(\varphi)(w), v_2, \dots, v_n)
&=
\varphi^* (\nu_2^{\#}(w))(v_2, \dots, v_n)
\\
&=
\nu_2(w, \varphi(v_2), \dots, \varphi(v_n))
\end{split}
\]
für alle Vektoren
\({
v_2, \dots, v_n \in V
}\).
Ganz analog zur adjungierten Abbildung können wir zeigen, dass die adjunkte Abbildung linear ist.
\( {\nu_1( \mathrm{adj}(\varphi)(w) + \mathrm{adj}(\varphi)(w'), v_2, \dots, v_n )} = {\nu_1( \mathrm{adj}(\varphi)(w), v_2, \dots, v_n )} + {\nu_1( \mathrm{adj}(\varphi)(w'), v_2, \dots, v_n )} = {\nu_2(w, \varphi(v_2), \dots, \varphi(v_n))} + {\nu_2(w', \varphi(v_2), \dots, \varphi(v_n))} = {\nu_2(w + w', \varphi(v_2), \dots, \varphi(v_n))} \),
womit die Gleichung \({ \mathrm{adj}(\varphi)(w) + \mathrm{adj}(\varphi)(w') = \mathrm{adj}(\varphi)(w + w') }\) gilt. Ebenso gilt für alle \({ v_2, \dots, v_n \in V }\) die Gleichung \[ \begin{split} \nu_1( \lambda \mathrm{adj}(\varphi)(w), v_2, \dots, v_n ) &= \lambda \nu_1(\mathrm{adj}(\varphi)(w), v_2, \dots, v_n) \\ &= \lambda \nu_2(w, \varphi(v_2), \dots, \varphi(v_n)) \\ &= \nu_2(\lambda w, \varphi(v_2), \dots, \varphi(v_n)) , \end{split} \] womit die Gleichung \({ \lambda \mathrm{adj}(\varphi)(w) = \mathrm{adj}(\varphi)(\lambda w) }\) gilt.Als nächstes zeigen wir, dass die adjunkte Abbildung tatsächlich einer Inversen nahe kommt.
Das heißt die adjunkte Abbildung \({ \mathrm{adj}(\varphi) \colon W \to V }\) exisitiert unabhängig davon, ob \({ \varphi \colon V \to W }\) invertierbar ist oder nicht. Und falls \({ \varphi }\) invertierbar ist, dann erhalten wir die Inverse mit \({ \varphi^{-1} = \frac{1}{\det \varphi} \mathrm{adj}(\varphi) }\). Sei nun \({ \{b_1, \dots, b_n\} \subset V }\) eine geordnete Basis und \({ \nu_1 \colon V^n \to K }\) die \({ (b_1, \dots, b_n) }\) zugeordnete Volumenform, das heißt \({ \nu_1 }\) ist die Volumenform mit \({ \nu_1(b_1, \dots, b_n) = 1 }\). Für einen Vektor \({ w \in W }\) beschreiben wir nun die Koordinaten von \({ \mathrm{adj}(\varphi)(w) }\) bezüglich der Basis \({ \{b_1, \dots, b_n\} }\). Dazu bemerken wir zunächst, dass aus den definierenden Gleichungen fpr \({ \mathrm{adj}(\varphi)(w) }\) die äquivalenten Gleichungen \[ \nu_1( v_1, \dots, \mathrm{adj}(\varphi)(w), \dots, v_n ) = \nu_2( \varphi(v_1), \dots, w, \dots, \varphi(v_n) ) \] für \({ j = 1, \dots, n }\) und alle Vektoren \({ v_1, \dots, v_{j-1}, v_{j+1}, \dots, v_n \in V }\) folgen. Setzen wir weiter \({ v_i = b_i }\) für \({ i = 1, \dots, j-1, j+1, \dots, n }\), dann erhalten wir die Gleichungen \[ \nu_1( b_1, \dots, \mathrm{adj}(\varphi)(w), \dots, b_n ) = \nu_2( \varphi(b_1), \dots, w, \dots, \varphi(b_n) ) \] für \({ j = 1, \dots, n }\). Da \({ \{b_1, \dots, b_n\} }\) eine Basis ist, können wir \({ \mathrm{adj}(\varphi)(w) }\) als Linearkombination schreiben: \({ \mathrm{adj}(\varphi)(w) = \sum_{i=1}^n \lambda_i b_i }\). Damit erhalten wir für \({ j = 1, \dots, n }\) die Gleichung \[ \begin{split} \nu_2( \varphi(v_1), \dots, w, \dots, \varphi(v_n) ) &= \nu_1( b_1, \dots, \mathrm{adj}(\varphi)(w), \dots, b_n ) \\ &= \nu_1\big( b_1, \dots, \textstyle{\sum_{i=1}^n} \lambda_i b_i, \dots, b_n \big) \\ &= \displaystyle{\sum_{i=1}^n} \lambda_i \nu_1(b_1, \dots, b_i, \dots, b_n) \\ &= \lambda_j \nu_1(b_1, \dots, b_n) \\ &= \lambda_j , \end{split} \] wobei der mittlere Term jeweils an \({ j }\)-ter Stelle steht. Das heißt die \({ j }\)-te Koordinate des Vektors \({ \mathrm{adj}(\varphi)(w) }\) bezüglich der Basis \({ \{b_1, \dots, b_n\} }\) gleicht dem gerichteten Volumen, das von den Vektoren \( \varphi(b_1), \dots, \varphi(b_{j-1}), w, \varphi(b_{j+1}), \dots, \varphi(b_n) \) in \({ W }\) aufgespannt wird. Dieser geometrische Zusammenhang zwischen der adjunkten bzw. inversen Abbildung und den Volumen in \({ W }\) wird auch in einer Folge des empfehlenswerten YouTube-Kanals 3blue1brown anschaulich erklärt. Dieses Ergebnis halten wir noch als Proposition fest.
Beispiel: Sei \({ A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \in K^{2 \times 2} }\) eine \({ 2 \times 2 }\)-Matrix und \({ \varphi \coloneqq \varphi_A \colon K^2 \to K^2,\, v \mapsto A v }\) die zugehörige lineare Abbildung. Dann ist \({ B \coloneqq \begin{pmatrix} \mathrm{adj}(\varphi)(e_1) & \mathrm{adj}(\varphi)(e_2) \end{pmatrix} }\) die Darstellungsmatrix der adjunkten Abbildung \({ \mathrm{adj}(\varphi) \colon K^2 \to K^2 }\) bezüglich Standard-Volumenform \({ \nu \colon (K^2)^2 \to K }\) wobei \({ e_1 }\) und \({ e_2 }\) die Standard-Basis-Vektoren von \({ K^2 }\) sind. Nach der Proposition gilt die Gleichung \[ \begin{split} \mathrm{adj}(\varphi)(e_1) &= \begin{pmatrix} \nu(e_1, A e_2) \\ \nu(A e_1, e_1) \end{pmatrix} \\ &= \begin{pmatrix} \det \begin{pmatrix} e_1 & A e_2 \end{pmatrix} \\ \det \begin{pmatrix} A e_1 & e_1 \end{pmatrix} \end{pmatrix} \\ &= \begin{pmatrix} d \\ -c \end{pmatrix} \end{split} \] sowie die Gleichung \[ \begin{split} \mathrm{adj}(\varphi)(e_2) &= \begin{pmatrix} \nu(e_2, A e_2) \\ \nu(A e_1, e_2) \end{pmatrix} \\ &= \begin{pmatrix} \det \begin{pmatrix} e_2 & A e_2 \end{pmatrix} \\ \det \begin{pmatrix} A e_1 & e_2 \end{pmatrix} \end{pmatrix} \\ &= \begin{pmatrix} -b \\ a \end{pmatrix} . \end{split} \] Wir erhalten also \({ B = \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} }\). Falls weiter \({ \det A \neq 0 }\) gilt, dann erhalten wir die inverse Matrix von \({ A }\) durch \[ A^{-1} = \textstyle{\frac{1}{\det A}} B = \textstyle{\frac{1}{ad - bc}} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}. \]
Für manche Fragestellungen zu affiner Geometrie
kann es hilfreich sein,
affine Unterräume in lineare Unterräume zu übersetzen.
Ein Beispiel dieser Art,
sind die Übungen 3 und 4 aus
Woche 11.
Dazu betrachten wir für einen
endlich-dimensionalen
\({
K
}\)-Vektorraum
\({
V
}\)
den Produktvektorraum
\({
K \times V
}\).
Die Punkte des Vektorraums
\({
V
}\)
stehen dann in direkter Bijektion mit den Punkten
des affinen Unterraums
\({
\{1\} \times V \subset K \times V
}\).
Dabei ist für die nachfolgenden Betrachtungen essentiell,
dass
\({
0 \notin \{1\} \times V
}\)
gilt und
\({
\{1\} \times V
}\)
sozusagen ein echt affiner
Unterraum ist.
Außerdem sei
\[
\mathrm{pr}_2 \colon K \times V \to V,\,
\begin{pmatrix}
\lambda \\
v
\end{pmatrix}
\mapsto
v
\]
die kanonische Projektion auf die zweite Komponente.
Umgekehrt können wir einer Nebenklasse \({ p + U \subseteq V }\) eines Untervektorraums \({ U \subseteq V }\) den Untervektorraum \({ \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + \{0\} \times U \subseteq K \times V }\) zuordnen.
Insgesamt erhalten wir die folgende Proposition.
Sei nun
\({
f \colon V \to W
}\)
eine affine Abbildung
zwischen Vektorräumen
\({
V
}\)
und
\({
W
}\)
mit der Taylor-Entwicklung
\[
f \colon V \to W,\,
v \mapsto f(0) + \varphi(v)
.
\]
Dann erhalten wir mit
\[
\Phi_f \coloneqq
\begin{pmatrix}
1 & 0 \\
f(0) & \varphi
\end{pmatrix}
\colon
\begin{cases}
K \times V
\to
K \times W,\\
\begin{pmatrix}
\lambda \\
v
\end{pmatrix}
\mapsto
\begin{pmatrix}
\lambda \\
\lambda f(0) + \varphi(v)
\end{pmatrix}
\end{cases}
\]
eine lineare Fortsetzung
von
\({
f \colon V \to W
}\),
also eine lineare Abbildung
\({
\Phi_f \colon K \times V \to K \times W
}\)
mit
\({
\mathrm{pr}_2
\left(
\Phi_f
\begin{pmatrix}
1 \\
v
\end{pmatrix}
\right)
=
f(v)
}\)
für alle
\({
v \in V
}\).
Häufig stellt sich die Frage ob \({ n+1 }\) Punkte eines \({ n }\)-dimensionalen Vektorraums in einer gemeinsamen affinen Hyperebene liegen. Für \({ n = 2 }\) ist das die Frage, ob drei Punkte auf einer gemeinsamen Geraden liegen. Für diese Art von Fragestellung kann es hilfreich sein, eine Volumenform auf einem Vektorraum \({ V }\) auf den um eine Dimension größeren Vektorraum \({ K \times V }\) fortzusetzen.
Beispiel: Im Fall \({ \nu \colon (K^n)^n \to K }\) die Standard-Volumenform auf \({ K^n }\) ist, entspricht \({ \tilde{\nu} }\) ebenfalls der Standard-Volumenform auf \({ K \times K^n \cong K^{n+1} }\)
Im Abschnitt zu Volumenformen haben wir gesehen, wie wir für jeweils \({ n }\) Vektoren aus \({ V }\) ein gerichtetes Volumen definieren können. Dieses Volumen können wir auch als ein gerichtetes Volumen eines Parallelepipeden mit einer Ecke im Ursprung auffassen. Für \({ n+1 }\) Punkte \({ p_1, \dots, p_{n+1} \in V }\) können wir uns zumindest konzeptionell einen Parallelepipeden mit einer Ecke \({ p_1 }\) und dessen direkten Nachbarn \({ p_2, \dots, p_{n+1} }\) denken. Aus dieser Perspektive erhalten wir ein sinnvolles gerichtetes Volumen indem wir den Parallelepipeden durch Subtraktion von \({ p_1 }\) in den Ursprung verschieben und dann das Volumen entsprechend durch \({ \nu(p_2 - p_1, \dots, p_{n+1} - p_1) }\) definieren. Alternativ können wir allerdings auch die Ecken des Parallelepipeden entlang der Abbildung \[ V \to K \times V,\, p \mapsto \begin{pmatrix} 1 \\ p \end{pmatrix} \] in \({ K \times V }\) einbetten, um dann die Volumenform \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) des vorherigen Lemmas anzuwenden. Wie das folgende Lemma zeigt, führen beide Varianten zum gleichen Ergebnis.
Etwas überraschend und trotzdem geometrisch intuitiv ist, dass das gerichtete Volumen des entsprechenden Parallelepipeden bis auf Vorzeichen unabhängig davon ist, welchen der \({ n+1 }\) Punkte wir quasi als zentralen Eckpunkt auffassen und in den Ursprung verschieben. Darüber ob das Volumen des entsprechenden Parallelepipeden verschwindet, bekommen wir schließlich ein Kriterium dafür ob die \({ n+1 }\) Punkte in einer gemeinsamen affinen Hyperebene liegen.