Geometrie

Wiederholung Lineare Algebra

Vektorräume

Wir beginnen mit der Definition eines Vektorraums über einem beliebigen Grundkörper \({K}\) wie zum Beispiel \({\Q}\), \({\R}\), oder \({\C}\).

Definition (Vektorraum).

Ein Vektorraum über einem Körper \({K}\) (auch \({K}\)-Vektorraum) ist eine Menge von Vektoren \({V}\) mit einem ausgezeichneten Nullvektor   \({0 \in V}\) und zwei Verknüpfungen
\[ + \colon V \times V \to V,\, (u, v) \mapsto u + v \]
\(0\)
\(u\)
\(u+v\)
\(v\)
\[ K \times V \to V,\, (\lambda, v) \mapsto \lambda v \]
\(0\)
\(\lambda v\)
\(v\)
Addition bzw. Skalarmultiplikation derart, dass für alle \({\lambda, \mu \in K}\) und \({u, v, w \in V}\) die folgenden Gleichungen gelten:
Neutralität des Nullvektors \[ v = 0 + v \]
\(0\)
\(v = 0 + v\)
Assoziativgesetz \[ (u + v) + w = u + (v + w) \]
\(0\)
\(u\)
\(u+v\)
\(v\)
\(v+w\)
\(w\)
\(u+v+w\)
Kommutativgesetz \[ u + v = v + u \]
\(0\)
\(u\)
\(u\)
\(u+v\)
\(v\)
\(v\)
Verträglichkeit mit der Eins \[ v = 1 v \]
Verträglichkeit mit der Multiplikation \[ \lambda (\mu v) = (\lambda \mu) v \]
Verträglichkeit mit der Null \[ 0 = 0 v \]
Veträglichkeit mit der Addition \[ \lambda v + \mu v = (\lambda + \mu) v \]
Distributivgesetz \[ \lambda u + \lambda v = \lambda (u + v) \]
\(0\)
\(u\)
\(\lambda u\)
\(u+v\)
\(\lambda (u+v)\)
\(v\)
\(\lambda v\)

Die Abbildung zum Kommutativgesetz lässt schon ein Parallelogramm und die Abbildung zum Distributivgesetz eine Konfiguration wie im Strahlensatz erkennen. Anstelle der Verträglichkeit mit der Null wird häufig auch die Existenz eines additiven Inversen gefordert; so lassen sich die Eigenschaften der Addition so zusammenfassen, dass \({(V, +)}\) eine abelsche Gruppe ist. Die Definition hier ist dafür etwas elementarer weil kein Existenzquantor benötigt wird und äquivalent zur konventionellen Definition aufgrund der Gleichung \[ -1 v + v = -1 v + 1 v = (-1 + 1) v = 0 v = 0 \] für alle Vektoren \({v}\) eines \({K}\)-Vektorraums im Sinne der Definition.

Sei \({V}\) ein Vektorraum über einem Körper \({K}\). Aufgrund des Assoziativgesetzes und der Neutralität des Nullvektors können wir die Verknüpfung \({ + \colon V \times V \to V }\) und den Nullvektor \({ 0 \in V }\) auch durch eine Summenoperation \({ \sum }\) ersetzen, die jedem \({n}\)-tupel \({(v_1, \dots, v_n) \in V^n}\) für \({n \in \N_0}\) eine Summe  \({\sum_{i=1}^n v_i \in V}\) zuordnet. Der Nullvektor is dann durch die leere Summe  \({\sum_{i=1}^0 v_i = 0}\) gegeben. Weiter können wir aufgrund des Distributivegesetzes und der Verträglichkeit mit dem Einselement und der Multiplikation jede beliebige Kombination von Vektoren aus \({V}\) mit Elementen aus \({K}\) durch Addition und Skalarmultiplikation als eine Summe von skalaren Vielfachen bzw. eine sogenannte Linearkombination schreiben: \[ \sum_{i=1}^n \lambda_i v_i \in V \] wobei \({n \in \N_0}\), \({(\lambda_1, \dots, \lambda_n) \in K^n}\) und \({(v_1, \dots, v_n) \in V^n}\) gilt. Schließlich können wir aufgrund der Veträglichkeit mit der Addition jede Linearkombination \({ \sum_{i=1}^n \lambda_i v_i \in V }\) so umformen, dass \({v_i \neq v_j}\) für \({i \neq j}\) gilt.

Beispiele von \({K}\)-Vektorräumen

Lemma.

Für zwei Teilmengen \({M, N \subset V}\) eines \({K}\)-Vektorraums \({V}\) gilt die Gleichung \[ \langle M \rangle + \langle N \rangle = \langle M \cup N \rangle . \]

Beweis.

\({\langle M \rangle + \langle N \rangle \subseteq \langle M \cup N \rangle}\):
Aufgrund der Inklusionen \({M, N \subseteq M \cup N}\) haben wir auch Inklusionen \({\langle M \rangle, \langle N \rangle \subseteq \langle M \cup N \rangle}\). Weiter ist \({\langle M \rangle + \langle N \rangle}\) der kleinste Untervektorraum von \({V}\), der \({\langle M \rangle}\) und \({\langle N \rangle}\) als Teilmengen enthält. Insbesonder gilt damit \({\langle M \rangle + \langle N \rangle \subseteq \langle M \cup N \rangle}\).
\({\langle M \cup N \rangle \subseteq \langle M \rangle + \langle N \rangle}\):
Diese Inklusion folgt aus den Inklusionen \({M, N \subseteq \langle M \rangle + \langle N \rangle}\) und der Tatsache, dass \({\langle M \rangle + \langle N \rangle}\) der kleinste Untervektorraum von \({V}\) ist, der \({M}\) und \({N}\) als Teilmengen enthält.

Basis und Dimension

Im Folgenden sei \({V}\) ein Vektorraum über einem Grundkörper \({K}\).

Definition (Erzeugendensystem).

Eine Teilmenge \({M \subseteq V}\) ist ein Erzeugendensystem von \({V}\) falls \({\langle M \rangle = V}\) gilt.

Komplementär zum Begriff eines Erzeugendensystems ist der Begriff der linearen Unabhängigkeit.

Definition (Lineare Abhängigkeit).

Eine Teilmenge \({M \subseteq V}\) heißt linear abhängig falls es eine nicht-triviale Linearkombination des Nullvektors aus Vektoren in \({M}\), das heißt eine Summe \[ \sum_{i=1}^n \lambda_i v_i = 0 \] mit \({v_i \neq v_j \in M}\) für alle \({i \neq j}\) und \({\lambda_i \neq 0}\) für mindestens ein \({i = 1, \dots, n}\).

Eine Teilmenge \({M \subseteq V}\) heißt linear unabhängig falls \({M}\) nicht linear abhängig ist.

Proposition.

Für jede Teilmenge \({M \subseteq V}\) sind die folgenden Aussagen äquivalent:

Definition (Basis).

Eine Teilmenge \({M \subseteq V}\) ist eine Basis von \({V}\) falls eine (also alle) der drei äquivalenten Aussagen aus der Proposition für \({M}\) erfüllt sind.

Der Vektorraum \({V}\) heißt endlich-dimensional falls \({V}\) eine endliche Basis enthält.

Beispiele von Basen

Lemma.

Je zwei Basen eines endlich-dimensionalen Vektorraums haben gleich viele Elemente.

Definition (Dimension).

Die Dimension \({\dim V = \dim_K V \in \N_0}\) eines endlich-dimensionalen Vektorraums \({V}\) ist die Anzahl der Vektoren einer Basis von \({V}\).

Lemma.

Jeder Untervektorraum \({U \subseteq V}\) eines endlich-dimensionalen Vektorraums \({V}\) ist ebenfalls endlich-dimensional. Weiter gilt dann \({\dim U \leq \dim V}\) und Gleichheit \({\dim U = \dim V}\) genau dann wenn \({U = V}\).

Untervektorräume eines endlich-dimensionalen Vektorraums \({V}\) der Dimension \({\dim V - 1}\) werden auch lineare Hyperebenen genannt. Durch den Begriff der Dimension bekommen wir zwei weitere Charakterisierungen von Basen endlich-dimensionaler Vektorräume.

Lemma.

Für jede Teilmenge \({M \subseteq V}\) eines endlich-dimensionalen Vektorraums \({V}\) sind die folgenden Aussagen äquivalent:

Lineare Abbildungen

Die linearen Abbildungen zwischen je zwei Vektorräumen sind an sich genau die Abbildungen, welche die durch Addition und Skalarmultiplikation gegebene Struktur erhalten.

Definition (Lineare Abbildung).

Eine Abbildung \({\varphi \colon V \to W}\) für \({K}\)-Vektorräume \({V}\) und \({W}\) heißt linear  falls für alle \({\lambda \in K}\) und \({u, v \in V}\) die Gleichungen
\({ \varphi(u + v) = \varphi(u) + \varphi(v) }\)
und
\({ \varphi(\lambda v) = \lambda \varphi(v) }\)
gelten. Eine bijektive lineare Abbildung wird auch (linearer) Isomorphismus von Vektorräumen genannt und eine lineare Abbildung der Form \({\varphi \colon V \to K}\) heißt auch Linearform auf \({V}\).

Alternativ lassen sich lineare Abbildungen auch darüber charakterisieren, dass sie Linearkombinationen erhalten. Mit Hilfe linearer Abbildungen können wir einige weitere Beispiele von (Unter)vektorräumen nennen. Dazu sei \({\varphi \colon V \to W}\) eine lineare Abbildung zwischen \({K}\)-Vektorräumen \({V}\) und \({W}\).

Weitere Beispiele von (Unter)vektorräumen

Unter den vorherigen Beispielen von Vektorräumen haben wir auch den von einer Teilmenge erzeugten Untervektorraum genannt. Mit Hilfe der Begriffe aus diesem Abschnitt können wir einen Untervektorraum alternativ auch als Kern einer linearen Abbildung beschreiben. Das folgende Lemma ist ein Pendant zu dem vorherigen Lemma zur Summe von erzeugten Untervektorräumen.

Lemma.

Für zwei lineare Abbildungen \({\varphi \colon V \to W}\) und \({\psi \colon V \to W'}\) ist der Kern der linearen Abbildung \[ \begin{pmatrix} \varphi \\ \psi \end{pmatrix} \colon V \to W \times W',\, v \mapsto \begin{pmatrix} \varphi(v) \\ \psi(v) \end{pmatrix} \] durch die Schnittmenge der Kerne \[ \ker \begin{pmatrix} \varphi \\ \psi \end{pmatrix} = (\ker \varphi) \cap (\ker \psi) \] gegeben.

Das heißt je nachdem ob wir Summen oder Schnitte von Untervektorräumen bilden, kann die eine oder die andere Darstellung geeigneter sein. Außerdem eignet sich die Darstellung als den von einer Teilmenge erzeugten Untervektorraum besonders gut um das Bild unter einer linearen Abbildung zu bilden: \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] für jede Teilmenge \({M \subseteq V}\). Auf der anderen Seite haben wir für das Urbild des Kerns einer linearen Abbildung \({\psi \colon W \to W'}\) die Gleichung \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) . \]

Lemma.

Eine lineare Abbildung ist genau dann injektiv wenn ihr Kern trivial ist.

Satz  (Rangsatz).

Für jede lineare Abbildung \({\varphi \colon V \to W}\) endlich-dimensionaler Vektorräume \({V}\) und \({W}\) gilt die Gleichung \[ \dim V = \dim \ker \varphi + \dim \varphi(V) . \]

Korollar.

Sei \({\varphi \colon V \to W}\) eine lineare Abbildung zwischen Vektorräumen gleicher endlicher Dimension \({n \coloneqq \dim V = \dim W \in \N_0}\). Dann sind die folgenden Assagen äquivalent:

Beweis.

Angenommen die lineare Abbildung \({\varphi \colon V \to W}\) ist injektiv. Dann gilt \[ \dim \varphi(V) = \dim V - \dim \ker \varphi = n - 0 = n \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zur Dimension von Unterverktorräumen folgt \({\varphi(V) = V}\).

Angenommen \({\varphi}\) ist surjektiv. Dann gilt \[ \dim \ker \varphi = \dim V - \dim \varphi(V) = n - n = 0 \] nach dem Rangsatz. Zusammen mit dem vorherigen Lemma zu Kern und Injektivität folgt dass \({\varphi}\) injektiv ist.

Die übrigen Implikationen folgen dann per Definition.

Korollar  (Dimensionsformel).

Sei \({V}\) ein endlich-dimensionaler Vektorraum mit Untervektorräumen \({U, W \subseteq V}\). Dann gilt die Gleichung \[ \dim (U + W) + \dim (U \cap W) = \dim U + \dim W . \]

Beweis.

Sei \[ \varphi \colon U \cap W \to U \oplus W,\, u \mapsto \begin{pmatrix} u \\ u \end{pmatrix} \] und sei \[ \psi \colon U \oplus W \to U + W,\, \begin{pmatrix} u \\ w \end{pmatrix} \mapsto u - w . \] Dann gilt \({\varphi(U \cap W) = \ker \psi}\). Außerdem ist \({\varphi \colon U \cap W \to U \oplus W}\) injektiv und \({\psi \colon U \oplus W \to U + W}\) surjektiv. Zusammen mit dem Rangsatz folgt \[ \begin{split} \dim U + \dim W &= \dim (U \oplus W) \\ &= \dim \ker \psi + \dim \psi(U \oplus W) \\ &= \dim \varphi(U \cap W) + \dim (U + W) \\ &= \dim (U \cap W) + \dim (U + W) . \end{split} \]

Der Prototyp einer linearen Abbildung ist an sich eine durch die Multiplikation mit einer Matrix \({A \in K^{m \times n}}\) gegebene lineare Abbildung: \[ \varphi_A \colon K^n \to K^m,\, v \mapsto A v . \] Wir schreiben dann auch \({ \ker A \coloneqq \ker \varphi_A \subseteq K^n}\). Dementsprechend wird eine prototypische Linearform \({K^n \to K}\) durch eine \({1 \times n}\)-Matrix, auch Zeilenvektor genannt, beschrieben. Aus dem folgenden Satz der linearen Fortsetzung folgt, dass wir an sich alle linearen Abbildungen endlich-dimensionaler Vektorräume auf diese Art beschreiben können.

Satz  (Satz der linearen Fortsetzung).

Für Vektorräume \({V, W}\), eine Basis \({\{b_1, \dots, b_n\} \subset V}\) für \({n \in \N_0}\) und Vektoren \({w_1, \dots, w_n \in W}\) gibt es genau eine lineare Abbildung \({\varphi \colon V \to W}\) mit \({\varphi(b_i) = w_i}\) für \({i = 1, \dots, n}\).

Korollar.

Sei \({\varphi \colon K^n \to K^m}\) eine lineare Abbilung und sei \({A \coloneqq \begin{pmatrix} \varphi(e_1) & \cdots & \varphi(e_n) \end{pmatrix} \in K^{m \times n} }\) die Matrix deren Spalten die Bilder der Einheitsvektoren unter \({\varphi \colon K^n \to K^m}\) sind, dann gilt \({\varphi = \varphi_A \colon K^n \to K^m,\, v \mapsto A v}\).

Insbesondere können wir jede Linearform \({K^n \to K}\) durch einen Zeilenvektor aus \({K^{1 \times n}}\) beschreiben. Für einen solchen Zeilenvektor \({0 \neq a \in K^{1 \times n}}\) ist die Linearform \({\varphi_a \colon K^n \to K,\, v \mapsto a v}\) surjektiv, das heißt der Kern \({\ker a}\) von \({\varphi_a \colon K^n \to K}\) ist eine lineare Hyperebene nach dem Rangsatz. Damit stellt sich die Frage, wie wir den Kern einer beliebigen Matrix geometrisch beschreiben können. Sei dazu \({A \in K^{m \times n}}\) eine Matrix ohne Nullzeilen. Weiter nehmen wir an, dass \({a_1, \dots, a_m \in K^{1 \times n}}\) die Zeilen von \({A}\) sind, das heißt \({ A = \begin{pmatrix} a_1 \\ \vdots \\ a_m \end{pmatrix} . }\) Dann beschreibt jeder Zeilenvektor \({a_i}\) eine lineare Hyperebene \({\ker a_i \subset K^n}\) für \({i = 1, \dots, n}\). Weiter ist der Kern \({\ker A}\) dann die Schnittmenge dieser linearen Hyperebenen nach dem vorherigen Lemma zur Schnittmenge von Kernen linearer Abbildungen: \[ \ker A = \bigcap_{i = 1}^n \ker a_i . \] Für eine Matrix die möglicherweise Nullzeilen enthält bilden wir dann die Schnittmenge der Hyperebenen, die den Zeilen ungleich \({0 \in K^{1 \times n}}\) entsprechen.

Die folgende Aussage zu Untervektorräumen kann ebenfalls noch nützlich sein und gilt auch noch etwas allgemeiner für Vektorräume, die nicht endlich-dimensional sind.

Lemma  (Retraktionen auf Untervektorräume).

Sei \({U \subseteq V}\) ein Untervektorraum eines endlich-dimensionalen Vektorraums \({V}\). Dann gibt es eine lineare Abbildung \({ \rho \colon V \to U }\) mit \({ \rho |_U = \mathrm{id}_U . }\)

Beweis.

Da \({V}\) endlich-dimensional ist, hat der Quotientenvektorraum \({V / U}\) ein endliches Erzeugendensystem. Da eine Basis von \({V / U}\) ein minimales Erzeugendensystem ist nach vorheriger Proposition hat \({V / U}\) eine Basis \({ \{v_1 + U, \dots, v_k + U\} \subset V / U . }\) Weiter gibt es nach dem Satz der linearen Fortsetzung eine lineare Abbildung \({ \sigma \colon V / U \to V }\) mit \({ \sigma(v_i + U) = v_i }\) für \({ i = 1, \dots, k. }\) Sei nun \[ \mathrm{pr} \colon V \to V / U,\, v \mapsto v + U \] die Projektion auf den Quotientenraum. Dann gilt aufgrund der Eindeutigkeit im Satz der linearen Fortsetzung die Gleichung \({ \sigma \circ \mathrm{pr} = \mathrm{id}_{V / U} . }\) Wir definieren jetzt \[ \rho \coloneqq \mathrm{id}_V - \sigma \circ \mathrm{pr} \colon V \to U,\, v \mapsto v - \sigma(\mathrm{pr}(v)). \] Sei nun \({ u \in U }\) dann gilt \[ \rho(u) = u - \sigma(\mathrm{pr}(u)) = u - \sigma(u + U) = u - \sigma(U) = u - 0 = u \] da \({ U \in V/U }\) der Nullvektor in \({ V/U }\) ist.

Korollar.

Sei \({U \subseteq V}\) ein Untervektorraum eines endlich-dimensionalen Vektorraums \({V}\) und \({W}\) ein weiterer Vektorraum über \({K}\). Dann ist die Einschränkung \[ \mathrm{Hom}(V, W) \to \mathrm{Hom}(U, W),\, \varphi \mapsto \varphi |_U \] surjektiv.

Beweis.

Sei \({ \rho \colon V \to U }\) eine Retraktion im Sinne des vorherigen Lemmas und sei \({ \psi \colon U \to W }\) linear. Dann ist auch \({ \psi \circ \rho \colon V \to W }\) linear.

Bilinearformen

Definition.

Seien \({ U }\), \({ V }\) und \({ W }\) Vektorräume über einem Grundkörper \({ K }\). Eine Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) \] heißt bilinear, wenn \({ \gamma \colon U \times V \to W }\) in jeder Komponente linear ist. Das heißt für alle Vektoren \({u \in U}\) und \({v \in V}\) sind die Abbildungen \[ \begin{split} \gamma(u, -) & \colon V \to W,\, v' \mapsto \gamma(u, v') \quad \text{und} \\ \gamma(-, v) & \colon U \to W,\, u' \mapsto \gamma(u', v) \end{split} \] linear.

Eine bilineare Abbildung \[ \gamma \colon V \times V \to K,\, (u, v) \mapsto \gamma(u, v) \] wird auch eine Bilinearform auf \({V}\) genannt. Weiter ist \({ \gamma \colon V \times V \to K }\) symmetrisch falls für alle \({ u, v \in V }\) die Gleichung \({ \gamma(u, v) = \gamma(v, u) }\) gilt.

Der Prototyp für eine Bilinearform ist die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} = \sum_{i=1}^n u_i v_i , \] die im Fall \({ K = \R }\) auch Standardskalarprodukt genannt wird.

Definition.

Sei \({ \gamma \colon V \times V \to K }\) eine Bilinearform und sei \({ U \subset V }\) ein Untervektorraum. Das orthogonale Komplement von \({ U }\) bezüglich \({ \gamma \colon V \times V \to K }\) ist die Menge \[ U^{\perp} \coloneqq \{v \in V \mid \forall u \in U \colon \gamma(u, v) = 0\} . \] Für einen einzelnen Vektor \({ v \in V }\) schreiben wir auch \({ v^{\perp} \coloneqq \langle v \rangle^{\perp} }\).

Für eine Bilinearform \({ \gamma \colon V \times V \to K }\) und einen einzelnen Vektor \({ v \in V }\) erhalten wir das orthogonale Komplement \({ v^{\perp} \subseteq V }\) auch als Kern der Linearform \({ \gamma(v, -) \colon V \to K,\, w \mapsto \gamma(v, w) }\). Als Nächstes bestimmen wir die Dimension eines orthogonalen Komplements in bestimmten Fällen. Um solche Spezialfälle zu beschreiben betrachten wir nochmals eine allgemeine bilineare Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) . \] Dann nennen wir die induzierte lineare Abbildung \[ \gamma^{\#} \colon U \to \mathrm{Hom}(V, W),\, u \mapsto \gamma(u, -) \] die Curry-Transformierte von \({ \gamma }\) nach Haskell Curry.

Definition.

Eine bilineare Abbildung \[ \gamma \colon U \times V \to W,\, (u, v) \mapsto \gamma(u, v) \] ist regulär falls ihre Curry-Transformierte \({ \gamma^{\#} \colon U \to \mathrm{Hom}(V, W) }\) ein linearer Isomorphismus ist.

Für die Standard-Bilinearform \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \sum_{i=1}^n u_i v_i \] und einen Vektor \({ u = \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix} \in K^n }\) ist das Bild \({ \gamma^{\#}(u) }\) von \({ u }\) unter der Curry-Transformierten die durch den Zeilenvektor \({ u^T = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \in K^{1 \times n} }\) bestimmte Linearform \[ \varphi_{u^T} \colon K^n \to K,\, v = \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \longmapsto u^T v = \begin{pmatrix} u_1 & \cdots & u_n \end{pmatrix} \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} . \] Nach dem Korollar zum Satz der linearen Fortsetzung ist die Standard-Bilinearform damit regulär. Trotzdem ist die Schnittmenge eines Untervektorraums \({ U \subseteq V }\) mit seinem orthogonalen Komplement \({ U^{\perp} }\) bezüglich \({ \gamma }\) im Allgemeinen nicht trivial, wie zum Beispiel im Fall \({ U \coloneqq \left\langle \begin{pmatrix} 1 \\ i \end{pmatrix} \right\rangle \subset \C^2 , }\) denn es gilt dann \[ \gamma\left( \begin{pmatrix} 1 \\ i \end{pmatrix} , \begin{pmatrix} 1 \\ i \end{pmatrix} \right) = 1^2 + i^2 = 1 - 1 = 0 \] und damit \[ \begin{pmatrix} 1 \\ i \end{pmatrix} \in \begin{pmatrix} 1 \\ i \end{pmatrix}^{\perp} = U^{\perp} . \] Trotzdem erhalten wir die folgende Aussage.

Proposition  (Dimension des Orthogonalen Komplements).

Sei \({ V }\) ein endlich-dimensionaler Vektorraum, sei \({ \gamma \colon V \times V \to K }\) eine symmetrische reguläre Bilinearform und sei \({ U \subseteq V }\) ein Untervektorraum. Dann gilt die Gleichung \({ \dim U + \dim U^{\perp} = \dim V . }\)

Beweis.

Sei \[ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U \] die Einschränkung. Dann ist \({ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K) }\) nach vorherigem Korollar surjektiv. Da die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) ein linearer Isomorphismus ist, ist dann auch die Komposition \[ \xi \circ \gamma^{\#} \colon V \to \mathrm{Hom}(U, K),\, v \mapsto \gamma(v, -) |_U \] surjektiv. Weiter gilt \[ \begin{split} U^{\perp} &= \{v \in V \mid \forall u \in U \colon \gamma(u, v) = 0\} \\ &= \{v \in V \mid \forall u \in U \colon \gamma(v, u) = 0\} \\ &= \{v \in V \mid \gamma(v, -) |_U = 0\} \\ &= \ker \xi \circ \gamma^{\#} . \end{split} \] Zusammen mit dem Rangsatz folgt \( \dim U^{\perp} = \dim \ker \xi \circ \gamma^{\#} = \dim V - \dim \mathrm{Hom}(U, K) = \dim V - \dim U . \)

Korollar.

Das orthogonale Komplement \({ v^{\perp} }\) eines Vektors \({ v \in V \setminus \{0\} }\) ungleich \({ 0 }\) bezüglich einer symmetrischen regulären Bilinearform ist eine lineare Hyperebene. In diesem Fall nennen wir \({ v }\) auch eine Normale von \({ v^{\perp} }\).

Als Nächstes verwenden wir diesen Begriff des orthogonalen Komplements, um den Kern einer Matrix näher zu beschreiben. Sei dazu zunächst \({A \in K^{m \times n}}\) eine Matrix ohne Nullzeilen. Weiter sei \[ \gamma \colon K^n \times K^n \to K,\, \left( \begin{pmatrix} u_1 \\ \vdots \\ u_n \end{pmatrix}, \begin{pmatrix} v_1 \\ \vdots \\ v_n \end{pmatrix} \right) \mapsto \sum_{i=1}^n u_i v_i \] die Standard-Bilinearform auf \({ K^n }\) und seien \({ v_1, \dots, v_m \in K^n }\) die Vektoren aus \({ K^n }\) deren Transponierte die Zeilen von \({ A }\) sind: \[ A = \begin{pmatrix} v_1^T \\ \vdots \\ v_m^T \end{pmatrix} . \] Wir nennen dann \({ \langle v_1, \dots, v_m \rangle }\) den Zeilenraum von \({ A }\). Weiter ist der Kern \({ \ker A }\) das orthogonale Komplement des Zeilenraums \({ \langle v_1, \dots, v_m \rangle }\) bezüglich \({ \gamma \colon K^n \times K^n \to K }\). Für ein \({ i = 1, \dots, m }\) haben wir bereits am Ende des vorherigen Abschnitts zu linearen Abbildungen mit Hilfe des Rangsatzes gefolgert, dass der Kern \({ \ker v_i^T = v_i^{\perp} }\) der \({ i }\)-ten Zeile von \({ A }\) eine lineare Hyperebene ist. Mit Hilfe des vorherigen Korollars erhalten wir eine alternative Begründung über die Dimension des orthogonalen Komplements. Also ist der Kern von \({ A }\) die Schnittmenge \[ \ker A = \bigcap_{i = 1}^n \ker v_i^T = \bigcap_{i = 1}^n v_i^{\perp} \] der linearen Hyperebenen, die jeweils das orthogonale Komplement einer transponierten Zeile von \({ A }\) sind. Das heißt die transponierten Zeilen von \({ A }\) bilden die Normalen der linearen Hyperebenen deren Schnitt der Kern von \({ A }\) ist. (Den bestimmten Artikel die setzen wir hier in Anführungsstriche, da jede lineare Hyperebene für \({ K \neq \Z / 2 \Z }\) mehrere Normalen hat.) Für eine Matrix die möglicherweise Nullzeilen enthält können wir uns dann auf die orthogonalen Komplemente der trasponierten Zeilen ungleich \({ 0 }\) beschränken.

Über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) einer Bilinearform \({ \gamma \colon V \times V \to K }\) bekommen wir außerdem eine konkrete Beschreibung orthogonaler Komplemente endlich-erzeugter Untervektorräume bezüglich \({ \gamma }\).

Lemma  (Orthogonales Komplement als Kern).

Sei \({ \gamma \colon V \times V \to K }\) eine Bilinearform und seien \({ v_1, \dots, v_l \in V }\) Vektoren in \({ V }\) für \({ l \in \N_0 }\). Dann ist das orthogonale Komplement \({ \langle v_1, \dots, v_l \rangle^{\perp} \subseteq V }\) der Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Mit anderen Worten, es gilt die Gleichung \({ \langle v_1, \dots, v_l \rangle^{\perp} = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} }\).

Im Fall der Standard-Bilinearform \({ \gamma \colon K^n \times K^n \to K }\) ist die lineare Abbildung \({ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon K^n \to K^l }\) die Multiplikation mit der Matrix \({ \begin{pmatrix} v_1^T \\ \vdots \\ v_l^T \end{pmatrix} \in K^{n \times n} }\).

Übersetzung Zwischen Verschiedenen Darstellungen von Untervektorräumen

Sei \({ V }\) ein endlich-dimensionaler Vektorraum über einem Körper \({ K }\). Falls \({ K }\) unendliche viele Elemente hat, wie zum Beispiel \({ \Q }\), \({ \R }\) oder \({ \C }\), dann enthält jeder nicht-triviale Untervektorraum von \({ V }\) unendlich viele Vektoren. Das heißt wir können solche Untervektorräume nicht beschreiben, indem wir ihre Vektoren aufzählen. Aus dem Abschnitt zu Vektorräumen kennen wir die Möglichkeit Untervektorräume als Erzeugnis \({ \langle M \rangle }\) einer Teilmenge von Vektoren \({ M \subset V }\) zu beschreiben. Und nach dem Abschnitt zu linearen Abbildungen können wir einen Untervektorraum auch über den Kern einer linearen Abbildung definieren. Weiter können wir für jeden Untervektorraum von \({ V }\) nach dem Lemma zur Dimension von Unterverktorräumen eine endliche Basis, also insbesondere ein endliches Erzeugendensystem wählen. Damit stellt sich die Frage, ob wir jeden Untervektorraum von \({ V }\) auch als Kern einer linearen Abbildung in einen endlich-dimensionalen Vektorraum, also letzten Endes eine Matrix, darstellen können.

Lemma  (Untervektorräume als Kerne).

Sei \({ V }\) endlich-dimensional über \({ K }\) und sei \({ U \subseteq V }\) ein Untervektorraum. Weiter sei \({ \{\alpha_1, \dots, \alpha_l\} \subset \mathrm{Hom}(V, K),\, l \in \N_0 }\) eine Basis (oder ein Erzeugendensystem) für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\) und sei \[ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \alpha_1(v) \\ \vdots \\ \alpha_l(v) \end{pmatrix} . \] Dann gilt die Gleichung \({ U = \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} . }\)

Beweis.

Sei \({ u \in U }\) dann gilt insbesondere \({ \alpha_i(u) = 0 }\) für \({ i = 1, \dots, l }\) und damit \({ U \subseteq \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} }\). Also genügt es nach dem Lemma zur Dimension von Untervektorräumen die Ungleichung \({ \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \leq \dim U }\) zu zeigen. Sei dazu \[ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U \] die Einschränkung und \[ \Theta \colon \mathrm{Hom}(\mathrm{Hom}(V, K), K) \to \mathrm{Hom}(\ker \xi, K),\, \Lambda \mapsto \Lambda |_U \] die Einschränkung auf \({ \ker \xi }\). Nach dem Korollar zur Retraktion von Untervektorräumen sind die beiden Einschränkungen \({ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K) }\) und \({ \Theta \colon \mathrm{Hom}(\mathrm{Hom}(V, K), K) \to \mathrm{Hom}(\ker \xi, K) }\) surjektiv. Also gilt nach dem Rangsatz die Gleichung \[ \begin{split} \dim \ker \xi + \dim U &= \dim \ker \xi + \dim \mathrm{Hom}(U, K) \\ &= \dim \mathrm{Hom}(V, K) \\ &= \dim \mathrm{Hom}(\mathrm{Hom}(V, K), K) \\ &= \dim \ker \Theta + \dim \mathrm{Hom}(\ker \xi, K) \\ &= \dim \ker \Theta + \dim \ker \xi . \end{split} \] Wenn wir auf beiden Seiten \({ \dim \ker \xi }\) abziehen, erhalten wir die Gleichung \({ \dim \ker \Theta = \dim U }\). Weiter sei \[ \mathrm{ev} \colon V \to \mathrm{Hom}(\mathrm{Hom}(V, K), K),\, v \longmapsto (\alpha \mapsto \alpha(v)) \] die Evaluation, dann gilt \({ \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \subseteq \ker (\Theta \circ \mathrm{ev}) }\) da \({ \{\alpha_1, \dots, \alpha_l\} }\) ein Erzeugendensystem von \({ \ker \xi }\) ist. Weil \({ \mathrm{ev} \colon V \to \mathrm{Hom}(\mathrm{Hom}(V, K), K) }\) injektiv ist, folgt zusammen mit der Gleichung \({ \dim \ker \Theta = \dim U }\) schließlich die Ungleichung \[ \dim \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \leq \dim \ker (\Theta \circ \mathrm{ev}) \leq \dim \ker \Theta = \dim U . \]

Die Basis \({ \{\alpha_1, \dots, \alpha_l\} \subset \mathrm{Hom}(V, K) }\) für den Kern der Einschränkung aus dem vorherigen Lemma können wir auch geometrisch interpretieren, indem wir uns auf eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) auf \({ V }\) festlegen. Denn über die Curry-Transformierte \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) erhalten wir einen linearen Isomorphismus zwischen \({ V }\) und den Linearformen \({ V \to K }\).

Lemma.

Sei \({ U \subseteq V }\) ein Untervektorraum und sei \({ U^{\perp} \subseteq V }\) das orthogonale Komplement von \({ U }\) bezüglich der symmetrischen regulären Bilinearform \({ \gamma \colon V \times V \to K . }\) Dann ist das Bild \({ \gamma^{\#}(U^{\perp}) }\) von \({ U^{\perp} \subset V }\) unter der Curry-Transformierten \({ \gamma^{\#} \colon V \to \mathrm{Hom}(V, K) }\) der Kern der Einschränkung \({ \xi \colon \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U . }\) Oder mit anderen Worten \({ \gamma^{\#}(U^{\perp}) = \ker \xi . }\)

Beweis.

Sei \({ v \in V }\). Dann ist die Gleichung \({ 0 = \gamma(v, -) |_U = \gamma(-, v) |_U }\) äquivalent zu \({ v \in U^{\perp} }\).

Korollar.

Sei \({ V }\) endlich-dimensional über \({ K }\) und sei \({ U \subseteq V }\) ein Untervektorraum. Weiter sei \({ \{v_1, \dots, v_l\} \subset U^{\perp},\, l \in \N_0 }\) eine Basis (oder ein Erzeugendensystem) für das orthogonale Komplement \({ U^{\perp} \subseteq V }\) von \({ U }\) bezüglich der symmetrischen regulären Bilinearform \({ \gamma \colon V \times V \to K }\) und sei \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Dann gilt die Gleichung \({ U = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} . }\)

Beweis.

Nach dem vorherigen Lemma ist \({ \{ \gamma^{\#}(v_1), \dots, \gamma^{\#}(v_l) \} \subset \mathrm{Hom}(V, K) }\) ein Erzeugendensystem für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\). Die Behauptung folgt dann zusammen mit dem Lemma zu Unterektorräumen als Kerne linearer Abbildungen.

Alternativer Beweis: Nach dem Lemma zum orthogonalen Komplement als Kern gilt \({ U^{\perp \perp} = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} }\) und weiter \({ U = U^{\perp \perp} }\) nach Übung 2 aus Woche 2.

Das heißt um einen Untervektorraum \({ U \subseteq V }\) als Kern einer linearen Abbildung darzustellen, müssen wir nur eine Basis \({ \{v_1, \dots, v_l\} \subset U^{\perp},\, l \in \N_0 }\) des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) bestimmen; die lineare Abbildung deren Kern \({ U \subseteq V }\) ist erhalten wir dann durch \[ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(v_1, v) \\ \vdots \\ \gamma(v_l, v) \end{pmatrix} . \] Und falls uns \({ U \subseteq V }\) durch ein Erzeugendensystem \({ \langle u_1, \dots, u_m \rangle = U,\, m \in \N_0 }\) gegeben ist, dann erhalten wir \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m,\, v \mapsto \begin{pmatrix} \gamma(u_1, v) \\ \vdots \\ \gamma(u_m, v) \end{pmatrix} \] nach dem Lemma zum orthogonalen Komplement als Kern. Das heißt letzten Endes können wir die Übersetzung der Darstellung von \({ U }\) als Erzeugnis \({ \langle u_1, \dots, u_m \rangle = U }\) in eine Darstellung von \({ U }\) als Kern darauf zurückführen, dass wir die Darstellung des orthogonalen Komplements \({ U^{\perp} \subseteq V }\) als Kern der linearen Abbildung \({ \begin{pmatrix} \gamma^{\#}(u_1) \\ \vdots \\ \gamma^{\#}(u_m) \end{pmatrix} \colon V \to K^m }\) in eine Darstellung von \({ U^{\perp} }\) als ein Erzeugnis \[ \langle v_1, \dots, v_l \rangle = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} = U^{\perp} \] übersetzen. Diese Übersetzungen sind insofern praktisch, dass wir mit der jeweils geeigneten Darstellung ohne weitere Berechnungen Summen von Untervektorräumen nach dem Lemma zur Summe von Erzeugnissen und Schnitte von Untervektorräumen nach dem Lemma zum Schnitt von Kernen bestimmen können. Außerdem können wir Bilder und Urbilder von Untervektorräumen unter linearen Abbildungen über die Formeln \[ \varphi(\langle M \rangle) = \langle \varphi(M) \rangle \] und \[ \varphi^{-1}(\ker \psi) = \ker (\psi \circ \varphi) \] aus dem Abschnitt zu linearen Abbildungen ohne weitere Berechnungen bestimmen. Alles was wir für die beiden Übersetzungen benötigen ist ein Algorithmus zur Berechnung des Kerns einer linearen Abbildung zwischen endlich-dimensionalen Vektorräumen: das Gauß-Verfahren.

Außerdem können wir die Darstellung eines Untervektorraums \({ U \subseteq V }\) als Kern der linearen Abbildung \({ \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} \colon V \to K^l }\) für eine Basis \({ \{v_1, \dots, v_l\} \subset U^{\perp} }\) aus dem vorherigen Korollar wie folgt geometrisch interpretieren. Nach dem Lemma zum orthogonalen Komplement als Kern und Übung 4 aus Woche 2 gilt die Gleichung \[ U = \ker \begin{pmatrix} \gamma^{\#}(v_1) \\ \vdots \\ \gamma^{\#}(v_l) \end{pmatrix} = \langle v_1, \dots, v_l \rangle^{\perp} = \bigcap_{i=1}^l v_i^{\perp} . \] Weiter ist nach dem Korollar zum orthogonalen Komplement eines Vektors der Untervektorraum \({ v_i^{\perp} }\) eine lineare Hyperebene für \({ i = 1, \dots, l }\). Das heißt die Vektoren \({ v_1, \dots, v_l }\) bilden die Normalen linearer Hyperebenen deren Schnitt der Untervektorraum \({ U \subseteq V }\) ist. (Den bestimmten Artikel die setzen wir hier in Anführungsstriche, da jede lineare Hyperebene für \({ K \neq \Z / 2 \Z }\) mehrere Normalen hat.)

Die Adjungierte Abbildung

Seien \({ V }\) und \({ W }\) endlich-dimensionale Vektorräume über \({ K }\) zusammen mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\). Weiter sei \({ \varphi \colon V \to W }\) eine lineare Abbildung und \({ U \subseteq W }\) ein Untervektorraum. Wie im vorherigen Abschnitt beschrieben, eignet sich die Darstellung von \({ U }\) als Kern einer linearen Abbildung besonders gut um das Urbild \({ \varphi^{-1}(U) }\) von \({ U }\) unter \({ \varphi \colon V \to W }\) zu bestimmen. Dazu sei \({ \{w_1, \dots, w_l\} }\) ein Erzeugendensystem des orthogonalen Komplements \({ U^{\perp} \subseteq W }\) bezüglich \({ \mu \colon W \times W \to K }\). Nach dem vorherigen Korollar gilt dann \({ U = \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} }\) und zusammen mit dem Lemma zum Schnitt von Kernen folgt die Gleichung \[ \begin{split} \varphi^{-1}(U) &= \varphi^{-1} \left( \ker \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \right) \\ &= \ker \left( \begin{pmatrix} \gamma^{\#}(w_1) \\ \vdots \\ \gamma^{\#}(w_l) \end{pmatrix} \circ \varphi \right) \\ &= \ker \begin{pmatrix} \gamma^{\#}(w_1) \circ \varphi \\ \vdots \\ \gamma^{\#}(w_l) \circ \varphi \end{pmatrix} \\ &= \bigcap_{i=1}^l \ker (\gamma^{\#}(w_i) \circ \varphi) . \end{split} \] Weiter ist für \({ i = 1, \dots, l }\) der Kern \({ \ker (\gamma^{\#}(w_i) \circ \varphi) \subseteq V }\) der Linearform \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) nach dem Rangsatz eine lineare Hyperbene oder ganz \({ V }\) je nachdem ob \({ \gamma^{\#}(w_i) \circ \varphi \colon V \to K }\) surjektiv oder die Nullabbildung ist. In dem Fall, dass \({ \gamma^{\#}(w_i) \circ \varphi }\) surjektiv ist könnten wir versuchen eine Normale für die lineare Hyperebene \({ \ker (\gamma^{\#}(w_i) \circ \varphi) }\) bezüglich der Bilinearform \({ \gamma \colon V \times V \to K }\) anzugeben, möglichst in Abhängigkeit von \({ w_i }\) und \({ \varphi \colon V \to W }\). Diese Aufgabe erfüllt die sogennante adjungierte Abbildung von \({ \varphi \colon V \to W }\). Sei dazu \({ w \in W }\) dann erhalten wir mit \[ \mu(w, \varphi(-)) \colon V \to K,\, v \mapsto \mu(w, \varphi(v)) \] eine Linearform auf \({ V }\). Da \({ \gamma \colon V \times V \to K }\) regulär ist, gibt es dann genau einen Vektor \({ \varphi^T(w) \in V }\) mit \[ \gamma^{\#}(\varphi^T(w)) = \gamma(\varphi^T(w), -) = \mu(w, \varphi(-)) . \] Da \({ w \in W }\) beliebig war, bekommen wir so eine Abbildung \[ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) . \]

Definition.

Die soeben definierte Abbildung \({ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) }\) ist die adjungierte Abbildung von \({ \varphi \colon V \to W }\) bezüglich der regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\).

Lemma.

Die adjungierte Abbildung \({ \varphi^T \colon W \to V,\, w \mapsto \varphi^T(w) }\) ist linear.

Beweis.

Seien \({ w, w' \in W }\) und \({ \lambda \in K }\) dann gelten für alle \({ v \in V }\) die Gleichungen \[ \begin{split} \gamma(\varphi^T(w) + \varphi^T(w'), v) &= \gamma(\varphi^T(w), v) + \gamma(\varphi^T(w'), v) \\ &= \mu(w, \varphi(v)) + \mu(w', \varphi(v)) \\ &= \mu(w + w', \varphi(v)) \end{split} \] und \[ \begin{split} \gamma(\lambda \varphi^T(w), v) &= \lambda \gamma(\varphi^T(w), v) \\ &= \mu(w, \varphi(v)) \\ &= \mu(\lambda w, \varphi(v)) . \end{split} \] Damit gilt \({ \varphi^T(w + w') = \varphi^T(w) + \varphi^T(w') }\) und \({ \varphi^T(\lambda w) = \lambda \varphi^T(w) }\).

Lemma.

Für die Adjungierte \({ \varphi^{TT} \colon V \to W,\, v \mapsto \varphi^{TT}(v) }\) der adjungierten Abbildung \({ \varphi^{T} \colon W \to V }\) gilt \({ \varphi^{TT} = \varphi }\).

Beweis.

Sei \({ v \in V }\) und \({ w \in W }\) dann gilt \( \mu(\varphi(v), w) = \mu(w, \varphi(v)) = \gamma\big(\varphi^T(w), v\big) = \gamma(v, \varphi^T(w)) \). Da \({ w \in W }\) beliebig war gilt damit \({ \mu(\varphi(v), -) = \gamma\big(v, \varphi^T(-)\big) \colon W \to K }\).

Lemma.

Seien \({ V }\) und \({ W }\) endlich-dimensionale Vektorräume über \({ K }\) zusammen mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\), sei \({ \varphi \colon V \to W }\) eine lineare Abbildung und sei \({ U \subseteq W }\) ein Untervektorraum. Dann gilt die Gleichung \({ \varphi^{-1}\big(U^{\perp}\big) = \varphi^T(U)^{\perp} }\).

Korollar.

Sei weiter \({ \{w_1, \dots, w_l\},\, l \in \N_0 }\) ein Erzeugendensystem des orthogonalen Komplements \({ U^{\perp} \subseteq W }\) von \({ U }\) bezüglich \({ \mu \colon W \times W \to K }\). Dann gilt die Gleichung \[ \varphi^{-1}(U) = \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} . \]

Beweis.

Nach Übung 2 aus Woche 2, dem vorherigen Lemma und Übung 4 aus Woche 2 gilt \[ \begin{split} \varphi^{-1}(U) &= \varphi^{-1}\big(U^{\perp \perp}\big) \\ &= \varphi^T(U^{\perp})^{\perp} \\ &= \varphi^T(\langle w_1, \dots, w_l \rangle)^{\perp} \\ &= \langle \varphi^T(w_1), \dots, \varphi^T(w_l) \rangle^{\perp} \\ &= \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} . \end{split} \]

Mit diesem Korollar können wir schließlich das Urbild \({ \varphi^{-1}(U) }\) als einen Schnitt von Hyperebenen darstellen deren Normalen wir über die adjungierte Abbildung erhalten: Je nachdem ob \({ \varphi^T(v_i) }\) der Nullvektor ist oder nicht, ist \({ \varphi^T(v_i)^{\perp} }\) der ganze Vektorraum \({ V }\) oder eine lineare Hyperebene von \({ V }\). Damit erhalten wir das Urbild \({ \varphi^{-1}(U) }\) als den Schnitt \[ \varphi^{-1}(U) = \bigcap_{\substack{i=1 \\ \varphi^T(v_i) \neq 0}}^l \varphi^T(w_i)^{\perp} \] linearer Hypereben. Neben dieser konkreten Beschreibung von Urbildern linearer Unterräume erhalten wir noch die Gleichungen des folgenden Korollars zum vorherigen Lemma.

Korollar.

Sei \({ \varphi \colon V \to W }\) eine lineare Abbildung endlich-dimensionaler \({ K }\)-Vektorräume mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\). Dann gelten die Gleichungen
  1. \({ \ker \varphi = \varphi^T(W)^{\perp} }\),
  2. \({ \ker \varphi^T = \varphi(V)^{\perp} }\)
  3. und \({ \big(\ker \varphi^T\big)^{\perp} = \varphi(V) }\).

Beweis.

  1. Für \({ U \coloneqq W }\) erhalten wir aufgrund der Regularität von \({ \mu \colon W \times W \to K }\) die Gleichung \({ U^{\perp} = W^{\perp} = \{0\} }\) und in Kombination mit dem vorherigen Lemma die Gleichung \( \varphi^T(W)^{\perp} = \varphi^T(U)^{\perp} = \varphi^{-1}\big(U^{\perp}\big) = \varphi^{-1}\big(\{0\}\big) = \ker \varphi \).
  2. Nach der ersten Gleichung und dem Lemma zu Adjungierten adjungierter Abbildungen gilt die Gleichung \({ \ker \varphi^T = \varphi^{TT}(V)^{\perp} = \varphi(V)^{\perp} }\).
  3. Nach der zweiten Gleichung und Übung 2 aus Woche 2 gilt \({ \big(\ker \varphi^T\big)^{\perp} = \varphi(V)^{\perp \perp} = \varphi(V) }\).

Lemma.

Sei \({ A \in K^{n \times m} }\) eine Matrix und \({ \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\) die zugehörige lineare Abbildung. Dann ist die Multiplikation mit der transponierten Matrix \({ \varphi_{A^T} \colon K^m \to K^n,\, v \mapsto A^T v }\) die zu \({ \varphi }\) adjungierte Abbdildung \({ \varphi^T \colon K^m \to K^n }\) bezüglich der Standard-Bilinearformen \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu \colon K^m \times K^m \to K }\) auf \({ K^n }\) bzw. \({ K^m }\).

Beweis.

Sei \({ w \in K^m }\) dann ist \[ \mu(w, \varphi_A(-)) \colon K^n \to K,\, v \mapsto \gamma(w, \varphi_A(v)) \] die zugehörige Linearform \({ K^n \to K }\). Sei nun \({ v \in K^n }\) dann gilt \[ \mu(w, \varphi_A(v)) = w^T (A v) = (w^T A) v = (A^T w)^T v = \gamma(\varphi_{A^T}(w), v) . \] Da \({ v \in K^n }\) beliebig war ist damit \({ \varphi_{A^T}(w) \in K^n }\) das Bild von \({ w }\) unter der adjungierten Abbildung \({ \varphi^T \colon K^m \to K^n }\).

Geometrische Betrachtung des Gauß-Verfahren

In den beiden vorherigen Abschnitten haben wir uns mit dem Problem auseinandergesetzt für eine lineare Abbildung \({ \varphi \colon V \to W }\) und einen Untervektorraum \({ U \subseteq W }\) das Urbild \({ \varphi^{-1}(U) \subseteq V }\) zu bestimmen. In diesem Abschnitt beschäftigen wir uns mit dem Spezialfall, dass \({ U }\) der Nullvektorraum \({ \{0\} \subseteq W }\) ist und \({ V }\) und \({ W }\) endlich-dimensional sind. In diesem Spezialfall ist das Urbild \({ \varphi^{-1}(U) }\) der Kern \({ \ker \varphi = \varphi^{-1}(0) }\). Wie wir im Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen gesehen haben können viele andere Probleme auf diese eine Frage reduziert werden. Eine konkretere Beschreibung des Kerns \({ \ker \varphi }\) erhalten wir indem wir eine Basis (oder ein Erzeugendensystem) \({ \{\alpha_1, \dots, \alpha_m\} }\) des Dualraums \({ \mathrm{Hom}(W, K) }\) von \({ W }\) wählen. Nach dem Lemma zu Untervektorräumen als Kerne und dem Lemma zum Schnitt von Kernen erhalten wir dann \[ \{0\} = \ker \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} = \bigcap_{i=1}^m \ker \alpha_i \] und damit den Kern \[ \ker \varphi = \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) = \bigcap_{i=1}^m \ker (\alpha_i \circ \varphi) = \bigcap_{\stackrel{i=1}{\alpha_i \circ \varphi \neq 0}}^m \ker (\alpha_i \circ \varphi) \] als Schnitt linearer Hyperebenen in \({ V }\). Diesen Schnitt linearer Hyperebenen können wir mit Hilfe von symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\) geometrischer beschreiben. Für \({ i = 1, \dots, m }\) können wir dann die Linearform \({ \alpha_i \colon W \to K }\) durch einen Vektor \({ w_i \in W }\) darstellen: \({ \mu(w_i, -) = \alpha_i \colon W \to K }\). Damit erhalten wir \({ \ker \alpha_i = w_i^{\perp} }\) und zusammen mit dem Lemma zum Urbild und der adjungierten Abbildung die Gleichung \[ \begin{split} \ker \varphi &= \bigcap_{i=1}^m \varphi^{-1}(\ker \alpha_i) \\ &= \bigcap_{i=1}^m \varphi^{-1}(w_i^{\perp}) \\ &= \bigcap_{i=1}^m \varphi^T(w_i)^{\perp} \\ &= \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} , \end{split} \] wobei \({ \varphi^T \colon W \to V }\) die zu \({ \varphi \colon V \to W }\) adjungierte Abbildung bezüglich der Bilinearformen \({ \gamma }\) und \({ \mu }\) ist. Das heißt um den Kern von \({ \varphi \colon V \to W }\) zu bestimmen, können wir eine Basis (oder ein Erzeugendensystem) \({ \{w_1, \dots, w_m\} \subset W }\) wählen und dann die Urbilder \({ \varphi^{-1}\big(w_i^{\perp}\big) \subseteq V }\) der linearen Hyperebenen \({ w_1^{\perp}, \dots, w_m^{\perp} }\) unter \({ \varphi }\) in \({ V }\) schneiden; oder wir können die Normalen \({ w_1, \dots, w_m }\) selbst entlang der Adjungierten \({ \varphi^T \colon W \to V }\) nach \({ V }\) abbilden, erhalten die zugehörigen linearen Hyperebenen dann als deren orthogonale Komplemente \({ \varphi^T(w_i)^{\perp} \subset V,\, i = 1, \dots, m, \varphi^T(w_i) \neq 0 }\) und den Kern \({ \ker \varphi }\) schließlich als den Schnitt dieser linearen Hyperebenen: \[ \ker \varphi = \bigcap_{\stackrel{i=1}{\varphi^T(w_i) \neq 0}}^m \varphi^T(w_i)^{\perp} . \] Im Fall \({ V = K^n }\), \({ W = K^m }\), \({ \varphi = \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\) für \({ A \in K^{m \times n} }\) und \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu }\) die Standard-Bilinearformen sind, liefert das Gauß-Verfahren eine Methode von der Standardbasis des \({ K^m }\) ausgehend die Normalen \({ w_1, \dots, w_m \in K^m }\) sukzessive so zu wählen, dass wir anhand der Darstellung des Kerns als Schnitt geeigneter linearer Hyperebenen relativ direkt eine Basis für den Kern \[ \ker A = \bigcap_{\stackrel{i=1}{A^T w_i \neq 0}}^m (A^T w_i)^{\perp} \] ablesen können.

Nun betrachten wir die einzelnen Schritte des Gauß-Verfahrens an dem Beispiel: \[ A \coloneqq \begin{pmatrix} 3 & 9 & -4 \\ -6 & 6 & 4 \end{pmatrix} \in \R^{2 \times 3} . \] Zunächst wählen wir für \({ w_1, w_2 \in \R^2 }\) die Standardbasis \({ w_i \coloneqq e_i,\, i = 1,2 }\). Die lineare Hyperebene mit \({ w_1 = e_1 \in \R^2 }\) als Normale ist die \({ y }\)-Achse und das orthogonale Komplement von \({ w_2 = e_2 }\) die \({ x }\)-Achse. Deren Urbilder unter \({ \varphi_A \colon \R^3 \to \R^2 }\) sind jeweils die linearen Hyperebenen mit den Normalen \({ A^T w_1 = \begin{pmatrix} 3 \\ 9 \\ -4 \end{pmatrix} \in \R^3 }\) und \({ A^T w_2 = \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\), also die Zeilen von \({ A }\) transponiert; dazu hier eine Visualisierung. Der Kern von \({ A }\) ist dann der Schnitt linearer Hyperebenen \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w_2\big)^{\perp} }\). Der erste Schritt im Gauß-Verfahren sieht nun vor, dass wir die zweite Zeile von \({ A }\) und damit die zweite Normale \({ \begin{pmatrix} -6 \\ 6 \\ 4 \end{pmatrix} }\) durch eine Linearkombination \[ \lambda A^T w_1 + A^T w_2 = A^T (\lambda w_1 + w_2) = A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} \] dieser beiden Normalen ersetzen, deren erste Komponente verschwindet. In der Visualisierung können wir rechts unten den Vektor \({ w_2 = \begin{pmatrix} 0 \\ 1 \end{pmatrix} \in \R^2 }\) beliebig ändern und erhalten auf die Art alle möglichen Linearkombinationen \({ A^T w }\) der beiden Normalen und die zugehörige lineare Hyperebene \({ (A^T w)^{\perp} = \varphi^{-1}\big(w^{\perp}\big) \subset \R^3 }\). In einer zweiten Visualisierung beschränken wir uns auf die Vektoren \({ w = \begin{pmatrix} \lambda \\ 1 \end{pmatrix},\, \lambda \in \R }\). Dabei ist der zugehörige Schnitt \({ \big(A^T w_1\big)^{\perp} \cap \big(A^T w\big)^{\perp} }\) linearer Hyperebenen unabhängig von \({ \lambda \in \R }\) und damit identisch zum Kern von \({ A }\). Nun verschwindet die erste Komponente der Normalen \({ A^T \begin{pmatrix} \lambda \\ 1 \end{pmatrix} }\) genau dann, wenn \({ \lambda = 2 }\) gilt, wir setzen also \({ w'_2 = \begin{pmatrix} 2 \\ 1 \end{pmatrix} }\) und erhalten dann die Normale \({ A^T w'_2 = \begin{pmatrix} 0 \\ 24 \\ -4 \end{pmatrix} \in \R^3 }\). Da die erste Komponente dieser Normalen verschwindet ist der erste Einheitsvektor \({ e_1 \in \R^3 }\) im orthogonalen Komplement \({ (A^T w'_2)^{\perp} }\) enthalten: \({ (A^T w'_2)^T e_1 = 0 }\). Wie auch in der zweiten Visualisierung nach entsprechender Änderung des Vektors \({ w }\) rechts unten zu erkennen ist, ist damit auch die gesamte \({ x }\)-Achse in \({ (A^T w'_2)^{\perp} }\) enthalten. Die zugehörige Matrix \({ A' \coloneqq \begin{pmatrix} w_1^T A \\[0.4ex] {w'}_2^T A \end{pmatrix} = \begin{pmatrix} 3 & 9 & -4 \\ 0 & 24 & -4 \end{pmatrix} }\) ist bereits in Zeilenstufenform. Die Stufen befinden sich in den Spalten \({ 1 }\) und \({ 2 }\). Damit haben wir eine freie Variable und zwar die \({ z }\)-Koordinate. Um eine Basis bzw. einen Erzeuger \({ v \in \ker A' = \ker A }\) für den Kern von \({ A' }\) zu bestimmen, wählen wir den Ansatz  \({ v = \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} }\). Damit \({ A' v = 0 }\) gilt, muss insbesonder die zweite Komponente von \({ A' v }\) verschwinden und damit \[ 0 = {w'}_2^T A v = \begin{pmatrix} 0 & 24 & -4 \end{pmatrix} \begin{pmatrix} x \\ y \\ 1 \end{pmatrix} = 24y - 4 \] gelten. Wir erhalten also \({ y = \frac{1}{6} }\). Weiter muss für \({ A' v = 0 }\) auch die erste Komponente von \({ A' v }\) verschwinden und damit \[ 0 = w_1^T A v = \begin{pmatrix} 3 & 9 & -4 \end{pmatrix} \begin{pmatrix} x \\ \frac{1}{6} \\ 1 \end{pmatrix} = 3x + \frac{9}{6} - 4 \] gelten. Wir erhalten also \({ x = \frac{5}{6} }\) und damit \({ \ker A = \left\langle \frac{1}{6} \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle = \left\langle \begin{pmatrix} 5 \\ 1 \\ 6 \end{pmatrix} \right\rangle . }\)

Wenn wir also die Zeilen einer Matrix \({ A \in K^{m \times n} }\) als Normalen linearer Hyperebenen auffassen, deren Schnitt der Kern von \({ A }\) ist, dann ersetzen wir diese Normalen im Gauß-Verfahren sukzessive durch andere Normalen, deren zugehörige lineare Hyperebenen den gleichen Schnitt bilden, und an bestimmten Einträgen verschwinden.

Wozu abstrakte Vektorräume?

Im Abschnitt zu den Begriffen Basis und Dimenison haben wir gesehen dass wir für endlich-dimensionale Vektorräume sowie für deren Untervektorräume immer eine Basis und damit einen linearen Isomorphismus zu einem Vektorraum der Form \({ K^n }\) für ein \({ n \in \N_0 }\) wählen können. Weiter können wir jede lineare Abbildung \({ K^n \to K^m }\) für \({ m, n \in \N_0 }\) als Multiplikation mit einer Matrix aus \({ K^{m \times n} }\) darstellen. Daher drängt sich die Frage auf, wozu wir dann noch abstrakte Vektorräume brauchen, wenn wir im Prinzip ja sowieso alle Vektoren als Spaltenvektoren und jede lineare Abbildung als eine Matrix verstehen können. Mit Hilfe von dem Begriff des orthogonalen Komplements aus diesem Abschnitt können wir schließlich an einem konkreten Beispiel demonstrieren, dass der Begriff des abstrakten Vektorraums dennoch hilfreich ist.

Im Fall eines einzelnen Vektors \({ v \in \R^2 \setminus \{0\} }\) ist das orthogonale Komplement \({ v^{\perp} \subset \R^2 }\) eine Ursprungsgerade in \({ \R^2 }\) mit \({ v }\) als Normale; insbesondere also ein Untervektorraum der Dimension \({ 1 }\). Also wird jeder lineare Isomorphismus \({ \R \cong v^{\perp} }\) von einem einzelnen Basisvektor \({ u \in v^{\perp} \setminus \{0\} }\) bestimmt und umgekehrt. Die folgende Grafik zeigt eine Ursprungsgerade mit zugehöriger Normale \({ v }\) sowie einen passenden Basisvektor \({ u }\) für \({ v^{\perp} }\) :

Ganz egal wie wir jetzt die Normale \({ v }\) oder den Basisvektor \({ u }\) stetig bewegen, sobald die Normale \({ v }\) ein negatives Vielfaches der ursprünglichen Wahl für \({ v }\) ist, erhalten wir auch für \({ u }\) ein negatives Vielfaches des ursprünglichen Basisvektors. Also gibt es keine Möglichkeit für jede Ursprungsgerade in \({ \R^2 }\) stetig einen Basisvektor bzw. einen linearen Isomorphismus zu \({ \R }\) zu wählen. Aus diesem Grund ist es hilfreich, dass wir mit dem Begriff des Vektorraums solche Ursprungsgeraden und andere (Unter)vektorräume untersuchen können, ohne uns dabei auf eine bestimmte Basis festzulegen.

Vor diesem Hintergrund können wir uns auch noch einmal die Basis bzw. den Erzeuger ansehen, den wir in diesem Fall durch Rückwertssubstitution im Gauß-Verfahren erhalten und wo bei diesem Verfahren eine Diskontinuität auftritt. Dazu schreiben wir \({ v = \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} }\) für die Normale \({ v \in \R^2 \setminus \{0\} }\). Bezüglich der Standard-Bilinearform \({ \gamma \colon \R^2 \times \R^2 \to \R }\) erhalten wir dann die zugehörige Linearform \[ \gamma(v, -) = \varphi_{v^T} \colon \R^2 \to \R,\, w \mapsto v^T w = \begin{pmatrix} v_1 & v_2 \end{pmatrix} w \] deren Kern die lineare Hyperebene \({ v^{\perp} \subset \R^2 }\) zur Normalen \({ v }\) ist. Die zugehörige Matrix \({ v^T = \begin{pmatrix} v_1 & v_2 \end{pmatrix} \in \R^{1 \times 2} }\) ist trivialerweise bereits in Zeilenstufenform und um einen Erzeuger für den Kern \({ \ker v^T }\) zu bestimmen unterscheiden wir die beiden Fälle \({ v_1 \neq 0 }\) und \({ v_1 = 0 }\). Im Fall \({ v_1 \neq 0 }\) wählen wir bei der Rückwertssubstitution die \({ y }\)-Koordinate als freie Variable. Das heißt wir wählen den Ansatz und \({ u = \begin{pmatrix} u_1 \\ 1 \end{pmatrix} }\). Wie auch die folgende Grafik zeigt, liegt der Erzeuger \({ u }\) damit auf der affinen Geraden \({ \R \times \{1\} \subset \R^2 }\):

Mit anderen Worten, falls \({ v_1 \neq 0 }\) gilt, haben die lineare Hyperebene \({ v^{\perp} }\) und die affine Gerade \({ \R \times \{1\} }\) genau einen Schnittpunkt \({ u \in \R^2 \setminus \{0\} }\) welchen wir bei Rückwertssubstitution im Gauß-Verfahren als Erzeuger wählen: \({ \langle u \rangle = \ker v^T = v^{\perp} }\). Nähert sich die Normale \({ v }\) allerdings von außerhalb der \({ y }\)-Achse, dann wandert dieser Schnittpunkt \({ u \in v^{\perp} \cap (\R \times \{1\}) }\) auf dieser affinen Geraden \({ \R \times \{1\} }\) ins Unendliche. In dem Grenzfall, dass \({ v_1 = 0,\, v_2 \neq 0 }\) gilt und \({ v }\) damit auf der \({ y }\)-Achse liegt, wählen wir bei der Rückwertssubstitution den Ansatz \({ u = \begin{pmatrix} 1 \\ u_2 \end{pmatrix} }\) und erhalten schließlich den ersten Einheitsvektor \({ u = \begin{pmatrix} 1 \\ 0 \end{pmatrix} }\) als Erzeuger von \({ v^{\perp} }\). Und ganz offensichtlich ist diese Wahl keine stetige Fortsetzung unserer Wahl für den Fall \({ v_1 \neq 0 }\); schließlich kann es gar keine stetige Fortsetzung dieser Wahl geben. Der Untervektorraum \({ v^{\perp} \subset \R^2 }\) hängt dafür in gewisser Hinsicht stetig von \({ v \in \R^2 \setminus \{0\} }\) ab und insofern ist es hilfreich, dass wir keine Basis wählen müssen, um die Vektorraum-Struktur auf \({ v^{\perp} }\) zu beschreiben.

Affine Geometrie

Affine Unterräume

Bisher haben wir die Untervektorräume verwendet, um den Kern einer linearen Abbildung zu beschreiben und umgekehrt, können wir auch jeden Untervektorraum als Kern einer linearen Abbildung erhalten. Dabei ist es eine naheliegende Frage, inwieweit sich die bisherigen Betrachtungen auf beliebige Fasern linearer Abbildungen übertragen lassen. Ein besonders wichtiger Spezialfall sind dabei die Lösungsmengen (möglicherweise) inhomogener LGS \({ A x = b }\) für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\). Ganz allgemein verwenden wir für die Fasern linearer Abbildungen den folgenden Begriff.

Definition (Affiner Unterraum).

Sei \({ V }\) ein endlich-dimensionaler \({ K }\)-Vektorraum und \({ A \subseteq V }\) eine Teilmenge. Wir nennen \({ A }\) einen affinen Unterraum von \({ V }\) falls es eine lineare Abbildung \({ \varphi \colon V \to W }\) und einen Vektor \({ w \in W }\) gibt, mit \({ \varphi^{-1}(w) = U }\). Mit anderen Worten, die affinen Unterräume von \({ V }\) sind genau die Fasern linearer Abbildungen.

Die folgende Aussage folgt relativ direkt aus dieser Definition affiner Unterräume.

Lemma  (Schnitt Affiner Unterräume).

Seien \({ A, B \subseteq V }\) affine Unterräume eines endlich-dimensionalen Vektorraums \({ V }\). Dann ist auch die Schnittmenge \({ A \cap B }\) ein affiner Unterraum von \({ V }\).

Beweis.

Wir wählen lineare Abbildungen \({ \varphi \colon V \to W }\), \({ \psi \colon V \to W' }\) sowie Punkte \({ q \in W }\) und \({ q' \in W' }\) mit der Eigenschaft \({ A = \varphi^{-1}(q) }\) und \({ B = \psi^{-1}(q') }\). Weiter sei \[ \begin{pmatrix} \varphi \\ \psi \end{pmatrix} \colon V \to W \times W',\, v \mapsto \begin{pmatrix} \varphi(v) \\ \psi(v) \end{pmatrix} \] die zugehörige Abbildung in das Produkt \({ W \times W' }\). Dann gilt die Gleichung \[ A \cap B = \begin{pmatrix} \varphi \\ \psi \end{pmatrix}^{-1} \left( \begin{pmatrix} q \\ q' \end{pmatrix} \right) . \]

Anders als bei Untervektorräumen kann eine Faser einer linearen Abbildung und insbesondere die Lösungsmenge eines inhomogenen LGS durchaus die leere Menge sein. In allen anderen Fällen bekommen wir eine nützliche Beschreibung über den Kern einer linearen Abbildung.

Lemma.

Sei \({ \varphi \colon V \to W }\) eine lineare Abbildung, \({ p \in V }\), \({ q \coloneqq \varphi(v) }\) und \({ U \coloneqq \ker \varphi }\). Dann gilt die Gleichung \({ p + U = \varphi^{-1}(q) }\).

Beweis.

\({ p + U \subseteq \varphi^{-1}(q) }\):
Für \({ u \in U = \ker \varphi }\) gilt \({ \varphi(p + u) = \varphi(p) + \varphi(u) = q + 0 = q }\).
\({ \varphi^{-1}(q) \subseteq p + U }\):
Für \({ p' \in \varphi^{-1}(q) }\) gilt \({ \varphi(p' - p) = \varphi(p') - \varphi(p) = q - q = 0 }\) und damit \({ u \coloneqq p' - p \in \ker \varphi = U }\), also \({ p' = p + p' - p = p + u \in p + U }\).

Aufgrund von diesem Lemma und der Äquivalenz \[ p + U = p + U' ~~ \Longleftrightarrow ~~ U = U' \] für alle \({ p \in V }\) und \({ U, U' \subseteq V }\) sind die folgenden Begriffe wohldefiniert.

Definition (Tangentialraum und Dimension Affiner Unterräume).

Sei \({ V }\) endlich-dimensional über \({ K }\) und \({ A \subseteq V }\) ein nicht-leerer affiner Unterraum und eine Faser der linearen Abbildung \({ \varphi \colon V \to W }\). Dann ist der Kern von \({ \varphi \colon V \to W }\) der Tangentialraum \({ T A \coloneqq \ker \varphi \subseteq V }\) und \({ \dim A \coloneqq \dim T A \in \N_0 }\) die Dimension des affinen Unterraums \({ A }\). Die Vektoren des Tangentialraums \({ T A \coloneqq \subseteq V }\) werden auch Tangentialvektoren genannt. Affine Unterräume der Dimensionen \({ 1 }\), \({ 2 }\) und \({ \dim V - 1 }\) werden auch Geraden, affine Ebenen beziehungsweise affine Hyperebenen genannt.

Für eine Linearform \({ \alpha \colon V \to K }\) erhalten wir genau zwei Möglichkeiten für die Fasern von \({ \alpha }\). Entweder \({ \alpha }\) ist surjektiv, dann bilden die Fasern von \({ \alpha }\) eine Partition von \({ V }\) in affine Hyperebenen, oder \({ \alpha }\) ist die konstante Nullabbildung, dann ist die Faser von \({ 0 }\) der ganze Vektorraum \({ V }\) und die übrigen Fasern sind die leere Menge. Weiter können wir nach dem vorherigen Lemma jeden nicht-leeren affinen Unterraum als Nebenklasse eines Untervektorraums darstellen. Damit stellt sich die Frage, ob alle Nebenklassen von Untervektorräumen affine Unterräume sind; schießlich ist das eine gängige Definition affiner Unterräume.

Lemma.

Sei \({ U \subseteq V }\) ein Untervektorraum, \({ p \in V }\), und \({ \varphi \colon V \to W }\) eine lineare Abbildung mit \({ U \subseteq \ker \varphi }\). Dann gilt für alle \({ p' \in p + U }\) die Gleichung \({ \varphi(p') = \varphi(p) }\); oder mit anderen Worten, die lineare Abbildung \({ \varphi \colon V \to W }\) is konstant auf der Nebenklasse \({ p + U }\).

Beweis.

Sei \({ p' \in p + U }\) dann gibt es ein \({ u \in U }\) mit \({ p' = p + u }\). Damit gilt die Gleichung \( \varphi(p') = \varphi(p + u) = \varphi(p) + \varphi(u) = \varphi(p) + 0 = \varphi(p) \).

Sei nun \({ V }\) ein endlich-dimensionaler \({ K }\)-Vektorraum \({ U \subseteq V }\) ein Untervektorraum und \({ p \in V }\). In dem Abschnitt zur Übersetzung zwischen verschiedenen Darstellungen von Untervektorräumen haben wir \({ U }\) als Kern einer linearen Abbildung dargestellt indem wir eine Basis \({ \{\alpha_1, \dots, \alpha_l\},\, l \in \N_0 }\) für den Kern der Einschränkung \({ \mathrm{Hom}(V, K) \to \mathrm{Hom}(U, K),\, \alpha \mapsto \alpha |_U }\) gewählt haben; siehe auch das zugehörige Lemma. Aufgrund des vorherigen Lemmas ist die Linearform \({ \alpha_i \colon V \to K }\) konstant gleich \({ \alpha_i(p) }\) auf \({ p + U }\) für \({ i = 1, \dots, l }\). Das heißt \({ p + U }\) ist in der affinen Hyperebene \({ p + \ker \alpha_i }\) enthalten für \({ i = 1, \dots, l }\). Ganz analog dazu wie wir \({ U \subseteq V }\) als den Kern der linearen Abbildung \[ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \alpha_1(v) \\ \vdots \\ \alpha_l(v) \end{pmatrix} \] wie auch als Schnitt linearer Hyperebenen \[ U = \bigcap_{i=1}^l \ker \alpha_i \] darstellen können, folgt aus dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse dass wir nun auch die Nebenklasse \({ p + U }\) als Faser von \({ \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_l \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \alpha_1(p) \\ \vdots \\ \alpha_l(p) \end{pmatrix} \in K^l }\) und damit auch als Schnitt affiner Hyperebenen \[ p + U = p + \bigcap_{i=1}^l \ker \alpha_i = \bigcap_{i=1}^l (p + \ker \alpha_i) % \alpha_i^{-1}(\alpha_i(p)) \] darstellen können. Zusammenfassend erhalten wir die folgende Charakterisierung affiner Unterräume.

Proposition.

Die affinen Unterräume eines endlich-dimensionalen Vektorraums \({ V }\) sind genau die Nebenklassen \({ p + U }\) aller Untervektorräume \({ U \subseteq V }\) (bezüglich \({ p \in V }\)) sowie die leere Menge \({ \emptyset \subset V }\).

Gegeben eine symmetrische reguläre Bilinearform \({ \gamma \colon V \times V \to K }\) können wir die nicht-leeren affinen Unterräume von \({ V }\) noch etwas geometrischer beschreiben. Sei dazu \({ A \subseteq V }\) ein affiner Unterraum mit einem Punkt \({ p \in A }\) und Tangentialraum \({ U \subseteq V }\); oder mit anderen Worten \({ A = p + U }\) als Nebenklasse des Untervektorraums \({ U }\). Weiter sei \({ N \coloneqq U^{\perp} }\) das orthogonale Komplement von \({ U }\) in \({ V }\) bezüglich \({ \gamma }\) der sogenannte Normalenraum von \({ A }\). Dann ist für jede Normale  \({ n \in N }\) die zugehörige Linearform \({ \gamma(n, -) \colon V \to K }\) konstant gleich \({ \gamma(n, p) }\) auf \({ A }\) nach dem vorherigen Lemma. Weiter ist \({ p + n^{\perp} }\) die Faser der Linearform \({ \gamma(n, -) \colon V \to K }\) über \({ \gamma(n, p) \in K }\) und damit \({ A = p + U \subseteq p + n^{\perp} }\). Für eine Basis \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N }\) ist dann \({ U }\) der Kern der linearen Abbildung \[ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} \] nach dem Korollar zu Untervektorräumen und Kerne Curry-Transformierter und \({ p + U }\) nach dem vorherigen Lemma zu affinen Unterräumen als Nebenklasse damit die Faser von \({ \begin{pmatrix} \gamma^{\#}(n_1) \\ \vdots \\ \gamma^{\#}(n_l) \end{pmatrix} \colon V \to K^l }\) über \({ \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} \in K^l }\). Schließlich erhalten wir den affinen Unterraum \({ A }\) damit auch als Schnittmenge affiner Hyperbenen mit (mindestens) einem gemeinsamen Punkt \({ p \in A }\): \[ A = p + U = p + \bigcap_{i=1}^l n_i^{\perp} = \bigcap_{i=1}^l (p + n_i^{\perp}) . \] Auf diese Art erhalten wir eine sehr konkrete Art jede Nebenklasse \({ p + U \subseteq V }\) im Sinne der vorherigen Proposition als Faser einer linearen Abbildung darzustellen: Zunächst bestimmen wir eine Basis (oder ein Erzeugendensystem) \({ \{n_1, \dots, n_l\} }\) des Normalenraums \({ N = U^{\perp} }\) zum Beispiel mit Hilfe des Gauß Verfahrens wie im Abschnitt zu Darstellungen von Untervektorräumen beschrieben und anschließend definieren wir \({ \varphi \colon V \to K^l,\, v \mapsto \begin{pmatrix} \gamma(n_1, v) \\ \vdots \\ \gamma(n_l, v) \end{pmatrix} }\) und \({ q \coloneqq \begin{pmatrix} \gamma(n_1, p) \\ \vdots \\ \gamma(n_l, p) \end{pmatrix} }\) um \({ A }\) als Faser von \({ \varphi }\) über \({ q }\) zu erhalten.

Als Nächstes beschäftigen wir uns mit der Frage in umgekehrter Richtung: Gegeben eine lineare Abbildung \({ \varphi \colon V \to W }\) endlich-dimensionaler Vektorräume, einen Punkt \({ q \in W }\) und symmetrische reguläre Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\), wie bestimmen wir eine Nebenklasse \({ p + U = A \coloneqq \varphi^{-1}(q) }\) falls vorhanden? Wie im Abschnitt zur geometrischen Betrachtung des Gauß-Verfahren beschrieben ist dann \({ U = \ker \varphi }\) ein Schnitt linearer Hyperebenen der Form \({ \varphi^T(w)^{\perp} \subset V }\) für \({ w \in W }\) mit \({ \varphi^T(w) \neq 0 }\). Wenn wir jetzt für einen beliebigen Vektor \({ w \in W }\) die beiden Untervektorräume \({ \ker \varphi \subseteq \varphi^T(w)^{\perp} }\) um \({ p }\) verschieben, dann erhalten wir die Inklusion \[ p + \ker \varphi \subseteq p + \varphi^T(w)^{\perp} . \] Wenn wir außerdem die Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) auf \({ p }\) anwenden, dann erhalten wir \[ \gamma\big(\varphi^T(w), p\big) = \mu(w, \varphi(p)) , \] das heißt \({ p + \varphi^T(w)^{\perp} }\) ist die Faser von \[ \gamma\big(\varphi^T(w), -\big) \colon V \to K \] über \({ \mu(w, \varphi(p)) }\). Damit ist ein notwendiges Kriterium für \({ \varphi^{-1}(q) \neq \emptyset }\), dass \({ \mu(w, \varphi(p)) }\) im Bild der Linearform \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) liegt. Für eine Linearform, hier \({ \gamma\big(\varphi^T(w), -\big) }\), gibt es genau zwei Möglichkeiten. Entweder \({ \gamma\big(\varphi^T(w), -\big) \colon V \to K }\) ist surjektiv oder die Nullabbildung, was äquivalent ist zu \({ \varphi^T(w) = 0 }\). Also ist die Faser von \({ \gamma\big(\varphi^T(w), -\big) }\) über \({ \mu(w, \varphi(p)) }\) genau dann leer, wenn \({ \mu(w, \varphi(p)) \neq 0 }\) aber \({ \varphi^T(w) = 0 }\) gilt. Daher ist es naheliegend, dass es einen Zusammenhang zwischen den Fasern von \({ \varphi \colon V \to W }\) und dem Kern der adjungierten Abbildung \({ \varphi^T \colon W \to V }\) gibt. Um ein hinreichendes und notwendiges Kriterium zu erhalten, das wir in endlich vielen Schritten prüfen können, verwenden wir das folgende Hilfslemma der linearen Algebra.

Lemma.

Sei \({ \psi \colon W \to V }\) eine lineare Abbildung und \({ \{w_1, \dots, w_m\} }\) eine Basis (oder ein Erzeugendensystem) von \({ W }\) derart, dass \({ \psi(w_1), \dots, \psi(w_l) }\) linear unabhängig sind und \({ w_{l+1}, \dots, w_m \in \ker \psi }\) im Kern von \({ \psi }\) liegen für ein \({ l = 1, \dots, m }\). Dann ist \({ \{w_{l+1}, \dots, w_m\} }\) eine Basis (bzw. ein Erzeugendensystem) von \({ \ker \psi }\).

Beweis.

Sei \({ w \in \ker \psi \subseteq W }\) dann gibt es Skalare \({ \lambda_1, \dots, \lambda_m \in K }\) mit \({ w = \sum_{i=1}^m \lambda_i w_i }\). Weiter gilt \[ 0 = \psi(w) = \psi\big(\textstyle{\sum_{i=1}^m} \lambda_i w_i\big) = \displaystyle{\sum_{i = 1}^m} \lambda_i \psi(w_i) = \sum_{i = 1}^l \lambda_i \psi(w_i) . \] Da \({ \psi(w_1), \dots, \psi(w_l) }\) linear unabhängig sind folgt \({ \lambda_i = 0 }\) für \({ i = 1, \dots, l }\) und damit \[ w = \sum_{i = l+1}^m \lambda_i w_i \in \langle w_{l+1}, \dots, w_m \rangle . \] Da \({ w \in \ker \psi }\) beliebig war folgt \({ \ker \psi = \langle w_{l+1}, \dots, w_m \rangle }\).

Proposition.

Sei \({ \varphi \colon V \to W }\) eine lineare Abbildung endlich-dimensionaler Vektorräume mit symmetrischen regulären Bilinearformen \({ \gamma \colon V \times V \to K }\) und \({ \mu \colon W \times W \to K }\) und sei \({ q \in W }\). Weiter sei \({ \{w_1, \dots, w_m\} \subset W }\) eine Basis (oder ein Erzeugendensystem) von \({ W }\) derart, dass \({ \varphi^T(w_1), \dots, \varphi^T(w_l) }\) linear unabhängig sind und \({ w_{l+1}, \dots, w_m \in \ker \varphi^T }\) im Kern der Adjungierten liegen für ein \({ l = 1, \dots, m }\). Dann erhalten wir \({ q \in \varphi(V) }\) genau dann wenn \({ \mu(w_i, q) = 0 }\) für \({ i = l+1, \dots, m }\) gilt. In diesem Fall gilt \[ \varphi^{-1}(q) = p + \ker \varphi = p + \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} \] für ein \({ p \in \varphi^{-1}(q) }\).

Beweis.

Nach Gleichung 3 aus vorherigem Korollar zum Kern und adjungierten Abbildungen, dem vorherigen Hilfslemma und nach Übung 4 aus Woche 2 gilt die Gleichung \[ \begin{split} \varphi(V) &= \big(\ker \varphi^T\big)^{\perp} \\ &= \langle w_{l+1}, \dots, w_m \rangle^{\perp} \\ &= \bigcap_{i=l+1}^m w_i^{\perp} . \end{split} \] Damit erhalten wir \({ q \in \varphi(V) }\) genau dann wenn \({ \mu(w_i, q) = 0 }\) für \({ i = l+1, \dots, m }\) gilt. Sei nun \({ p \in \varphi^{-1}(q) }\) dann gilt nach dem Lemma zu affinen Unterräumen als Nebenklasse dem Lemma zu affinen Unterräumen als Nebenklasse und dem Korollar zum Urbild als Schnitt linearer Hyperebenen die Gleichung \[ \begin{split} \varphi^{-1}(q) &= p + \ker \varphi \\ &= p + \varphi^{-1}(\{0\}) \\ &= p + \bigcap_{i=1}^m \varphi^T(w_i)^{\perp} \\ &= p + \bigcap_{i=1}^l \varphi^T(w_i)^{\perp} . \end{split} \]

Als Nächstes beschreiben wir wie diese Proposition im Gauß-Verfahren ihre Anwendung findet. Dazu betrachten wir für \({ A \in K^{m \times n} }\) und \({ b \in K^m }\) das inhomogene lineare Gleichungssystem \({ A x = b }\). Angenommen wir haben ein \({ x \in K^n }\) mit \({ Ax = b }\) und ein \({ w \in K^m }\), dann gilt insbesondere die Gleichung \[ \gamma\big(A^T w, x\big) = \big(A^T w\big)^T x = w^T A x = w^T b = \mu(w, b) , \] wobei \({ \gamma \colon K^n \times K^n \to K }\) und \({ \mu \colon K^m \times K^m \to K }\) die Standard-Bilinearformen sind. Das heißt die Gleichung \[ w^T A x = w^T b \] von Produkten von Matrizen, Zeilen- und Spaltenvektoren entspricht der Koordinaten-freien Gleichung \[ \gamma\big(\varphi_A^T(w), p\big) = \mu(w, q) \] für \({ p = x }\), \({ q = b }\) und \({ \varphi_A \colon K^n \to K^m,\, v \mapsto A v }\). Angenommen wir haben jetzt eine Basis \({ \{w_1, \dots, w_m\} }\) von \({ K^m }\) derart, dass das Matrix-Produkt \[ A' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \in K^{m \times n} \] in Zeilenstufenform ist, dann gibt es insbesondere ein \({ l = 1, \dots, m }\) derart, dass die Vektoren \({ A^T w_1, \dots, A^T w_l }\) linear unabhängig sind und die Gleichung \({ 0 = A^T w_{l+1} = \dots = A^T w_m }\) gilt. (Schließlich ist \({ A^T w_i }\) das Transponierte der \({ i }\)-ten Zeile \({ w_i^T A }\) der Matrix \({ A' }\) für \({ i = 1, \dots, m }\).) Definieren wir jetzt noch \[ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \end{pmatrix} \coloneqq \begin{pmatrix} w_1^T b \\ \vdots \\ w_m^T b \end{pmatrix} = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b \in K^{m} \] dann erhalten wir nach der vorherigen Proposition mit \[ b'_i = w_i^T b = \mu(w_i, b) = 0 \quad \text{für} ~ i = l+1, \dots, n \] ein hinreichendes und notwendiges Kriterium für die Lösbarkeit des linearen Gleichungssystems \({ A x = b }\). Weiter ist der Kern von \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) das orthogonale Komplement \({ \langle w_1, \dots, w_m \rangle^{\perp} = (K^m)^{\perp} = \{0\} }\) und damit der affine Lösungsraum des inhomogenen LGS \({ A' x = b' }\) identisch zum affinen Lösungsraum von \({ A x = b }\). Daher ist es naheliegend, dass wir neben einer Matrix wie \({ A' }\) in Zeilenstufenform und einer zugehörigen rechten Seite \({ b' \in K^m }\) auch eine Basis wie \({ \{w_1, \dots, w_m\} }\) wie folgt mit Hilfe des Gauß-Verfahren bestimmen können. Dazu schreiben wir die Standard-Basis als Zeilenvektoren (also effektiv die Einheitsmatrix) rechts neben \[ A \eqqcolon \begin{pmatrix} a_1 \\ \vdots \\ a_m \end{pmatrix} \in K^{m \times n} \] und wenden die Zeilenoperationen auf die ganze erweiterte Matrix \[ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} \in K^{m \times (n + 1 + m)} \] an. Wenn wir dann beispielsweise die \({ j }\)-te Zeile \({ a_j \in K^{1 \times n} }\) von \({ A }\) durch \({ \lambda a_i + a_j }\) ersetzen, dann ersetzen wir gleichzeitig \({ e_j^T \in K^{1 \times m} }\) durch \({ \lambda e_i^T + e_j^T = (\lambda e_i + e_j)^T }\). Weiter gilt für \({ \lambda \in K }\) die Gleichung \[ \lambda a_i^T + a_j^T = \lambda A^T e_i + A^T e_j = A^T (\lambda e_i + e_j) , \] das heißt die neu gewählte Normale \({ \lambda a_i^T + a_j^T \in K^n }\) des Kerns von \({ A }\) (bezüglich Standard-Linearform auf \({ K^n }\)) ist tatsächlich das Bild von \({ (\lambda e_i + e_j) }\) unter der adjungierten Abbildung \[ \varphi_A^T \colon K^m \to K^n,\, w \mapsto A^T w . \] Im Zuge dessen ersetzen wir auch die \({ j }\)-te Koordinate \({ b_j }\) von \({ b }\) durch \[ \lambda b_i + b_j = \lambda e_i^T b + e_j^T b = (\lambda e_i + e_j)^T b = \mu(\lambda e_i + e_j, b) . \] Wenn wir so die Matrix \({ \begin{pmatrix} a_1 & b_1 & e_1^T \\ \vdots & \vdots & \vdots \\ a_m & b_m & e_m^T \\ \end{pmatrix} }\) schrittweise mit Zeilenoperationen in eine Matrix \({ \begin{pmatrix} a'_1 & b'_1 & w_1^T \\ \vdots & \vdots & \vdots \\ a'_m & b'_m & w_m^T \\ \end{pmatrix} }\) mit \({ A' \coloneqq \begin{pmatrix} a'_1 \\ \vdots \\ a'_m \\ \end{pmatrix} \in K^{m \times n} }\) in Zeilenstufenform überführen, dann können wir \({ A' }\) und \({ b' \coloneqq \begin{pmatrix} b'_1 \\ \vdots \\ b'_m \\ \end{pmatrix} \in K^m }\) wie oben beschrieben anhand der ursprünglichen Matrix \({ A }\) und \({ b }\) und anhand der neuen Basis \({ \{w_1, \dots, w_m\} \subset K^m }\) rekonstruieren: \[ A' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} A \quad \text{und} \quad b' = \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b . \] Außerdem ist das ganze Verfahren unabhängig von \({ b }\), das heißt wenn wir die reguläre Matrix \({ \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} \in K^{m \times m} }\) einmal bestimmt haben, dann können wir das LGS \({ A x = b }\) für jede beliebige rechte Seite \({ b \in K^m }\) lösen indem wir zunächst \({ b' \coloneqq \begin{pmatrix} w_1^T \\ \vdots \\ w_m^T \end{pmatrix} b }\) berechnen und anschließend das LGS \({ A' x = b' }\) mit identischem affinen Lösungsraum betrachten.

Affine Abbildungen

Sei \({ V }\) ein endlich-dimensionaler Vektorraum über \({ K }\) und sei \({ A \subseteq V }\) ein affiner Unterraum. Für \({ \lambda_1, \dots, \lambda_l \in K }\) und \({ p_1, \dots, p_l \in A }\) für ein \({ l \in N_0 }\) ist dann die Linearkombination \({ \sum_{i=1}^l \lambda_i p_i }\) im allgemeinen kein Punkt in \({ A }\). Zum Beispiel enthält für \({ V = \R^2 }\) und \[ \varphi \coloneqq \varphi_{(1 ~ 1)} \colon V \to \R, (x, y) \mapsto x+y \] die Gerade \({ A \coloneqq \varphi^{-1}(1) }\) die Einheitsvektoren \({ e_1, e_2 \in \R^2 }\) allerdings liegt \({ e_1 + e_2 }\) nicht in \({ A }\). Trotzdem sind affine Unterräume unter affinen Kombinationen abgeschlossen.

Definition.

Seien \({ \lambda_1, \dots, \lambda_l \in K }\) für ein \({ l \geq 1 }\) Skalare mit der Eigenschaft \({ \sum_{i=1}^l \lambda_i = 1 }\). Weiter sei \({ V }\) ein \({ K }\)-Vektorraum und \({ v_1, \dots, v_l \in V }\) Vektoren aus \({ V }\). Dann nennen wir die Linearkombination \({ \sum_{i=1}^l \lambda_i v_i \in V }\) auch eine affine Kombination.

An sich bilden die in affinen Kombinationen zulässigen Koeffizienten-\({ l }\)-Tupel selbst einen affinen Unterraum. Denn für \[ \varphi \coloneqq \varphi_{(1 ~ \cdots ~ 1)} \colon K^l \to K,\, (\lambda_i)_{i=1}^l \mapsto \sum_{i=1}^l \lambda_i \] enthält die Faser von \({ \varphi }\) über \({ 1 \in K }\) genau die in einer affinen Kombination zugelassenen Koeffizienten-\({ l }\)-Tupel. Für \({ l \geq 1 }\) können wir die Menge der in affinen Kombinationen zulässigen Koeffizienten-\({ l }\)-Tupel auch als einen Prototyp für einen affinen Unterraum der Dimension \({ l-1 }\) auffassen.

Lemma.

Affine Unterräume sind unter affinen Kombinationen abgeschlossen. Oder mit anderen Worten, für ein \({ l \geq 1 }\) und Skalare \({ \lambda_1, \dots, \lambda_l \in K }\) mit \({ \sum_{i=1}^l \lambda_i = 1 }\), einen affinen Unterraum \({ A \subseteq V }\) sowie Punkte \({ p_1, \dots, p_l \in A }\) von \({ A }\) gilt \({ \sum_{i=1}^l \lambda_i p_i \in A }\).

Beweis.

Sei \({ \varphi \colon V \to W }\) und \({ q \in W }\) derart, dass \({ A }\) die Faser \({ \varphi^{-1}(q) }\) von \({ \varphi \colon V \to W }\) über \({ q \in W }\) ist. Dann gilt \[ \varphi\big(\textstyle{\sum_{i=1}^l} \lambda_i p_i) = \displaystyle{\sum_{i=1}^l} \lambda_i \varphi(p_i) = \displaystyle{\sum_{i=1}^l} \lambda_i q = q \] und damit \({ \sum_{i=1}^l \lambda_i p_i \in A }\).

Diesem Lemma nach liefern die affinen Kombinationen eine Struktur auf affinen Unterräumen ähnlich zur Struktur der Linearkombinationen auf Vektorräumen. Die affinen Abbildungen zwischen affinen Unteräumen definieren wir als die Abbildungen, die diese Struktur erhalten.

Definition.

Für affine Unterräume \({ A \subseteq V }\) und \({ B \subseteq W }\) heißt eine Abbildung \({ f \colon A \to B }\) affin falls \({ f }\) affine Kombinationen erhält: Für alle \({ l \geq 1 }\), Skalare \({ \lambda_1, \dots, \lambda_l \in K }\) mit \({ \sum_{i=1}^l \lambda_i = 1 }\) und Punkte \({ p_1, \dots, p_l \in A }\) gilt die Gleichung \[ f \big( \textstyle{\sum_{i=1}^l} \lambda_i p_i\big) = \displaystyle{\sum_{i=1}^l} \lambda_i f(p_i) . \]

An sich können wir die affinen Kombinationen innerhalb eines affinen Unterraums \({ A }\) selbst als Bilder affiner Abbildungen \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A }\) auffassen: Für ein \({ l }\)-Tupel \({ (p_1, \dots, p_l) }\) von Punkten in \({ A }\) erhalten wir die Abbildung \[ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A,\, (\lambda_i)_{i=1}^l \mapsto \sum_{i=1}^l \lambda_i p_i \] deren Bilder genau die affinen Kombinationen der Punkte \({ p_1, \dots, p_l \in A }\) sind. Da jeder Punkt in \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \subset K^l }\) eine affine Kombination der Basisvektoren der Standard-Basis ist, sind alle affinen Abbildungen \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A }\) von dieser Form. Diese affinen Abbildungen können wir auch als Prototypen für affine Abbildungen auffassen. Wie bei linearen Abbildungen erwarten wir auch bei affinen Abbildungen dass die Komposition zweier affinen Abbildungen wieder eine affine Abbildung ist. Damit ist dann notwendigerweise jede Komposition \[ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A \xrightarrow{f} B \] einer prototypischen affinen Abbildung \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to A }\) und einer affinen Abbildung \({ f \colon A \to B }\) wieder eine affine Abbildung \({ \varphi_{(1 ~ \cdots ~ 1)}^{-1}(1) \to B ; }\) womit wir neben der vorherigen Definition eine weitere Charakterisierung affiner Abbildungen erhalten. Im folgenden nehmen wir stets implizit an, dass alle affinen Abbildungen Abbildungen zwischen affinen Unterräumen im Sinne der vorherigen Definition.

Lemma.

Für affine Abbildungen \({ f \colon A \to B }\) und \({ g \colon B \to C }\) ist die Komposition \({ g \circ f \colon A \to C,\, p \mapsto g(f(p)) }\) ebenfalls eine affine Abbildung.

Beweis.

Das folgt relativ direkt aus der eben beschriebenen Charakterisierung affiner Abbildungen oder ganz konkret: Für \({ l \geq 1 }\), Skalare \({ \lambda_1, \dots, \lambda_l \in K }\) mit \({ \sum_{i=1}^l \lambda_i = 1 }\) und Punkte \({ p_1, \dots, p_l \in A }\) gilt die Gleichung \[ \begin{split} (g \circ f)\big( \textstyle{\sum_{i=1}^l} \lambda_i p_i \big) &= g\big(f\big( \textstyle{\sum_{i=1}^l} \lambda_i p_i \big)\big) \\ &= g\big( \textstyle{\sum_{i=1}^l} \lambda_i f(p_i) \big) \\ &= \displaystyle{\sum_{i=1}^l} \lambda_i g(f(p_i)) \\ &= \displaystyle{\sum_{i=1}^l} \lambda_i (g \circ f)(p_i) . \end{split} \]

Definition.

Für eine affine Abbildung \({ f \colon A \to B }\) und einen Punkt \({ p \in A }\) definieren wir die Ableitung \[ T_p f \colon T A \to T B,\, u \mapsto f(p + u) - f(p) \] sowie die Taylor-Entwicklung \[ A \to B,\, p' \mapsto f(p) + T_p f (p' - p) \] von \({ f }\) in \({ p }\).

An sich ist die Taylor-Entwicklung bei unserer Definition der Ableitung nur eine alternative Schreibweise der ursprünglichen affinen Abbildung \({ f \colon A \to B }\) denn es gilt für alle \({ p' \in A }\) die Gleichung \( f(p) + T_p f (p' - p) = f(p) + f(p + p' - p) - f(p) = f(p') \). Die folgende einfache Beziehung zwischen einer affinen Abbildung und ihrer Ableitung (in einem Punkt) ist ebenfalls nützlich.

Lemma.

Für eine affine Abbildung \({ f \colon A \to B }\), einen Punkt \({ p \in A }\) und einen Tangentialvektor \({ u \in T A }\) gilt die Gleichung \({ f(p + u) = f(p) + T_p f (u) }\).

Weiter haben wir in Analogie zur Analysis auch hier eine Kettenregel.

Lemma  (Kettenregel).

Seien \({ f \colon A \to B }\) und \({ g \colon B \to C }\) lineare Abbildungen und sei \({ p \in A }\). Dann gilt die Gleichung \({ T_p (g \circ f) = T_{f(p)} g \circ T_p f }\).

Beweis.

Sei \({ u \in T A }\) dann gilt die Gleichung \[ \begin{split} T_p (g \circ f) (u) &= (g \circ f) (p + u) - (g \circ f) (p) \\ &= g(f(p + u)) - g(f(p)) \\ &= g(f(p) + f(p + u) - f(p)) - g(f(p)) \\ &= g(f(p) + T_p f (u)) - g(f(p)) \\ &= T_{f(p)} g (T_p f (u)) . \end{split} \]

Als Nächstes zeigen wir, dass Ableitungen im Sinne der vorherigen Definition lineare Abbildungen sind.

Lemma  (Kompatibilität der Ableitung mit Skalarmultiplikation).

Für eine affine Abbildung \({ f \colon A \to B }\), einen Punkt \({ p \in A }\), einen Tangentialvektor \({ u \in T A }\) und \({ \lambda \in K }\) gilt die Gleichung \({ T_p f (\lambda u) = \lambda T_p f (u) }\).

Beweis.

Zunächst betrachten wir den ersten Summanden \({ f(p + \lambda u) }\) des Bildvektors \({ T_p f (\lambda u) = f(p + \lambda u) - f(p) }\). Um die Kompatibiltät von \({ f \colon A \to B }\) mit affinen Kombinationen zu nutzen schreiben wir \({ p + \lambda u }\) als affine Kombination: \[ p + \lambda u = (1 - \lambda) p + \lambda p + \lambda u = (1 - \lambda) p + \lambda (p + u) . \] Indem wir \({ f }\) auf beide Seiten dieser Gleichung anwenden, erhalten wir die Gleichung \[ \begin{split} f(p + \lambda u) &= f((1 - \lambda) p + \lambda (p + u)) \\ &= (1 - \lambda) f(p) + \lambda f(p + u) \\ &= f(p) + \lambda (f(p+u) - f(p)) \\ &= f(p) + \lambda T_p f (u) . \end{split} \] Schließlich erhalten wir die Behauptung indem wir \({ f(p) }\) von beiden Seiten dieser Gleichung abziehen.

Lemma  (Kompatibilität der Ableitung mit Vektoraddition).

Für eine affine Abbildung \({ f \colon A \to B }\), einen Punkt \({ p \in A }\) und Tangentialvektoren \({ u, v \in T A }\) gilt die Gleichung \({ T_p f (u + v) = T_p f (u) + T_p f (v) }\).

Beweis.

Auch hier betrachten wir zunächst den ersten Summanden \({ f(p + u + v) }\) des Bildvektors \({ T_p f (u + v) = f(p + u + v) - f(p) }\). Um die Kompatibiltät von \({ f \colon A \to B }\) mit affinen Kombinationen zu nutzen schreiben wir \({ p + u + v }\) als affine Kombination: \[ p + u + v = 1 (p+u) + 1 (p+v) + (-1) p . \] Indem wir \({ f }\) auf beide Seiten dieser Gleichung anwenden, erhalten wir die Gleichung \[ \begin{split} f(p + u + v) &= f(1 (p+u) + 1 (p+v) + (-1) p) \\ &= 1 f(p+u) + 1 f(p+v) + (-1) f(p) \\ &= f(p+u) + f(p+v) - f(p) . \end{split} \] Schließlich erhalten wir die Behauptung indem wir \({ f(p) }\) von beiden Seiten dieser Gleichung abziehen: \[ \begin{split} T_p f (u + v) &= f(p + u + v) - f(p) \\ &= f(p+u) + f(p+v) - f(p) - f(p) \\ &= f(p+u) - f(p) + f(p+v) - f(p) \\ &= T_p f (u) + T_p f (v) . \end{split} \]

Aus den beiden vorherigen Lemmata folgt die Linearität der Ableitung.

Korollar  (Linearität der Ableitung).

Für eine affine Abbildung \({ f \colon A \to B }\) und einen Punkt \({ p \in A }\) ist die Ableitung \({ T_p f \colon TA \to TB,\, u \mapsto f(p+u) - f(p) }\) im Punkt \({ p \in A }\) eine lineare Abbildung.

Aufgrund von diesem Korollar bekommen wir für jede affine Abbildung (mit nicht-leerem Definitionsbereich) eine lineare Abbildung zwischen den zugehörigen Tangentialräumen: die Ableitung. (Den bestimmten Artikel setzen wir hier in Anführungsstriche da wir noch nicht gezeigt haben, dass die Ableitungen nicht von dem Punkt abhängen in dem wir die Ableitung nehmen.) Als Nächstes gehen wir die umgekehrte Richtung indem wir affine Abbildungen durch lineare Abbildungen zwischen den zugehörigen Tangentialräumen beschreiben.

Lemma  (Von Linearen zu Affinen Abbildungen).

Seien \({ A \subseteq V }\) und \({ B \subseteq W }\) affine Unterräume mit Punkten \({ p \in A }\) und \({ q \in B }\). Für eine lineare Abbildung \({ \varphi \colon TA \to TB }\) betrachten wir nun die Abbildung \[ f \colon A \to B,\, p' \mapsto q + \varphi(p' - p) . \]
  1. Die Abbildung \({ f \colon A \to B }\) ist affin.
  2. Für jeden Punkt \({ p' \in A }\) ist \({ \varphi \colon TA \to TB }\) die Ableitung von \({ f \colon A \to B }\) in \({ p' }\): \({ T_{p'} f = \varphi }\).

Beweis.

  1. Seien \({ \lambda_1, \dots, \lambda_l \in K,\, l \geq 1 }\) Skalare mit \({ \sum_{i=1}^l \lambda_i = 1 }\) und \({ p_1, \dots, p_l \in A }\). Dann gilt die Gleichung \[ \begin{split} f \big(\textstyle{\sum_{i=1}^l} \lambda_i p_i\big) &= q + \varphi \big(\textstyle{\sum_{i=1}^l} \lambda_i p_i - p\big) \\ &= \displaystyle{\sum_{i=1}^l} \lambda_i q + \varphi \big(\textstyle{\sum_{i=1}^l} \lambda_i (p_i - p)\big) \\ &= \displaystyle{\sum_{i=1}^l} \lambda_i q + \displaystyle{\sum_{i=1}^l} \lambda_i \varphi (p_i - p) \\ &= \displaystyle{\sum_{i=1}^l} \lambda_i (q + \varphi (p_i - p)) \\ &= \displaystyle{\sum_{i=1}^l} \lambda_i f(p_i) . \end{split} \]
  2. Für \({ u \in TA }\) gilt die Gleichung \[ \begin{split} T_{p'} f (u) &= f(p' + u) - f(p') \\ &= q + \varphi(p' + u - p) - q - \varphi(p' - p) \\ &= \varphi(u) + \varphi(p' - p) - \varphi(p' - p) \\ &= \varphi(u) . \end{split} \]

Korollar.

Für eine affine Abbildung \({ f \colon A \to B }\) und zwei Punkte \({ p, p' \in A }\) hat \({ f }\) in \({ p }\) und \({ p' }\) identische Ableitungen: \({ T_p f = T_{p'} f }\).

Beweis.

Zunächst schreiben wir \({ f }\) als Taylor-Entwicklung in \({ p }\): \[ f \colon A \to B,\, p'' \mapsto f(p) + T_p f (p'' - p) . \] Nach der Linearität der Ableitung (vorheriges Korollar) und Teil b des vorherigen Lemmas ist dann \({ T_p f \colon TA \to TB }\) auch die Ableitung von \({ f }\) im Punkt \({ p' }\): \({ T_{p'} f = T_p f }\).

Nach diesem Lemma können wir schließlich die Ableitung einer affinen Abbildung unabhängig von dem Punkt in dem wir die Ableitung nehmen definieren.

Definition.

Für eine affine Abbildung \({ f \colon A \to B }\) mit nicht-leerem Definitionsbereich \({ A \neq \emptyset }\) nennen wir die lineare Abbildung \[ T f \coloneqq T_p f \colon T A \to T B,\, u \mapsto T_p f (u) , \] wobei \({ p \in A }\) beliebig ist, die Ableitung von \({ f }\).

Da affine Abbildungen unter Kompositionen abgeschlossen sind, stellt sich auch die Frage, wie sich die Taylor-Entwicklung einer Komposition \[ A \xrightarrow{f} B \xrightarrow{g} C \] affiner Abbildungen in einem Punkt \({ p \in A }\) in Abhängigkeit der Taylor-Entwicklungen von \({ f }\) und \({ g }\) in \({ p }\) bzw. \({ q \in B }\) darstellen lässt.

Lemma  (Taylor-Entwicklung und Komposition Affiner Abbildungen).

Seien \({ f \colon A \to B }\) und \({ g \colon B \to C }\) affine Abbildungen mit Ableitungen \({ \varphi \colon TA \to TB }\) und \({ \psi \colon TB \to TC }\), seien \({ p, p' \in A }\) und sei \({ q \in B }\). Dann gilt die Gleichung \[ (g \circ f)(p') = g(q) + \psi (f(p) - q) + (\psi \circ \varphi)(p' - p) . \]

Beweis.

Indem wir zunächst die Taylor-Entwicklung von \({ g \circ f \colon A \to C }\) in \({ p }\), anschließend die Kettenregel und schließlich die Taylor-Entwicklung von \({ g \colon B \to C }\) in \({ q }\) verwenden, erhalten wir die Gleichung \[ \begin{split} (g \circ f)(p') &= (g \circ f)(p) + T (g \circ f) (p' - p) \\ &= g(f(p)) + (\psi \circ \varphi) (p' - p) \\ &= g(q) + \psi(f(p) - q) + (\psi \circ \varphi) (p' - p) . \end{split} \]

Als Nächstes zeigen wir, dass die Fasern und die Bilder affiner Abbildungen ebenfalls affine Unterräume sind.

Lemma  (Faser einer Affinen Abbildung).

Die Faser einer affinen Abbildung \({ f \colon A \to B }\) über \({ q \in B }\) ist ebenfalls ein affiner Unterraum.

Beweis.

Für \({ A = \emptyset }\) ist auch die Faser von \({ f \colon A \to B }\) über \({ q }\) die leere Menge und damit ein affiner Unterraum. Andernfalls gibt es einen Punkt \({ p \in A }\) und \({ f }\) hat eine Ableitung \({ \varphi \colon TA \to TB }\). In diesem Fall betrachten wir die Taylor-Entwicklung von \({ f }\) in \({ p }\): \[ f \colon A \to B,\, p' \mapsto f(p) + \varphi(p' - p) . \] Für einen Punkt \({ p' \in A }\) gilt also \({ q = f(p') }\) genau dann wenn \[ q = f(p) + \varphi(p' - p) \] gilt. Subtraktion von \({ f(p) }\) von beiden Seiten dieser Gleichung liefert \[ q - f(p) = \varphi(p' - p) . \] Weiter ist die letzte Gleichung äquivalent zu \[ p' - p \in \varphi^{-1}(q - f(p)) \subseteq TA \] und nach Addition von \({ p }\) erhalten wir schließlich \[ p' \in p + \varphi^{-1}(q - f(p)) \subseteq p + TA = A . \] Also ist die Menge \({ p + \varphi^{-1}(q - f(p)) \subseteq A }\) die Faser von \({ f \colon A \to B }\) über \({ q }\). Nun unterscheiden wir zwei Fälle. Falls die Faser von \({ \varphi \colon TA \to TB }\) über \({ q - f(p) }\) leer ist, dann ist auch \({ p + \varphi^{-1}(q - f(p)) }\) die leere Menge und damit ein affiner Unterraum. Andernfalls gilt \({ \varphi^{-1}(q - f(p)) = u + \ker \varphi }\) für einen Tangentialvektor \({ u \in \varphi^{-1}(q - f(p)) }\) und damit \[ \begin{split} f^{-1}(q) &= p + \varphi^{-1}(q - f(p)) \\ &= (p + u) + \ker \varphi . \end{split} \]

Lemma  (Bild einer Affinen Abbildung).

Das Bild einer affinen Abbildung \({ f \colon A \to B }\) ist ebenfalls ein affiner Unterraum.

Beweis.

Für \({ A = \emptyset }\) ist auch das Bild \({ f(A) = f(\emptyset) }\) die leere Menge und damit ein affiner Unterraum. Sei nun \({ p \in A }\), \({ U \coloneqq TA }\) der Tangentialraum von \({ A }\) und \({ \varphi \colon U \to TB }\) die Ableitung von \({ f \colon A \to B }\). Dann folgt aus dem vorherigen Lemma zur Ableitung die Gleichung \( f(A) = f(p + TA) = f(p + U) = f(p) + \varphi(U) \).

An sich ist die Darstellung eines affinen Unterraums als Nebenklasse das Beispiel schlechthin für das Bild einer affinen Abbildung: Sei \({ V }\) ein endlich-dimensionaler Vektorraum, \({ p \in V }\) und \({ U \subseteq V }\) ein Untervektorraum. Dann ist die Inklusion \({ j \colon U \hookrightarrow V }\) eine lineare Abbildung und damit \[ f \colon U \to V,\, u \mapsto p + j(u) = p + u \] eine affine Abbildung nach Teil a aus vorherigem Lemma zur Konstruktion affiner Abbildungen aus linearen Abbildungen. Weiter ist das Bild von \({ f }\) genau die Nebenklasse \({ p + U }\).

Schnitte Affiner Unterräume

Direkt zu Beginn des Abschnitts zu affinen Unterräumen haben wir in einem Lemma gezeigt, dass auch der Schnitt zweier affiner Unterräume ein affiner Unterraum ist. Dabei war die Darstellung affiner Unterräume als Faser einer linearen Abbildung besonders gut geeignet, da wir den Schnitt dann sehr direkt als Faser einer linearen Abbildung schreiben können wie im Beweis von diesem Lemma. Allerdings ist die Darstellung affiner Unterräume als Fasern linearer Abbildungen nicht unbedingt die effizienteste; besonders bei affinen Unterräumen von relativ niedriger Dimension. Damit stellt sich die Frage, wie wir den Schnitt affiner Unterräume \({ A, B \subseteq V }\) für einen endlich-dimensionalen Vektorraum \({ V }\) bestimmen können, falls wir für \({ A }\) oder \({ B }\) nur eine Beschreibung als Nebenklasse kennen. (Falls der Tangentialraum Kern einer uns bekannten linearen Abbildung \({ \varphi }\) ist, können wir jede Nebenklasse relativ direkt als Faser von \({ \varphi }\) darstellen. Deshalb gehen wir im Folgenden davon aus, dass wir für den Tangentialraum nur ein Erzeugendensystem kennen.) Zunächst betrachten wir den Fall, dass wir sowohl \({ A }\) als auch \({ B }\) als Nebenklasse kennen und anschließend den Fall gemischter Darstellungen.

Schnitte von Nebenklassen

Lemma  (Tangentialraum des Schnitts).

Seien \({ A, B \subseteq W }\) affine Unterräume eines endlich-dimensionalen \({ K }\)-Vektorraums \({ W }\). Falls \({ A \cap B \neq \emptyset }\) dann gilt die Gleichung \({ T (A \cap B) = TA \cap TB }\).

Beweis.

Sei \({ p \in A \cap B }\). Wir zeigen die beiden Inklusionen.
\({ T (A \cap B) \subseteq TA \cap TB }\):
Falls \({ u \in T (A \cap B) }\) dann gilt \({ p + u \in A \cap B \subseteq A = p + TA }\) und damit insbesondere \({ u \in TA }\) (nach Subtraktion von \({ p }\) auf beiden Seiten). Ganz analog gilt \({ u \in TB }\).
\({ TA \cap TB \subseteq T (A \cap B) }\):
Sei \({ u \in TA \cap TB }\) dann gilt \({ p + u \in p + TA = A }\) sowie \({ p + u \in p + TB = B }\), also \({ p + u \in A \cap B = p + T(A \cap B) }\) und damit \({ u \in T (A \cap B) }\) (nach Subtraktion von \({ p }\) auf beiden Seiten).

Lemma  (Charakterisierung Nicht-Leerer Schnitte).

Für affine Unterräume \({ A, B \subseteq W }\) eines endlich-dimensionalen \({ K }\)-Vektorraums \({ W }\) mit Punkten \({ p \in A }\) und \({ q \in B }\) gilt \({ A \cap B \neq \emptyset }\) genau dann wenn \({ q - p \in TA + TB }\). Für \({ q - p = u + v }\) mit \({ u \in TA }\) und \({ v \in TB }\) ist dann \({ p + u \in A \cap B }\).

Beweis.

Sei \({ p' \in A \cap B }\) dann gilt \({ p' - p \in TA }\) und \({ q - p' \in TB }\). Damit erhalten wir \({ q - p = q - p' + p' - p \in TA + TB }\). Sei umgekehrt \({ q - p = u + v }\) mit \({ u \in TA }\) und \({ v \in TB }\). Dann gilt \({ q - v = p + u }\). Weiter liegt die linke Seite dieser Gleichung in \({ q - TB = q + TB = B }\) und die rechte Seite in \({ p + TA = A }\). Insgesamt erhalten wir \({ p + u \in A \cap B }\).

Wenn wir also den Schnitt affiner Unterräume \({ A, B \subseteq W }\) mit Punkten \({ p \in A }\) und \({ q \in B }\) über ihre Darstellungen als Nebenklassen \({ p + TA }\) und \({ q + TB }\) bestimmen möchten, stellen sich zwei Fragen. Die erste Frage ist ob \({ q - p \in TA + TB }\) liegt aufgrund des vorherigen Lemmas. Und als zweites stellt sich (bei nicht-leerem Schnitt \({ A \cap B \neq \emptyset }\)) die Frage nach dem Schnitt der Tangentialräume \({ TA \cap TB }\) aufgrund des Lemmas zum Tangentialraum der Schnittmenge. Für beide Fragen ist es hilfreich, wenn wir die affinen Unterräume \({ A, B \subseteq W }\) als Bilder affiner Abbildungen \({ f \colon V_1 \to W }\) bzw. \({ g \colon V_2 \to W }\) für \({ K }\)-Vektorräume \({ V_1, V_2 }\) schreiben, wie nach dem Lemma zum Bild affiner Abbildungen beschrieben. Sei weiter \({ U \subseteq W }\) ein Komplement von \({ TA }\) in \({ W }\), das heißt \({ W = TA + U }\) und \({ TA \cap U = \{0\} }\). Damit können wir \({ W }\) (bis auf Isomorphie) als direkte Summe \({ TA \oplus U }\) schreiben. Für die Ableitung von \({ g \colon V_2 \to W }\) erhalten wir dann die Darstellung \[ Tg = \begin{pmatrix} \varphi \\ \psi \end{pmatrix} \colon V_2 \to W \cong TA \oplus U,\, v_2 \mapsto \varphi(v_2) + \psi(v_2) \] für lineare Abbildungen \({ \varphi \colon V_2 \to TA }\) und \({ \psi \colon V_2 \to U }\). Für die zusammengesetzte Abbildung \[ (Tf ~~~ Tg) \colon V_1 \oplus V_2 \to W,\, (v_1, v_2) \mapsto Tf(v_1) + Tg(v_2) \] erhalten wir dann die Darstellung als Matrix \({ \begin{pmatrix} Tf & \varphi \\ 0 & \psi \end{pmatrix} }\) ähnlich einer Zeilenstufenform.

Lemma.

Wir haben \({ Tg(\ker \psi) = TA \cap TB }\).

Beweis.

\({ \varphi(\ker \psi) \subseteq TA \cap TB }\):
Sei \({ v_2 \in \ker \psi }\) dann gilt \({ Tg (v_2) = \varphi(v_2) + \psi(v_2) = \varphi(v_2) \in TA . }\)
\({ TA \cap TB \subseteq \varphi(\ker \psi) }\):
Sei \({ w \in TA \cap TB }\) dann gibt es insbesondere ein \({ v_2 \in V_2 }\) mit \({ w = Tg(v_2) = \varphi(v_2) + \psi(v_2) }\) und folglich \[ w - \varphi(v_2) = \psi(v_2) . \] Weiter liegt die linke Seite dieser Gleichung nach Annahme in \({ TA }\) und die rechte Seite in \({ U }\). Aufgrund von \({ TA \cap U = \{0\} }\) folgt \({ \psi(v_2) = 0 }\) und damit \({ v_2 \in \ker \psi }\).

Korollar.

Seien \({ v_1 \in V_1 }\) und \({ v_2 \in V_2 }\) mit \({ q-p = Tf(v_1) + Tg(v_2) }\) dann gilt \({ p + Tf(v_1) + Tg(\ker \psi) = A \cap B }\).

Beweis.

Nach der Charakterisierung nicht-leerer Schnitte gilt \({ p + Tf(v_1) \in A \cap B }\). Insbesonder ist \({ A \cap B \neq \emptyset }\) und es gilt \[ \begin{split} A \cap B &= p + Tf(v_1) + TA \cap TB \\ &= p + Tf(v_1) + Tg(\ker \psi) \end{split} \] nach dem Lemma zum Tangentialraum des Schnitts sowie dem vorherigen Lemma.

Das heißt um den Schnitt \({ A \cap B }\) zu bestimmen benötigen wir einen Vektor \({ \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} \in V_1 \times V_2 = V_1 \oplus V_2 }\) mit \[ q - p = \begin{pmatrix} Tf & Tg \end{pmatrix} \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} = Tf(v_1) + Tg(v_2) \] sofern vorhanden (andernfalls gilt \({ A \cap B = \emptyset }\)) sowie den Untervektorraum \({ Tg(\ker \psi) }\) für den Tangentialraum \({ T(A \cap B) = TA \cap TB }\). Als nächstes beschreiben wir wie wir ein Komplement \({ U \subseteq W }\) von \({ TA }\) in \({ W }\) wie oben sowie den Kern der zugehörigen Abbildung \({ \psi \colon V_2 \to U }\) mit Hilfe des Gauß-Verfahren bestimmen können. Sei dazu \({ W = K^m }\) und \({ A = p + \langle v_1, \dots, v_{n_1} \rangle }\) und \({ B = q + \langle w_1, \dots, w_{n_2} \rangle }\) für \({ n_1, n_2 \in \N }\). Damit haben wir die affinen Abbildungen \[ \begin{split} f & \colon K^{n_1} \to W,\, x \mapsto p + \begin{pmatrix} v_1 & \cdots & v_{n_1} \end{pmatrix} x \\ \text{und} \quad g & \colon K^{n_2} \to W,\, x \mapsto q + \begin{pmatrix} w_1 & \cdots & w_{n_2} \end{pmatrix} x \end{split} \] mit \({ f(K^{n_1}) = A }\) und \({ g(K^{n_2}) = B }\). Angenommen wir haben einen linearen Isomorphismus \({ \theta \colon W \to W }\) derart, dass die Darstellungsmatrix der linearen Abbilung \[ \theta \circ (Tf ~~~ Tg) \colon K^{n_1} \oplus K^{n_2} \cong K^{n_1 + n_2} \to K^m \] (bezüglich Standard-Basen) in Zeilenstufenform ist, dann ist die Darstellungsmatrix von \({ \theta \circ Tf \colon K^{n_1} \to K^m }\) von der Form \({ \begin{pmatrix} M \\ 0 \end{pmatrix} }\) mit \({ M \in K^{m' \times n_1} }\) von vollem Rang eine Zeilenstufenform der Matrix \({ \begin{pmatrix} v_1 & \cdots & v_{n_1} \end{pmatrix} \in K^{m \times n_1} }\) und die Darstellungsmatrix von \({ \theta \circ Tg \colon K^{n_2} \to K^m }\) von der Form \({ \begin{pmatrix} N \\ L \end{pmatrix} }\) mit \({ N \in K^{m' \times n_2} }\) und \({ L \in K^{(m - m') \times n_2} }\) in Zeilenstufenform. Sei \({ U \coloneqq \theta^{-1}(\{0\} \times K^{m-m'}) }\) und \({ \varphi \colon K^{n_1} \to TA }\) und \({ \psi \colon K^{n_2} \to U }\) die entsprechenden Abbildungen mit \({ Tg = \varphi + \psi }\). Dann gilt \({ \ker \psi = \ker (\theta \circ \psi) = \ker L }\) und der affine Lösungsraum des inhomogenen linearen Gleichungssystems \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} x = \theta(q-p) }\) ist die Faser von \({ (Tf ~~~ Tg) \colon K^{n_1} \oplus K^{n_2} \cong K^{n_1 + n_2} \to K^m }\) über \({ q - p }\). Wenn wir also einen Vektor \({ x = \begin{pmatrix} x_1 \\ x_2 \end{pmatrix} \in K^{n_1 + n_2} \cong K^{n_1} \oplus K^{n_2} }\) (wobei \({ x_1 \in K^{n_1} }\) und \({ x_2 \in K^{n_2} }\)) mit \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} x = \theta(q-p) }\) haben, dann gilt \[ A \cap B = p + Tf(x_1) + Tg(\ker L) \] nach dem vorherigen Korollar. Schließlich können wir ohne einen Isomorphismus \({ \theta \colon K^m \to K^m }\) explizit zu berechnen eine zugehörige Zeilenstufenform \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} \in K^{m \times (n_1 + n_2)} }\) explizit berechnen indem wir die Matrix \({ \begin{pmatrix} v_1 & \cdots & v_{n_1} & w_1 & \cdots & w_{n_2} \end{pmatrix} \in K^{m \times (n_1 + n_2)} }\) mit Hilfe des Gauß-Verfahren auf Zeilenstufenform bringen. Für eine Basis \({ \{u_1, \dots, u_l\} \subset K^{n_2} }\) von \({ \ker L }\) ist dann die Menge \( \big\{ Tf(u_1), \dots, Tf(u_l) \big\} = \big\{ \begin{pmatrix} w_1 & \cdots & w_{n_2} \end{pmatrix} u_1, \dots, \begin{pmatrix} w_1 & \cdots & w_{n_2} \end{pmatrix} u_l \big\} \subset K^m \) ein Erzeugendensystem von \({ Tg(\ker L) = TA \cap TB }\).

Beispiel: Seien \({ v_1 \coloneqq \begin{pmatrix} -1 \\ 1 \\ -2 \end{pmatrix} }\), \({ v_2 \coloneqq \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} }\), \({ w_1 \coloneqq \begin{pmatrix} -2 \\ 5 \\ -6 \end{pmatrix} }\), \({ w_2 \coloneqq \begin{pmatrix} 3 \\ -8 \\ 8 \end{pmatrix} }\), \({ p \coloneqq \begin{pmatrix} -1 \\ 5 \\ -2 \end{pmatrix} }\) und \({ q \coloneqq \begin{pmatrix} 4 \\ 1 \\ 4 \end{pmatrix} }\) reellwertige Vektoren, seien \({ f \colon \R^2 \to \R^3,\, \begin{pmatrix} \lambda_1 \\ \lambda_2 \end{pmatrix} \mapsto p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \end{pmatrix} = p + \lambda_1 v_1 + \lambda_2 v_2 }\) und \({ g \colon \R^2 \to \R^3,\, \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix} \mapsto q + \begin{pmatrix} w_1 & w_2 \end{pmatrix} \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix} = q + \mu_1 w_1 + \mu_2 w_2 }\) die zugehörigen affinen Abbildungen und seien \({ A \coloneqq f(\R^2) = p + \langle v_1, v_2 \rangle }\) und \({ B \coloneqq g(\R^2) = q + \langle w_1, w_2 \rangle }\) die zugehörigen affinenen Ebenen \({ A, B \subset \R^3 }\). Wir bestimmen die Schnittmenge \({ A \cap B \subset \R^3 }\) mit dem eben skizzierten Verfahren. Dazu bringen wir zunächst die erweiterte Koeffizientenmatrix \({ \left(\hspace{-5pt}\begin{array}{cccc|c} v_1 & v_2 & w_1 & w_2 & q-p \end{array}\hspace{-5pt}\right) }\) auf Zeilenstufenform: \[ \begin{split} \left(\hspace{-5pt}\begin{array}{rrrr|r} -1 & 1 & -2 & 3 & 5 \\ 1 & 1 & 5 & -8 & -4 \\ -2 & 0 & -6 & 8 & 6 \end{array}\hspace{-5pt}\right) & \to \left(\hspace{-5pt}\begin{array}{rrrr|r} -1 & 1 & -2 & 3 & 5 \\ 0 & 2 & 3 & -5 & 1 \\ 0 & -2 & -2 & 2 & -4 \end{array}\hspace{-5pt}\right) \\ & \to \left(\hspace{-5pt}\begin{array}{rrrr|r} -1 & 1 & -2 & 3 & 5 \\ 0 & 2 & 3 & -5 & 1 \\ 0 & 0 & 1 & -3 & -3 \end{array}\hspace{-5pt}\right) . \end{split} \] Für \({ M \coloneqq \begin{pmatrix} -1 & 1 \\ 0 & 2 \end{pmatrix} }\), \({ N \coloneqq \begin{pmatrix} -2 & 3 \\ 3 & -5 \end{pmatrix} }\) und \({ L \coloneqq \begin{pmatrix} 1 & -3 \end{pmatrix} }\) erhalten wir damit die Zeilenstufenform \({ \begin{pmatrix} M & N \\ 0 & L \end{pmatrix} }\) der Matrix \({ \begin{pmatrix} v_1 & v_2 & w_1 & w_2 \end{pmatrix} }\). Um einen Vektor \({ \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ \mu_2 \end{pmatrix} \in \R^4 \cong \R^2 \oplus \R^2 }\) mit \({ q - p = \begin{pmatrix} Tf & Tg \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ \mu_2 \end{pmatrix} = \lambda_1 v_1 + \lambda_2 v_2 + \mu_1 w_1 + \mu_2 w_2 }\) zu bestimmen machen wir den Ansatz \({ \mu_2 = 0 }\). Damit \({ \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ 0 \end{pmatrix} }\) in der Faser von \({ (Tf ~~~ Tg) }\) über \({ q - p }\) liegt, muss insbesondere die Gleichung \( -3 = \begin{pmatrix} 0 & L \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \mu_1 \\ 0 \end{pmatrix} = L \begin{pmatrix} \mu_1 \\ 0 \end{pmatrix} = \begin{pmatrix} 1 & -3 \end{pmatrix} \begin{pmatrix} \mu_1 \\ 0 \end{pmatrix} = \mu_1 \) gelten. Betrachten wir anschließend die zweite und erste Komponente von \({ \begin{pmatrix} 0 & L \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ -3 \\ 0 \end{pmatrix} }\) so erhalten wir \({ \lambda_2 = 5 }\) und \({ \lambda_1 = 6 }\). Also gilt \({ q - p = Tf \begin{pmatrix} 6 \\ 5 \end{pmatrix} + Tg \begin{pmatrix} -3 \\ 0 \end{pmatrix} }\). Zusammen mit dem vorherigen Korollar erhalten wir \[ \begin{split} A \cap B &= p + Tf \begin{pmatrix} 6 \\ 5 \end{pmatrix} + Tg(\ker \psi) \\ &= \begin{pmatrix} -1 \\ 5 \\ -2 \end{pmatrix} + \begin{pmatrix} -1 & 1 \\ 1 & 1\\ -2 & 0 \end{pmatrix} \begin{pmatrix} 6 \\ 5 \end{pmatrix} + Tg(\ker L) \\ &= \begin{pmatrix} -1 \\ 5 \\ -2 \end{pmatrix} + \begin{pmatrix} -1 \\ 11\\ -12 \end{pmatrix} + Tg(\ker L) \\ &= \begin{pmatrix} -2 \\ 16 \\ -14 \end{pmatrix} + Tg(\ker L) \\ &= p' + Tg(\ker L) , \end{split} \] wobei \({ p' \coloneqq \begin{pmatrix} -2 \\ 16 \\ -14 \end{pmatrix} }\). Um eine Basis, das heißt einen Erzeuger \({ e }\), von \({ \ker L }\) zu bestimmen, machen wir den Ansatz \({ e = \begin{pmatrix} x \\ 1 \end{pmatrix} }\) und erhalten anhand von \[ 0 = L e = \begin{pmatrix} 1 & -3 \end{pmatrix} \begin{pmatrix} x \\ 1 \end{pmatrix} = x-3 \] die Gleichung \({ x = 3 }\). Folglich ist \( u \coloneqq Tg(e) = \begin{pmatrix} w_1 & w_2 \end{pmatrix} \begin{pmatrix} 3 \\ 1 \end{pmatrix} = 3 w_1 + w_2 = 3 \begin{pmatrix} -2 \\ 5 \\ -6 \end{pmatrix} + \begin{pmatrix} 3 \\ -8 \\ 8 \end{pmatrix} = \begin{pmatrix} -3 \\ 7 \\ -10 \end{pmatrix} \) ein Erzeuger von \({ Tg(\ker L) }\). Insgesamt erhalten wir die Gerade \({ A \cap B = p' + \langle u \rangle }\) als Schnittmenge.

Schnitte von Nebenklassen mit Fasern

Als Nächstes betrachten wir den gemischten Fall. Seien dazu \({ U }\), \({ V }\) und \({ W }\) Vektorräume über \({ K }\), sei \({ f \colon U \to W }\) eine affine Abbildung und \({ \varphi \colon V \to W }\) linear. Weiter sei \({ q \in W }\) dann erhalten wir affine Unterräume \({ A \coloneqq f(U) }\) und \({ B \coloneqq \varphi^{-1}(q) }\). Um den Schnitt \({ A \cap B = f(A) \cap \varphi^{-1}(q) }\) zu bestimmen machen wir zunächst die folgende Beobachtung aus der Mengenlehre.

Lemma  (Schnitt von Bild und Faser).

Es gilt \({ f(A) \cap \varphi^{-1}(q) = f((\varphi \circ f)^{-1}(q)) }\).

Beweis.

\({ f(A) \cap \varphi^{-1}(q) \subseteq f((\varphi \circ f)^{-1}(q)) }\):
Sei \({ v \in f(U) \cap \varphi^{-1}(q) }\) dann gibt es insbesondere ein \({ u \in U }\) mit \({ v = f(u) }\). Weiter gilt aufgrund von \({ v \in \varphi^{-1}(q) }\) die Gleichung \( q = \varphi(v) = \varphi(f(u)) = (\varphi \circ f)(u) \) und damit \({ u \in (\varphi \circ f)^{-1}(q) }\).
\({ f((\varphi \circ f)^{-1}(q)) \subseteq f(A) \cap \varphi^{-1}(q) }\):
Sei umgekehrt \({ v \in f((\varphi \circ f)^{-1}(q)) \subseteq f(U) }\) dann gibt es ein \({ u \in (\varphi \circ f)^{-1}(q) }\) mit \({ f(u) = v }\). Folglich gilt \( \varphi(v) = \varphi(f(u)) = (\varphi \circ f)(u) = q \).

Um also die Schnittmenge \({ A \cap B }\) zu bestimmen, können wir zunächst das Urbild \({ (\varphi \circ f)^{-1}(q) }\) und dann das zugehörige Bild \({ f((\varphi \circ f)^{-1}(q)) }\) unter \({ f \colon U \to V }\) bestimmen. Jetzt ist \({ \varphi \circ f \colon U \to W }\) im Allgemeinen keine lineare Abbildung. Um die Berechnung von \({ (\varphi \circ f)^{-1}(q) }\) auf die Faser einer linearen Abbildung zurückzuführen definieren wir \({ p \coloneqq f(0) }\) und bilden die Taylor-Entwicklung \[ f \colon U \to V,\, u \mapsto p + Tf(u) \] von \({ f }\) in \({ 0 \in U }\). Für \({ u \in U }\) gilt dann die Gleichung \( q = (\varphi \circ f)(u) = \varphi(p + Tf(u)) = \varphi(p) + \varphi(Tf(u)) = \varphi(p) + (\varphi \circ Tf)(u) \) genau dann wenn die Gleichung \({ q - \varphi(p) = (\varphi \circ Tf)(u) }\) gilt. Damit erhalten wir \({ (\varphi \circ f)^{-1}(q) = (\varphi \circ Tf)^{-1}(q - \varphi(p)) }\); das heißt die Faser von \({ \varphi \circ f \colon U \to W }\) über \({ q }\) ist die Faser der linearen Abbildung \({ \varphi \circ Tf \colon U \to W }\) über \({ q - \varphi(p) }\). Diese Beobachtung halten wir noch als Lemma fest.

Lemma.

Es gilt die Gleichung \({ (\varphi \circ f)^{-1}(q) = (\varphi \circ Tf)^{-1}(q - \varphi(p)) }\).

Korollar.

Es gilt die Gleichung \({ A \cap B = p + Tf \big( (\varphi \circ Tf)^{-1}(q - \varphi(p)) \big) }\).

Beweis.

Nach den beiden vorherigen Lemmata gilt \[ \begin{split} A \cap B &= f\big((\varphi \circ f)^{-1}(q)\big) \\ &= f\big((\varphi \circ Tf)^{-1}(q - \varphi(p))\big) \\ &= p + Tf\big((\varphi \circ Tf)^{-1}(q - \varphi(p))\big) . \end{split} \]

Beispiel: Seien \({ p \coloneqq \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} }\), \({ v_1 \coloneqq \begin{pmatrix} -1 \\ -1 \\ 0 \end{pmatrix} }\), \({ v_2 \coloneqq \begin{pmatrix} 2 \\ 0 \\ 1 \end{pmatrix} }\), \({ f \colon \R^2 \to \R^3,\, u \mapsto p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} u }\) die zugehörige affine Abbildung und \({ A \coloneqq f(\R^2) = p + \langle v_1, v_2 \rangle }\) die von \({ v_1 }\) und \({ v_2 }\) an \({ p }\) aufgespannte affine Ebene. Weiter sei \({ a \coloneqq \begin{pmatrix} 1 & -3 & 2 \end{pmatrix} }\), \({ \alpha \coloneqq \varphi_a \colon \R^3 \to \R,\, v \mapsto a v }\) die zugehörige Linearform, \({ t = 3 }\) und \({ B \coloneqq \alpha^{-1}(t) \subset \R^3 }\) die zugehörige affine (Hyper)ebene. Nach dem Lemma zum Schnitt von Bild und Faser gilt die Gleichung \({ A \cap B = f(\R^2) \cap \alpha^{-1}(t) = f\big((\alpha \circ f)^{-1}(t)\big) }\). Daher bestimmen wir zunächst die Faser \({ (\alpha \circ f)^{-1}(t) }\) von \({ \alpha \circ f \colon \R^2 \to \R }\) über \({ t = 3 }\). Sei dazu \({ u \in \R^2 }\) dann gilt \[ \begin{split} 3 &= t \\ &= (\alpha \circ f)(u) \\ &= a \big( p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \big) \\ &= a p + a \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \\ &= \begin{pmatrix} 1 & -3 & 2 \end{pmatrix} \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + \begin{pmatrix} 1 & -3 & 2 \end{pmatrix} \begin{pmatrix} -1 & 2 \\ -1 & 0 \\ 0 & 1 \end{pmatrix} u \\ &= 5 + \begin{pmatrix} 2 & 4 \end{pmatrix} u \end{split} \] genau dann wenn \({ \begin{pmatrix} 2 & 4 \end{pmatrix} u = 3 - 5 = -2 }\) gilt. Für eine spezielle Lösung \({ p' }\) dieser Gleichung machen wir den Ansatz \({ p' = \begin{pmatrix} x \\ 0 \end{pmatrix} }\) und erhalten \({ x = -1 }\) und somit \({ p' = \begin{pmatrix} -1 \\ 0 \end{pmatrix} }\). Für einen Erzeuger \({ u }\) von \({ \ker \begin{pmatrix} 2 & 4 \end{pmatrix} }\) machen wir den Ansatz \({ u = \begin{pmatrix} x' \\ 1 \end{pmatrix} }\) und erhalten \({ x' = -2 }\) und damit \({ u = \begin{pmatrix} -2 \\ 1 \end{pmatrix} }\). Insgesamt erhalten wir \({ (\alpha \circ f)^{-1}(t) = p' + \langle u \rangle }\) und weiter \[ \begin{split} A \cap B &= f\big( (\alpha \circ f)^{-1}(t) \big) \\ &= f(p' + \langle u \rangle) \\ &= p + Tf(p' + \langle u \rangle) \\ &= p + Tf(p') + Tf(\langle u \rangle) \\ &= p + Tf(p') + \langle Tf(u) \rangle \\ &= p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} p' + \left\langle \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \right\rangle . \end{split} \] Schließlich berechnen wir \[ \begin{split} q &\coloneqq p + \begin{pmatrix} v_1 & v_2 \end{pmatrix} p' \\ &= \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + \begin{pmatrix} -1 & 2 \\ -1 & 0\\ 0 & 1 \end{pmatrix} \begin{pmatrix} -1 \\ 0 \end{pmatrix} \\ &= \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} \\ &= \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} \end{split} \] und \[ \begin{split} w &\coloneqq \begin{pmatrix} v_1 & v_2 \end{pmatrix} u \\ &= \begin{pmatrix} -1 & 2 \\ -1 & 0\\ 0 & 1 \end{pmatrix} \begin{pmatrix} -2 \\ 1 \end{pmatrix} \\ &= \begin{pmatrix} 4 \\ 2 \\ 1 \end{pmatrix} \end{split} \] und erhalten insgesamt die Gerade \({ q + \langle w \rangle = A \cap B }\) als Schnittmenge.

Häufig beschreiben wir affine Hyperebenen \({ H \subset V }\) auch über einen Punkt \({ p \in H }\) und eine Normale \({ n \in V \setminus \{0\} }\) bezüglich einer regulären symmetrischen Bilinearform \({ \gamma \colon V \times V \to K }\) durch \({ H = p + n^{\perp} }\). Diese affine Hyperebene \({ H }\) ist dann genau die Faser der Linearform \({ \gamma(n, -) \colon V \to K }\) über \({ \gamma(n, p) \in K }\). Diese Beschreibung eignet sich wie in vorherigem Beispiel besonders gut dazu um Schnitte mit anderen affinen Unterräumen von \({ V }\) zu berechnen.

Volumenformen

Wie im vorherigen Abschnitt zu Schnitten von Fasern mit Nebenklassen beobachtet eignet sich die Darstellung affiner Hyperebenen als Fasern von Linearformen besonders gut dazu um die Schnittmengen mit anderen affinen Unterräumen zu berechnen. Eine Beschreibung über ein Erzeugendensystem des Tangentialraums ist dagegen eher unhandlich, weil dann in dem Verfahren zu Schnitten von Nebenklassen deutlich mehr Parameter im Spiel sind. In diesem Abschnitt verwenden wir Volumenformen um ein Erzeugendensystem einer linearen Hyperebene (wie zum Beispiel dem Tangentialraum einer affinen Hyperebene) in eine Linearform mit entsprechendem Kern zu übersetzen.

Definition (Alternierende Formen).

Sei \({ k \in \N \setminus \{0\} }\) und \({ V }\) ein \({ K }\)-Vektorraum. Eine Abbiludng \({ \alpha \colon V^k \to K }\) heißt multi-linear falls \({ \alpha }\) in jeder Komponente linear ist. Weiter heißt \({ \alpha }\) alternierend falls \({ \alpha }\) multi-linear ist und für alle Vektoren \({ v_1, \dots, v_k \in V }\) und Indizes \({ i,j = 1, \dots, n }\) mit \({ i \neq j }\) aber \({ v_i = v_j }\) die Gleichung \[ \alpha(v_1, \dots, v_n) = 0 \] gilt. Die Menge aller alternierenden \({ k }\)-Formen bezeichnen wir mit \({ \mathrm{Alt}^k V }\). Für \({ k = \dim V }\) wird eine nicht-triviale alternierende \({ k }\)-Form auch eine Volumenform genannt.

Eine alternierende \({ k }\)-Form \({ \alpha \colon V^k \to K }\) ordnet an sich jedem \({ k }\)-Tupel von Vektoren \({ v_1, \dots, v_k \in V }\) ein gerichtetes \({ k }\)-dimensionales Volumen \({ \alpha(v_1, \dots, v_k) \in K }\) zu. Der Grund für die Namensgebung alternierend ist das folgende Lemma.

Lemma.

Sei \({ \alpha \colon V^k \to K }\) eine alternierende \({ k }\)-Form, seien \({ v_1, \dots, v_k \in V }\) Vektoren und \({ i = 1, \dots, k-1 }\). Dann gilt die Gleichung \({ \alpha(v_1, \dots, v_k) = - \alpha(v_1, \dots, v_{i-1}, v_{i+1}, v_i, v_{i+2}, \dots, v_k) }\).

Beweis.

Es gilt die Gleichung \( 0 = {\alpha(v_1, \dots, v_i + v_{i+1}, v_i + v_{i+1}, \dots, v_k)} = {\alpha(v_1, \dots, v_i, v_i + v_{i+1}, \dots, v_k)} + {\alpha(v_1, \dots, v_{i+1}, v_i + v_{i+1}, \dots, v_k)} = {\alpha(v_1, \dots, v_i, v_i, \dots, v_k)} + {\alpha(v_1, \dots, v_i, v_{i+1}, \dots, v_k)} + {\alpha(v_1, \dots, v_{i+1}, v_i, \dots, v_k)} + {\alpha(v_1, \dots, v_{i+1}, v_{i+1} \dots, v_k)} = 0 + {\alpha(v_1, \dots, v_i, v_{i+1}, \dots, v_k)} + {\alpha(v_1, \dots, v_{i+1}, v_i, \dots, v_k)} + 0 = {\alpha(v_1, \dots, v_i, v_{i+1}, \dots, v_k)} + {\alpha(v_1, \dots, v_{i+1}, v_i, \dots, v_k)} \).

Lemma.

Für \({ k \in \N \setminus \{0\} }\) bildet die Menge \({ \mathrm{Alt}^k V }\) der alternierenden \({ k }\)-Formen einen Untervektorraum des \({ K }\)-Vektorraums aller Abbildungen \({ V^k \to K }\).

Lemma.

Sei \({ n \coloneqq \dim V }\) endlich und positiv und sei \({ \{b_1, \dots, b_n\} \subset V }\) eine geordnete Basis. Dann gibt es genau eine alternierende \({ n }\)-Form \({ \nu \colon V^n \to K }\) mit \({ \nu(b_1, \dots, b_n) = 1 }\).

Beweis.

Nach dem Satz der linearen Fortsetzung gibt es einen linearen Isomorphismus \({ \varphi \colon V \to K^n }\) mit \({ \varphi(b_i) = e_i }\) für \({ i = 1, \dots, n }\) wobei \({ e_i }\) der \({ i }\)-te Standardbasisvektor ist. Damit erhalten wir die Bijektion \[ \Phi \colon V^n \to K^{n \times n},\, (v_1, \dots, v_n) \mapsto \begin{pmatrix} \varphi(v_1) & \cdots & \varphi(v_n) \end{pmatrix} . \] Mit \({ \nu \coloneqq \mathrm{det} \circ \Phi \colon V^n \to K,\, (v_1, \dots, v_n) \mapsto \det \begin{pmatrix} \varphi(v_1) & \cdots & \varphi(v_n) \end{pmatrix} }\) erhalten wir dann eine Volumenform mit \({ \nu(b_1, \dots, b_n) = 1 }\). Sei umgekehrt \({ \nu \colon V^n \to K }\) eine Volumenform mit \({ \nu(b_1, \dots, b_n) = 1 }\). Dann erfüllt die Abbildung \({ \nu \circ \Phi^{-1} \colon K^{n \times n} \to K }\) die charakterisierenden Eigenschaften der Determinante \({ \det \colon K^{n \times n} \to K }\), das heißt \({ \nu \circ \Phi^{-1} = \det }\) und damit gilt \({ \mathrm{det} \circ \Phi = \nu \circ \Phi^{-1} \circ \Phi = \nu }\).

Definition.

Für eine geordnete nicht-leere Basis \({ \{b_1, \dots, b_n\} \subset V }\) nennen wir die eindeutige Volumenform \({ \nu \colon V^n \to K }\) mit \({ \nu(b_1, \dots, b_n) = 1 }\) auch die \({ (b_1, \dots, b_n) }\) zugeordnete Volumenform. Die Standard-Volumenform \({ (K^n)^n \cong K^{n \times n} \to K,\, (v_1, \dots, v_n) \mapsto \det \begin{pmatrix} v_1 \cdots v_n \end{pmatrix} }\) ist die der Standardbasis \({ \{e_1, \dots, e_n\} \subset K^n }\) zugeordnete Volumenform.

Sei nun \({ \{b_1, \dots, b_n\} \subset V }\) eine geordnete Basis und \[ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K,\, \nu \mapsto \nu(b_1, \dots, b_n) \] die Auswertung an \({ (b_1, \dots, b_n) }\). Dann ist \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) eine Linearform auf dem \({ K }\)-Vektorraum aller alternierenden \({ n }\)-Formen. Weiter besagt das vorherige Lemma, dass es genau eine alternierende \({ n }\)-Form \({ \nu \colon V^n \to K }\) in der Faser von \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) über \({ 1 \in K }\) gibt. Insbesondere ist die Evaluation \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) eine nicht-triviale Lineaform und \({ \{\nu\} }\) eine \({ 1 }\)-elementige affine Hyperebene in \({ \mathrm{Alt}^n V }\). Foglich gilt \({ \dim \mathrm{Alt}^n V = 1 }\) und \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) ist ein linearer Isomorphismus.

Lemma.

Für eine geordnete nicht-leere Basis \({ \{b_1, \dots, b_n\} \subset V }\) ist die Evaluation \({ \mathrm{ev}_{b_1,...,b_n} \colon \mathrm{Alt}^n V \to K }\) ein linearer Isomorphismus.

Korollar.

Für einen Vektorraum \({ V }\) der Dimension \({ n \in \N \setminus \{0\} }\) ist der Vektorraum \({ \mathrm{Alt}^n V }\) der alternierenden \({ n }\)-Formen \({ 1 }\)-dimensional.

Korollar.

Sei \({ \nu \colon V^n \to K }\) eine Volumenform auf \({ V }\) und seien \({ v_1, \dots, v_n \in V }\) Vektoren. Dann gilt \({ \nu(v_1, \dots, v_n) = 0 }\) genau dann, wenn \({ \{v_1, \dots, v_n\} }\) linear abhängig ist.

Beweis.

Angenommen \({ \nu(v_1, \dots, v_n) = 0 , }\) dann kann \({ \{v_1, \dots, v_n\} }\) keine Basis sein, denn ansonsten wäre \({ \nu(v_1, \dots, v_n) = \mathrm{ev}_{v_1, \dots, v_n}(\nu) \neq 0 }\). Folglich ist \({ \{v_1, \dots, v_n\} }\) linear abhängig, da nach einem vorherigen Lemma jede linear unabhängige Teilmenge mit \({ n = \dim V }\) Elementen eine Basis ist. Seien umgekehrt \({ \lambda_1, \dots, \lambda_n \in V }\) mit \({ \sum_{i=1}^n \lambda_i v_i = 0 }\) und o.B.d.A. \({ \lambda_1 \neq 0 }\). Dann gilt \({ v_1 = \sum_{i=2}^n \mu_i v_i }\) mit \({ \mu_i \coloneqq -\frac{\lambda_i}{\lambda_1} }\) für \({ i = 2, \dots, n }\). Folglich gilt \[ \begin{split} \nu(v_1, \dots, v_n) &= \nu\big(\textstyle{\sum_{i=2}^n} \mu_i v_i, v_2, \dots, v_n\big) \\ &= \displaystyle{\sum_{i=2}^n} \mu_i \nu(v_i, v_2, \dots, v_n) \\ &= \displaystyle{\sum_{i=2}^n} \mu_i \cdot 0 \\ &= 0 . \end{split} \]

Bemerkenswert an diesem Lemma ist, dass sich damit Volumenformen deutlich einfacher klassifizieren lassen, als reguläre symmetrische Bilinearformen. Sei nun \({ V }\) ein \({ n }\)-dimensionaler \({ K }\)-Vektorraum und \({ \nu \colon V^n \to K }\) eine Volumenform auf \({ V }\). Im folgenden verwenden wir die Volumenform \({ \nu }\) um Darstellungen affiner Hyperebenen durch einen Punkt und einer Basis für den Tangentialraum in eine Darstellung als Faser einer Linearform zu übersetzen. Dazu betrachten wir zunächst den Spezialfall linearer Hyperebenen.

Lemma.

Sei \({ U \subset V }\) eine lineare Hyperebene und \({ \{v_2, \dots, v_n\} \subset U }\) eine geordnete Basis von \({ U }\). Dann ist \({ U }\) der Kern der Linearform \[ \nu(-, v_2, \dots, v_n) \colon V \to K,\, w \mapsto \nu(w, v_2, \dots, v_n) . \]

Beweis.

Sei zunächst \({ u \in U }\) dann gibt es Skalare \({ \lambda_2, \dots, \lambda_n \in K }\) mit \({ u = \sum_{i=2}^n \lambda_i v_i }\). Damit erhalten wir die Gleichung \[ \begin{split} \nu(u, v_2, \dots, v_n) &= \nu\big(\textstyle{\sum_{i=2}^n} \lambda_i v_i, v_2, \dots, v_n\big) \\ &= \displaystyle{\sum_{i=2}^n} \lambda_i \nu(v_i, v_2, \dots, v_n) \\ &= \sum_{i=2}^n \lambda_i 0 \\ &= 0 \end{split} \] und somit \({ u \in \ker \nu(-, v_2, \dots, v_n) }\). Sei umgekehrt \({ w \in V \setminus U }\). Dann ist \({ \{w, v_2, \dots, v_n\} }\) eine geordnete Basis von \({ V }\). Da \({ \nu \colon V^n \to K }\) nicht-trivial ist folgt aus dem vorherigen Lemma die Ungleichung \( 0 \neq {\mathrm{ev}_{w,v_2,...,v_n}(\nu)} = {\nu(w, v_2, \dots, v_n)} \) und folglich gilt \({ w \notin \ker \nu(-, v_2, \dots, v_n) }\).

Korollar.

Sei \({ H \subset V }\) eine affine Hyperebene mit \({ p \in H }\) und \({ \{v_2, \dots, v_n\} \subset TH }\) eine geordnete Basis des Tangentialraums. Dann ist \({ H }\) die Faser der Linearform \[ \nu(-, v_2, \dots, v_n) \colon V \to K,\, w \mapsto \nu(w, v_2, \dots, v_n) \] über \({ \nu(p, v_2, \dots, v_n) \in K }\).

Beweis.

Diese Aussage folgt zusammen mit dem Lemma zu affinen Unterräumen als Nebenklassen.

Affine Hyperebenen beschreiben wir häufig auch anhand einer Normalen bezüglich einer regulären symmetrischen Bilinearform \({ \gamma \colon V \times V \to K }\). Mit Hilfe einer solchen Bilinearform \({ \gamma }\) können wir außerdem zu jeder Linearform \({ \alpha \colon V \to K }\) genau einen Vektor \({ w \in V }\) mit \({ \alpha = \gamma(w, -) \colon V \to K,\, v \mapsto \gamma(w, v) }\) zuordnen. Diese Möglichkeit kombinieren wir jetzt mit der Konstruktion von Linearformen über die Volumenform \({ \nu \colon V^n \to K }\), um ein \({ n-1 }\)-faches Kreuzprodukt von Vektoren in \({ V }\) zu definieren. Dazu seien \({ v_2, \dots, v_n \in V }\) Vektoren und \({ \alpha \coloneqq \nu(-, v_2, \dots, v_n) }\) die zugehörige Linearform. Dann gibt es genau einen Vektor \({ w \in V }\) mit \({ \gamma(w, -) = \alpha }\).

Definition.

Wir nennen \({ v_2 \times \cdots \times v_n \coloneqq w }\) das Kreuzprodukt der Vektoren \({ v_2, \dots, v_n }\) bezüglich der Volumenform \({ \nu \colon V^n \to K }\) und der regulären symmetrischen Bilinearform \({ \gamma \colon V \times V \to K }\).

Lemma.

Sei \({ H \subset V }\) eine affine Hyperebene mit \({ p \in H }\) und \({ \{v_2, \dots, v_n\} \subset TH }\) eine geordnete Basis des Tangentialraums. Ist dann weiter \({ n \coloneqq v_2 \times \cdots \times v_n }\) das Kreuzprodukt der Tangentialvektoren dieser Tantentialbasis, dann gilt \({ H = p + n^{\perp} }\).

Beweis.

Nach der Definition des Kreuzprodukts gilt \({ \nu(-, v_2, \dots, v_n) = \gamma(n, -) }\). Zusammen mit dem vorherigen Lemma folgt \[ \begin{split} TH &= \ker \nu(-, v_2, \dots, v_n) \\ &= \ker \gamma(n, -) \\ &= n^{\perp} \end{split} \] und damit \({ H = p + TH = p + n^{\perp} }\).

Als nächstes beschreiben wir das Kreuzprodukt bezüglich Standard-Volumenform \({ \nu \colon (K^n)^n \to K }\) und Standard-Bilinearform \({ \gamma \colon K^n \times K^n \to K }\) konkreter.

Lemma.

Seien \({ v_2, \dots, v_n \in K^n }\) Spaltenvektoren, sei \({ j = 1, \dots, n }\) und \({ M \in K^{(n-1) \times (n-1)} }\) die Matrix, die wir erhalten indem wir die \({ j }\)-te Zeile der Matrix \({ \begin{pmatrix} v_2 & \cdots & v_n \end{pmatrix} \in K^{n \times (n-1)} }\) streichen. Dann ist \({ (-1)^{j+1} \det M }\) der \({ j }\)-te Eintrag des Kreuzprodukts \({ v_2 \times \cdots \times v_n \in K^n }\).

Beweis.

Den \({ j }\)-ten Eintrag von \({ v_2 \times \cdots \times v_n }\) erhalten wir durch \({ \gamma(e_j, v_2 \times \cdots \times v_n) }\). Weiter erhalten wir mit Hilfe der Laplace-Entwicklung nach der ersten Spalte die Gleichung \[ \begin{split} \gamma(e_j, v_2 \times \cdots \times v_n) &= \gamma(v_2 \times \cdots \times v_n, e_j) \\ &= \nu(e_j, v_2, \dots, v_n) \\ &= \det \begin{pmatrix} e_j & v_2 & \cdots & v_n \end{pmatrix} \\ &= (-1)^{j+1} \det M . \end{split} \]

Korollar.

Für Vektoren \({ u = \begin{pmatrix} u_1 \\ u_2 \\ u_3 \end{pmatrix} }\) und \({ v = \begin{pmatrix} v_1 \\ v_2 \\ v_3 \end{pmatrix} }\) aus \({ K^3 }\) gilt \({ u \times v = \begin{pmatrix} u_2 v_3 - u_3 v_2 \\ u_3 v_1 - u_1 v_3 \\ u_1 v_2 - u_2 v_1 \end{pmatrix} }\).

Beispiel: Seien \({ p \coloneqq \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} }\) und \({ u = \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} }\) reelle Vektoren und \({ G \coloneqq p + \langle u \rangle \subset \R^3 }\) die zugehörige Gerade. Seien weiter \({ q \coloneqq \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} }\), \({ v_1 \coloneqq \begin{pmatrix} 2 \\ 0 \\ 1 \end{pmatrix} }\) und \({ v_2 \coloneqq \begin{pmatrix} 3 \\ 1 \\ 0 \end{pmatrix} }\) reelle Vektoren sowie \({ E \coloneqq q + \langle v_1, v_2 \rangle }\) die zugehörige affine Ebene. Aus dem Abschnitt zu Schnitten von Nebenklassen kennen wir ein Verfahren, mit dem wir die Schnittmenge \({ G \cap E }\) beziehungsweise hier a posteriori den Schnittpunkt von \({ G }\) und \({ E }\) bestimmen können. Da die affine Ebene \({ E }\) in \({ \R^3 }\) auch eine affine Hyperebene ist, können wir hier mit Hilfe des Kreuzprodukt ein etwas einfacheres Verfahren verwenden. Sei dazu \({ n \coloneqq v_1 \times v_2 = \begin{pmatrix} 2 \\ 0 \\ 1 \end{pmatrix} \times \begin{pmatrix} 3 \\ 1 \\ 0 \end{pmatrix} = \begin{pmatrix} -1 \\ 3 \\ 2 \end{pmatrix} }\), dann gilt nach dem Lemma zur Normalen einer affinen Hyperebene als Kreuzprodukt die Gleichung \({ E = q + n^{\perp} }\). Damit ist dann \({ E }\) die Faser der Linearform \({ \alpha \colon \R^3 \to \R,\, v \mapsto n^T v }\) über \({ \alpha(q) = n^T q = \begin{pmatrix} -1 & 3 & 2 \end{pmatrix} \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} = -4 }\) nach dem Lemma zu affinen Unterräumen als Nebenklasse. Sei nun \({ f \colon \R \to \R^3,\, t \mapsto p + tu }\) dann gilt \({ G = f(\R) }\). Wie gehabt bestimmen wir zunächst die Faser von \({ \alpha \circ f \colon \R \to \R }\) über \({ -4 }\). Sei dazu \({ t \in \R }\) dann gilt die Gleichung \[ \begin{split} -4 &= (\alpha \circ f)(t) \\ &= n^T (p + tu) \\ &= n^T p + t n^T u \\ &= \begin{pmatrix} -1 & 3 & 2 \end{pmatrix} \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} + t \begin{pmatrix} -1 & 3 & 2 \end{pmatrix} \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} \\ &= -1 + 3t \end{split} \] genau dann wenn die Gleichung \({ -3 = 3t }\) also \({ t = -1 }\) gilt. Folglich gilt \({ (\alpha \circ f)^{-1}(-4) = \{-1\} }\) und zusammen mit dem Lemma zum Schnitt von Bild und Faser die Gleichung \[ \begin{split} G \cap E &= f(\{-1\}) \\ &= \{p - u\} \\ &= \left\{ \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} - \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} \right\} \\ &= \left\{ \begin{pmatrix} -2 \\ -2 \\ 0 \end{pmatrix} \right\} . \end{split} \]

Volumenformen und Lineare Abbildungen

Als nächstes untersuchen wir wie sich das Volumen entlang einer linearen Abbildung zwischen Vektorräumen gleicher Dimension ändert. Seien dazu \({ V }\) und \({ W }\) Vektorräume über \({ K }\) der Dimension \({ n \in \N_0 }\) und seien \({ \nu_1 \colon V^n \to K }\) und \({ \nu_2 \colon W^n \to K }\) Volumenformen. Sei weiter \({ \varphi \colon V \to W }\) eine lineare Abbildung, dann erhalten wir mit \[ \varphi^* \nu_2 \colon V^n \to K,\, (v_1, \dots, v_n) \mapsto \nu_2(\varphi(v_1), \dots, \varphi(v_n)) \] eine alternierende \({ n }\)-Form auf \({ V }\). Außerdem ist der Vektorraum \({ \mathrm{Alt}^n V }\) der alternierenden \({ n }\)-Formen auf \({ V }\) nach einem vorherigen Korollar \({ 1 }\)-dimensional. Da \({ \nu_1 \colon V^n \to K }\) als Volumenform per Definition nicht-trivial ist, erzeugt \({ \nu_1 }\) damit den Vektorraum \({ \mathrm{Alt}^n V }\) der alternierenden \({ n }\)-Formen \({ V^n \to K }\). Folglich gibt es einen Skalar \({ \lambda \in K }\) mit \({ \lambda \nu_1 = \varphi^* \nu_2 }\).

Definition.

Wir nennen \({ \det \varphi \coloneqq \lambda }\) die Determinante von \({ \varphi \colon V \to W }\) bezüglich der Volumenformen \({ \nu_1 }\) und \({ \nu_2 }\).

Die Determinante \({ \det \varphi }\) der linearen Abbildung \({ \varphi \colon V \to W }\) beschreibt an sich wie sich das Volumen entlang \({ \varphi }\) ändert: Die Volumenform \({ \nu_1 \colon V^n \to K }\) ordnet jedem \({ n }\)-Tupel \({ (v_1, \dots, v_n) \in V^n }\) das Volumen \({ \nu_1(v_1, \dots, v_n) \in K }\) zu. Die Volumenform \({ \nu_2 \colon W^n \to K }\) hingegen ordnet dem entsprechenden \({ n }\)-Tupel \({ (\varphi(v_1), \dots, \varphi(v_n)) \in W^n }\) von Bildvektoren das Volumen \[ \begin{split} \nu_2(\varphi(v_1), \dots, \varphi(v_n)) &= (\varphi^* \nu_2)(v_1, \dots, v_n) \\ &= (\det \varphi) \nu_1 (v_1, \dots, v_n) \end{split} \] zu. Insbesondere hängt die Determinante \({ \det \varphi }\) von den jeweils auf \({ V }\) und \({ W }\) gewählten Volumenformen \({ \nu_1 \colon V^n \to K }\) und \({ \nu_2 \colon W^n \to K }\) ab. Wenn wir allerdings bei einem Endomorphismus, das heißt in dem Spezialfall \({ V = W }\), auch Gleichheit der Volumenformen \({ \nu_1 = \nu_2 }\) fordern, dann hängt die Determinante nicht mehr von der Wahl einer bestimmten Volumenform ab wie das folgende Lemma zeigt.

Lemma.

Sei \({ V }\) ein \({ n }\)-dimensionaler \({ K }\)-Vektorraum, \({ \varphi \colon V \to V }\) ein linearer Endomorphismus auf \({ V }\), seien \({ \nu_i \colon V^n \to K }\) Volumenformen auf \({ V }\) und sei \({ \lambda \in K }\) ein Skalar derart, dass die Gleichung \({ \lambda \nu_1 = \varphi^* \nu_1 }\) gilt. Dann gilt auch die Gleichung \({ \lambda \nu_2 = \varphi^* \nu_2 }\).

Beweis.

Nach dem vorherigen Korollar zur Dimension der alternierenden \({ n }\)-Formen ist der Vektorraum \({ \mathrm{Alt}^n V }\) eindimensional. Da \({ \nu_1 \colon V^n \to K }\) als Volumenform nicht trivial ist, muss \({ \nu_1 }\) damit ein Erzeuger von \({ \mathrm{Alt}^n V }\) sein. Foglich gibt es ein \({ \mu \in K }\) mit \({ \nu_2 = \mu \nu_1 }\). Seien nun \({ v_1, \dots, v_n \in V }\) Vektoren, dann gilt die Gleichung \[ \begin{split} \lambda \nu_2 (v_1, \dots, v_n) &= \lambda \mu \nu_1 (v_1, \dots, v_n) \\ &= \mu \lambda \nu_1 (v_1, \dots, v_n) \\ &= \mu \varphi^* \nu_1 (v_1, \dots, v_n) \\ &= \mu \nu_1 (\varphi(v_1), \dots, \varphi(v_n)) \\ &= \nu_2 (\varphi(v_1), \dots, \varphi(v_n)) \\ &= \varphi^* \nu_2 (v_1, \dots, v_n) . \end{split} \] Da die Vektoren \({ v_1, \dots, v_n \in V }\) beliebig waren, folgt die Gleichung \({ \lambda \nu_2 = \varphi^* \nu_2 }\).

Definition.

Sei \({ \varphi \colon V \to V }\) ein linearer Endomorphismus eines endlich-dimensionalen Vektorraums \({ V }\). Dann ist die Determinante \({ \det \varphi \in K }\) von \({ \varphi }\) die Determinante von \({ \varphi }\) bezüglich irgendeiner Volumenform auf \({ V }\).

Mit dem folgenden Lemma zeigen wir schließlich, dass der eben eingeführte Begriff einer Determinante mit Determinanten von Matrizen konsistent ist.

Lemma.

Sei \({ A \in K^{n \times n} }\) und \({ \varphi \coloneqq \varphi_A \colon K^n \to K^n,\, v \mapsto A v }\) die zugehörige lineare Abbildung. Dann gilt die Gleichung \({ \det \varphi = \det A }\).

Beweis.

Sei \({ \nu \colon (K^n)^n \to K,\, (v_1, \dots, v_n) \mapsto \det \begin{pmatrix} v_1 & \cdots & v_n \end{pmatrix} }\) die Standard-Volumenform auf \({ K^n }\) und \({ \{e_1, \dots, e_n\} }\) die Standardbasis. Dann gilt die Gleichung \[ \begin{split} \det \varphi &= (\det \varphi) 1 \\ &= (\det \varphi) \det \begin{pmatrix} e_1 & \cdots & e_n \end{pmatrix} \\ &= (\det \varphi) \nu (e_1, \dots, e_n) \\ &= \varphi^* \nu (e_1, \dots, e_n) \\ &= \nu (\varphi(e_1), \dots, \varphi(e_n)) \\ &= \det \begin{pmatrix} A e_1 & \cdots & A e_n \end{pmatrix} \\ &= \det A . \end{split} \]

Hyperflächenformen

Wie wir mit dem vorherigen Korollar zur Dimension der alternierenden \({ n }\)-Formen festgestellt haben, ist der Vektorraum \({ \mathrm{Alt}^n V }\) eindimensional für einen Vektorraum \({ V }\) der Dimension \({ n \in \N \setminus \{0\} }\). In diesem Abschnitt liefern wir für die alternierenden \({ n-1 }\)-Formen \({ V^{n-1} \to K }\) eine ähnlich konkrete wenn auch etwas kompliziertere Beschreibung. Dabei ist es hilfreich, wenn wir eine Volumenform \({ \nu \colon V^n \to K }\) fixieren. Dann erhalten wir nämlich zu jedem Vektor \({ v \in V }\) durch fixieren des ersten Arguments von \({ \nu }\) die \({ n-1 }\)-Form \({ \nu(v, -, \dots, -) \colon V^{n-1} \to K }\). Diese Zuordnung von einem Vektor \({ v \in V }\) zur zugehörigen \({ n-1 }\)-Form \({ \nu(v, -, \dots, -) }\) können wir auch als Curry-Transformierte \({ \nu^{\#} \colon V \to \mathrm{Alt}^{n-1} V,\, v \mapsto \nu(v, -, \dots, -) }\) von \({ \nu }\) verstehen. Während die Curry-Transformierte einer nicht-trivialen Bilinearform kein Isomorphismus zu sein braucht gilt das nicht für Volumenformen, wie wir in diesem Abschnitt sehen werden. Dazu zeigen wir zunächst die Injektivität.

Lemma.

Die Curry-Transformierte \({ \nu^{\#} \colon V \to \mathrm{Alt}^{n-1} V,\, v \mapsto \nu(v, -, \dots, -) }\) ist injektiv.

Beweis.

Sei \({ v \in V \setminus \{0\} }\). Wir müssen zeigen, dass die zugehörige \({ n-1 }\)-Form \({ \nu^{\#}(v) = \nu(v, -, \dots, -) }\) nicht-trivial ist. Dazu ergänzen wir \({ v }\) durch Vektoren \({ b_2, \dots, b_n \in V }\) zu einer Basis \({ \{b_1 \coloneqq v, b_2, \dots, b_n\} }\) von \({ V }\). Da die Auswertung \({ \mathrm{ev}_{b_1, \dots, b_n} \colon \mathrm{Alt}^{n} V \to K }\) nach dem vorherigen Lemma zur Auswertung an einer Basis ein linearer Isomorphismus und \({ \nu }\) als Volumenform nicht-trivial ist, gilt die Ungleichung \[ \begin{split} 0 & \neq \mathrm{ev}_{b_1,\dots,b_n}(\nu) \\ &= \nu(b_1, \dots, b_n) \\ &= \nu(v, b_2, \dots, b_n) \\ &= \nu^{\#}(v)(b_2, \dots, b_n) \end{split} \] und foglich ist \({ \nu^{\#}(v) \colon V^{n-1} \to K }\) nicht-trivial.

Um aus der Injektivität der Curry-Transformierten \({ \nu^{\#} \colon V \to \mathrm{Alt}^{n-1} V }\) Bijektivität zu folgern, werden wir den Rangsatz verwenden. Sei dazu \({ b_1, \dots, b_n \in V }\) eine Basis von \({ V }\). Dann erhalten wir für \({ i = 1, \dots, n }\) die Auswertung \[ \mathrm{ev}_i \coloneqq \mathrm{ev}_{b_1, \dots, \hat{b}_i, \dots, b_n} \colon \begin{cases} \mathrm{Alt}^{n-1} V \to K,\, \\ \alpha \mapsto \alpha(b_1, \dots, \hat{b}_i, \dots, b_n), \end{cases} \] wobei der Hut über \({ b_i }\) bedeutet, dass wir \({ b_i }\) an entsprechender Stelle auslassen. Sei weiter \[ \begin{pmatrix} \mathrm{ev}_1 \\ \vdots \\ \mathrm{ev}_n \end{pmatrix} \colon \mathrm{Alt}^{n-1} V \to K^n,\, \alpha \mapsto \begin{pmatrix} \mathrm{ev}_1 (\alpha) \\ \vdots \\ \mathrm{ev}_n (\alpha) \end{pmatrix} \] die entsprechende Abbildung nach \({ K^n }\).

Lemma.

Die Abbildung \({ \begin{pmatrix} \mathrm{ev}_1 \\ \vdots \\ \mathrm{ev}_n \end{pmatrix} \colon \mathrm{Alt}^{n-1} V \to K^n }\) ist injektiv.

Beweis.

Sei \({ \alpha \colon V^{n-1} \to K }\) eine alternierende \({ n-1 }\)-Form auf \({ V }\) und seien \({ v_1, \dots, v_{n-1} \in V }\) Vektoren. Dann lässt sich \({ v_i }\) für \({ i = 1, \dots, n }\) als Linearkombination der Basisvektoren \({ b_1, \dots, b_n }\) schreiben. Durch lineares Auseinanderzeihen, durch Umsortieren der Argumente und Auslassen von Thermen mit doppelten Argumenten erhalten wir also eine Gleichung der Form \[ \alpha(v_1, \dots, v_{n-1}) = \sum_{i = 1}^n \lambda_i \alpha(b_1, \dots, \hat{b}_i, \dots, b_n) . \] Falls \({ \alpha \colon V^{n-1} \to K }\) also im Kern von \({ \begin{pmatrix} \mathrm{ev}_1 \\ \vdots \\ \mathrm{ev}_n \end{pmatrix} \colon \mathrm{Alt}^{n-1} V \to K^n }\) liegt, dann ist \({ \alpha }\) die Nullabbildung und damit \({ \begin{pmatrix} \mathrm{ev}_1 \\ \vdots \\ \mathrm{ev}_n \end{pmatrix} \colon \mathrm{Alt}^{n-1} V \to K^n }\) injektiv.

Korollar.

Es gilt \({ \dim \mathrm{Alt}^{n-1} V = n }\).

Beweis.

Aufgrund der Injektivität der Curry-Transformierten \({ \nu^{\#} \colon V \to \mathrm{Alt}^{n-1} V }\) als Resultat des zugehörigen Lemmas gilt \({ n = \dim V \leq \dim \mathrm{Alt}^{n-1} V }\). Und aufgrund der Injektivität von \({ \begin{pmatrix} \mathrm{ev}_1 \\ \vdots \\ \mathrm{ev}_n \end{pmatrix} \colon \mathrm{Alt}^{n-1} V \to K^n }\) folgt weiter \({ \dim \mathrm{Alt}^{n-1} V \leq \dim K^n = n }\).

Korollar.

Die Curry-Transformierte \({ \nu^{\#} \colon V \to \mathrm{Alt}^{n-1} V }\) ist ein linearer Isomorphismus.

Beweis.

Diese Aussage folgt nun direkt zusammen mit der Injektivität von \({ \nu^{\#} }\) und dem Korollar zum Rangsatz.

Die Adjunkte Abbildung

In diesem Abschnitt verwenden wir die Ergebnisse der beiden vorherigen Abschnitte, um zu einer linearen Abbildung \({ \varphi \colon V \to W }\) zwischen Vektorräumen \({ V }\) und \({ W }\) gleicher Dimension \({ n \in \N \setminus \{0\} }\) mit Volumenformen \({ \nu_1 \colon V^n \to K }\) und \({ \nu_2 \colon W^n \to K }\) eine Abbildung in umgekehrter Richtung \({ W \to V }\) anzugeben, die wir auch als Inverse bis auf Vielfache verstehen können. Dazu verwenden wir einerseits das vorherige Korollar und andererseits, dass wir eine alternierende \({ n-1 }\)-Form \({ \alpha \colon W^{n-1} \to K }\) so wie eine Volumenform auf \({ V }\) zurückziehen können: \[ \varphi^* \alpha \colon V^{n-1} \to K,\, (v_2, \dots, v_n) \mapsto \alpha(\varphi(v_2), \dots, \varphi(v_n)) . \] Sei nun \({ w \in W }\) dann erhalten wir mit \[ \nu_2^{\#}(w) \colon W^{n-1} \to K,\, (u_2, \dots, u_n) \mapsto \nu_2(w, u_2, \dots, u_n) \] eine alternierende \({ n-1 }\)-Form auf \({ W }\). Mit \[ \varphi^* (\nu_2^{\#}(w)) \colon V^{n-1} \to K,\, (v_2, \dots, v_n) \mapsto \nu_2(w, \varphi(v_2), \dots, \varphi(v_n)) \] erhalten wir weiter eine alternierende \({ n-1 }\)-Form auf \({ V }\). Nach dem vorherige Korollar gibt es nun genau einen Vektor \({ \mathrm{adj}(\varphi)(w) \in V }\) mit \[ \begin{split} \nu_1(\mathrm{adj}(\varphi)(w), v_2, \dots, v_n) &= \varphi^* (\nu_2^{\#}(w))(v_2, \dots, v_n) \\ &= \nu_2(w, \varphi(v_2), \dots, \varphi(v_n)) \end{split} \] für alle Vektoren \({ v_2, \dots, v_n \in V }\).

Definition.

Die Abbildung \({ \mathrm{adj}(\varphi) \colon W \to V,\, w \mapsto \mathrm{adj}(\varphi)(w) }\) heißt die adjunkte Abbildung von \({ \varphi }\).

Ganz analog zur adjungierten Abbildung können wir zeigen, dass die adjunkte Abbildung linear ist.

Lemma.

Die adjunkte Abbildung \({ \mathrm{adj}(\varphi) \colon W \to V }\) ist linear.

Beweis.

Seien \({ w, w' \in W }\) und \({ \lambda \in K }\) dann gilt für alle Vektoren \({ v_2, \dots, v_n \in V }\) die Gleichung

\( {\nu_1( \mathrm{adj}(\varphi)(w) + \mathrm{adj}(\varphi)(w'), v_2, \dots, v_n )} = {\nu_1( \mathrm{adj}(\varphi)(w), v_2, \dots, v_n )} + {\nu_1( \mathrm{adj}(\varphi)(w'), v_2, \dots, v_n )} = {\nu_2(w, \varphi(v_2), \dots, \varphi(v_n))} + {\nu_2(w', \varphi(v_2), \dots, \varphi(v_n))} = {\nu_2(w + w', \varphi(v_2), \dots, \varphi(v_n))} \),

womit die Gleichung \({ \mathrm{adj}(\varphi)(w) + \mathrm{adj}(\varphi)(w') = \mathrm{adj}(\varphi)(w + w') }\) gilt. Ebenso gilt für alle \({ v_2, \dots, v_n \in V }\) die Gleichung \[ \begin{split} \nu_1( \lambda \mathrm{adj}(\varphi)(w), v_2, \dots, v_n ) &= \lambda \nu_1(\mathrm{adj}(\varphi)(w), v_2, \dots, v_n) \\ &= \lambda \nu_2(w, \varphi(v_2), \dots, \varphi(v_n)) \\ &= \nu_2(\lambda w, \varphi(v_2), \dots, \varphi(v_n)) , \end{split} \] womit die Gleichung \({ \lambda \mathrm{adj}(\varphi)(w) = \mathrm{adj}(\varphi)(\lambda w) }\) gilt.

Als nächstes zeigen wir, dass die adjunkte Abbildung tatsächlich einer Inversen nahe kommt.

Lemma.

Es gilt die Gleichung \({ \mathrm{adj}(\varphi) \circ \varphi = (\det \varphi) \mathrm{id}_V }\).

Beweis.

Seien \({ v_1, \dots, v_n \in V }\) Vektoren, dann gilt die Gleichung \[ \begin{split} \nu_1((\det \varphi) v_1, v_2, \dots, v_n) &= (\det \varphi) \nu_1(v_1, v_2, \dots, v_n) \\ &= \varphi^* \nu_2(v_1, v_2, \dots, v_n) \\ &= \nu_2(\varphi(v_1), \varphi(v_2), \dots, \varphi(v_n)) . \end{split} \] Da insbesondere die Vektoren \({ v_2, \dots, v_n \in V }\) beliebig und unabhängig von \({ v_1 \in V }\) waren, folgt die Gleichung \({ (\det \varphi) v_1 = \mathrm{adj}(\varphi)(\varphi(v_1)) }\).

Korollar.

Im Fall \({ \det \varphi \neq 0 }\) gilt die Gleichung \({ \varphi^{-1} = \frac{1}{\det \varphi} \mathrm{adj}(\varphi) }\).

Das heißt die adjunkte Abbildung \({ \mathrm{adj}(\varphi) \colon W \to V }\) exisitiert unabhängig davon, ob \({ \varphi \colon V \to W }\) invertierbar ist oder nicht. Und falls \({ \varphi }\) invertierbar ist, dann erhalten wir die Inverse mit \({ \varphi^{-1} = \frac{1}{\det \varphi} \mathrm{adj}(\varphi) }\). Sei nun \({ \{b_1, \dots, b_n\} \subset V }\) eine geordnete Basis und \({ \nu_1 \colon V^n \to K }\) die \({ (b_1, \dots, b_n) }\) zugeordnete Volumenform, das heißt \({ \nu_1 }\) ist die Volumenform mit \({ \nu_1(b_1, \dots, b_n) = 1 }\). Für einen Vektor \({ w \in W }\) beschreiben wir nun die Koordinaten von \({ \mathrm{adj}(\varphi)(w) }\) bezüglich der Basis \({ \{b_1, \dots, b_n\} }\). Dazu bemerken wir zunächst, dass aus den definierenden Gleichungen fpr \({ \mathrm{adj}(\varphi)(w) }\) die äquivalenten Gleichungen \[ \nu_1( v_1, \dots, \mathrm{adj}(\varphi)(w), \dots, v_n ) = \nu_2( \varphi(v_1), \dots, w, \dots, \varphi(v_n) ) \] für \({ j = 1, \dots, n }\) und alle Vektoren \({ v_1, \dots, v_{j-1}, v_{j+1}, \dots, v_n \in V }\) folgen. Setzen wir weiter \({ v_i = b_i }\) für \({ i = 1, \dots, j-1, j+1, \dots, n }\), dann erhalten wir die Gleichungen \[ \nu_1( b_1, \dots, \mathrm{adj}(\varphi)(w), \dots, b_n ) = \nu_2( \varphi(b_1), \dots, w, \dots, \varphi(b_n) ) \] für \({ j = 1, \dots, n }\). Da \({ \{b_1, \dots, b_n\} }\) eine Basis ist, können wir \({ \mathrm{adj}(\varphi)(w) }\) als Linearkombination schreiben: \({ \mathrm{adj}(\varphi)(w) = \sum_{i=1}^n \lambda_i b_i }\). Damit erhalten wir für \({ j = 1, \dots, n }\) die Gleichung \[ \begin{split} \nu_2( \varphi(v_1), \dots, w, \dots, \varphi(v_n) ) &= \nu_1( b_1, \dots, \mathrm{adj}(\varphi)(w), \dots, b_n ) \\ &= \nu_1\big( b_1, \dots, \textstyle{\sum_{i=1}^n} \lambda_i b_i, \dots, b_n \big) \\ &= \displaystyle{\sum_{i=1}^n} \lambda_i \nu_1(b_1, \dots, b_i, \dots, b_n) \\ &= \lambda_j \nu_1(b_1, \dots, b_n) \\ &= \lambda_j , \end{split} \] wobei der mittlere Term jeweils an \({ j }\)-ter Stelle steht. Das heißt die \({ j }\)-te Koordinate des Vektors \({ \mathrm{adj}(\varphi)(w) }\) bezüglich der Basis \({ \{b_1, \dots, b_n\} }\) gleicht dem gerichteten Volumen, das von den Vektoren \( \varphi(b_1), \dots, \varphi(b_{j-1}), w, \varphi(b_{j+1}), \dots, \varphi(b_n) \) in \({ W }\) aufgespannt wird. Dieser geometrische Zusammenhang zwischen der adjunkten bzw. inversen Abbildung und den Volumen in \({ W }\) wird auch in einer Folge des empfehlenswerten YouTube-Kanals 3blue1brown anschaulich erklärt. Dieses Ergebnis halten wir noch als Proposition fest.

Proposition.

Bezüglich der Basis \({ \{b_1, \dots, b_n\} }\) gleicht die \({ j }\)-te Koordinate des Bildes \({ \mathrm{adj}(\varphi)(w) }\) von \({ w }\) unter der ajungierten Abbildung \({ \mathrm{adj}(\varphi) \colon W \to V }\) dem Volumen \({ \nu_2( \varphi(v_1), \dots, w, \dots, \varphi(v_n) ) }\) das von den Vektoren \( \varphi(b_1), \dots, \varphi(b_{j-1}), w, \varphi(b_{j+1}), \dots, \varphi(b_n) \) in \({ W }\) aufgespannt wird.

Korollar  (Cramersche Regel).

Sei \({ A \in K^{n \times n} }\) eine Matrix mit \({ \det A \neq 0 }\) und sei \({ b \in K^n }\). Dann ist \[ v \coloneqq \frac{1}{\det A} \begin{pmatrix} \det \begin{pmatrix} b & A e_2 & \cdots & A e_n \end{pmatrix} \\ \vdots \\ \det \begin{pmatrix} A e_1 & \cdots & A e_{n-1} & b \end{pmatrix} \end{pmatrix} \] die eindeutige Lösung des inhomogenen linearen Gleichungssystems \({ A x = b }\).

Beweis.

Sei \({ \varphi \coloneqq \varphi_A \colon K^n \to K^n,\, u \mapsto A u, }\) dann gilt für die adjunkte Abbildung \({ \mathrm{adj}(\varphi) \colon K^n \to K^n }\) bezüglich der Standard-Volumenform nach der Proposition die Gleichung \({ v = \frac{1}{\det A} \mathrm{adj}(\varphi)(b) }\). Weiter gilt \({ \det \varphi = \det A \neq 0 }\) nach dem Lemma zur Konsistenz von Determinanten und zusammen mit dem vorherigen Korollar erhalten wir die Gleichung \[ \begin{split} \varphi^{-1}(b) &= \textstyle{\frac{1}{\det \varphi}} \mathrm{adj}(\varphi)(b) \\ &= \textstyle{\frac{1}{\det A}} \mathrm{adj}(\varphi)(b) \\ &= v . \end{split} \]

Beispiel: Sei \({ A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \in K^{2 \times 2} }\) eine \({ 2 \times 2 }\)-Matrix und \({ \varphi \coloneqq \varphi_A \colon K^2 \to K^2,\, v \mapsto A v }\) die zugehörige lineare Abbildung. Dann ist \({ B \coloneqq \begin{pmatrix} \mathrm{adj}(\varphi)(e_1) & \mathrm{adj}(\varphi)(e_2) \end{pmatrix} }\) die Darstellungsmatrix der adjunkten Abbildung \({ \mathrm{adj}(\varphi) \colon K^2 \to K^2 }\) bezüglich Standard-Volumenform \({ \nu \colon (K^2)^2 \to K }\) wobei \({ e_1 }\) und \({ e_2 }\) die Standard-Basis-Vektoren von \({ K^2 }\) sind. Nach der Proposition gilt die Gleichung \[ \begin{split} \mathrm{adj}(\varphi)(e_1) &= \begin{pmatrix} \nu(e_1, A e_2) \\ \nu(A e_1, e_1) \end{pmatrix} \\ &= \begin{pmatrix} \det \begin{pmatrix} e_1 & A e_2 \end{pmatrix} \\ \det \begin{pmatrix} A e_1 & e_1 \end{pmatrix} \end{pmatrix} \\ &= \begin{pmatrix} d \\ -c \end{pmatrix} \end{split} \] sowie die Gleichung \[ \begin{split} \mathrm{adj}(\varphi)(e_2) &= \begin{pmatrix} \nu(e_2, A e_2) \\ \nu(A e_1, e_2) \end{pmatrix} \\ &= \begin{pmatrix} \det \begin{pmatrix} e_2 & A e_2 \end{pmatrix} \\ \det \begin{pmatrix} A e_1 & e_2 \end{pmatrix} \end{pmatrix} \\ &= \begin{pmatrix} -b \\ a \end{pmatrix} . \end{split} \] Wir erhalten also \({ B = \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} }\). Falls weiter \({ \det A \neq 0 }\) gilt, dann erhalten wir die inverse Matrix von \({ A }\) durch \[ A^{-1} = \textstyle{\frac{1}{\det A}} B = \textstyle{\frac{1}{ad - bc}} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}. \]

Von Linearen Zu Affinen Unterräumen

Für manche Fragestellungen zu affiner Geometrie kann es hilfreich sein, affine Unterräume in lineare Unterräume zu übersetzen. Ein Beispiel dieser Art, sind die Übungen 3 und 4 aus Woche 11. Dazu betrachten wir für einen endlich-dimensionalen \({ K }\)-Vektorraum \({ V }\) den Produktvektorraum \({ K \times V }\). Die Punkte des Vektorraums \({ V }\) stehen dann in direkter Bijektion mit den Punkten des affinen Unterraums \({ \{1\} \times V \subset K \times V }\). Dabei ist für die nachfolgenden Betrachtungen essentiell, dass \({ 0 \notin \{1\} \times V }\) gilt und \({ \{1\} \times V }\) sozusagen ein echt affiner Unterraum ist. Außerdem sei \[ \mathrm{pr}_2 \colon K \times V \to V,\, \begin{pmatrix} \lambda \\ v \end{pmatrix} \mapsto v \] die kanonische Projektion auf die zweite Komponente.

Lemma.

Sei \({ U \subseteq K \times V }\) ein Untervektorraum. Dann ist \({ A \coloneqq \mathrm{pr}_2(U \cap \{1\} \times V) }\) ein affiner Unterraum von \({ V }\). Im Fall \({ A \neq \emptyset }\) gilt außerdem die Gleichung \({ TA = \mathrm{pr}_2(U \cap \{0\} \times V) }\).

Beweis.

Ohne Beschränkung der Allgemeinheit dürfen wir dabei annehmen, dass \({ U }\) der Kern einer linearen Abbildung \({ \Phi \colon K \times V \to W }\) ist. Sei \[ \varphi \colon V \rightarrowtail K \times V \xrightarrow{\Phi} W,\, v \mapsto \Phi \begin{pmatrix} 0 \\ v \end{pmatrix} \] und \({ q \coloneqq -\Phi \begin{pmatrix} 1 \\ 0 \end{pmatrix} }\). Dann ist \({ \ker \varphi = \mathrm{pr}_2(U \cap \{0\} \times V) }\) der Tangentialraum von \({ \varphi^{-1}(q) }\) sofern die Ungleichung \({ \varphi^{-1}(q) \neq \emptyset }\) gilt. Daher genügt es die Gleichung \({ A = \varphi^{-1}(q) }\) zu zeigen.
\({ A \subseteq \varphi^{-1}(q) }\):
Sei \({ p \in A }\) dann gilt \({ \begin{pmatrix} 1 \\ p \end{pmatrix} \in U }\) und damit \[ \begin{split} 0 &= \Phi \begin{pmatrix} 1 \\ p \end{pmatrix} \\ &= \Phi \begin{pmatrix} 0 \\ p \end{pmatrix} + \Phi \begin{pmatrix} 1 \\ 0 \end{pmatrix} \\ &= \varphi(p) - q . \end{split} \] Wir erhalten also \({ q = \varphi(p) }\) und folglich \({ p \in \varphi^{-1}(q) }\).
\({ \varphi^{-1}(q) \subseteq A }\):
Sei \({ p \in \varphi^{-1}(q) }\) dann gilt \({ \mathrm{pr}_2 \begin{pmatrix} 1 \\ p \end{pmatrix} = p }\) sowie \[ \begin{split} \Phi \begin{pmatrix} 1 \\ p \end{pmatrix} &= \Phi \begin{pmatrix} 0 \\ p \end{pmatrix} + \Phi \begin{pmatrix} 1 \\ 0 \end{pmatrix} \\ &= \varphi(p) - q \\ &= q - q \\ &= 0 , \end{split} \] also \({ \begin{pmatrix} 1 \\ p \end{pmatrix} \in \ker \Phi }\).

Umgekehrt können wir einer Nebenklasse \({ p + U \subseteq V }\) eines Untervektorraums \({ U \subseteq V }\) den Untervektorraum \({ \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + \{0\} \times U \subseteq K \times V }\) zuordnen.

Lemma.

Sei \({ A \subseteq V }\) ein affiner Unterraum mit \({ p \in A }\) und sei \[ U \coloneqq \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + \{0\} \times TA . \] Dann gilt \({ \mathrm{pr}_2(U \cap \{1\} \times V) = A }\).

Beweis.

\({ \mathrm{pr}_2(U \cap \{1\} \times V) \subseteq A }\):
Sei \({ p' \in \mathrm{pr}_2(U \cap \{1\} \times V) }\) dann gilt \({ \begin{pmatrix} 1 \\ p' \end{pmatrix} \in U = \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + \{0\} \times TA }\). Foglich gibt es \({ \lambda \in K }\) und \({ v \in TA }\) mit \[ \begin{split} \begin{pmatrix} 1 \\ p' \end{pmatrix} &= \lambda \begin{pmatrix} 1 \\ p \end{pmatrix} + \begin{pmatrix} 0 \\ v \end{pmatrix} \\ &= \begin{pmatrix} \lambda \\ \lambda p + v \end{pmatrix} \end{split} \] und damit \({ \lambda = 1 }\) und \( p' = {\lambda p + v} = {p + v} \in {p + TA} = A \).
\({ A \subseteq \mathrm{pr}_2(U \cap \{1\} \times V) }\):
Sei \({ p' \in A }\) dann gilt \({ v \coloneqq p' - p \in TA }\) und damit \[ \begin{split} \begin{pmatrix} 1 \\ p' \end{pmatrix} &= \begin{pmatrix} 1 \\ p + v \end{pmatrix} \\ &= \begin{pmatrix} 1 \\ p \end{pmatrix} + \begin{pmatrix} 0 \\ v \end{pmatrix} \in U \end{split} \] womit wir schließlich \({ p' = \mathrm{pr}_2 \begin{pmatrix} 1 \\ p' \end{pmatrix} \in \mathrm{pr}_2(U) }\) erhalten.

Lemma.

Sei \({ U \subseteq K \times V }\) ein Untervektorraum mit \({ U \cap \{1\} \times V \neq \emptyset }\) und \({ p \in A \coloneqq \mathrm{pr}_2(U \cap \{1\} \times V) }\). Dann gilt \({ U = \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + \{0\} \times TA }\).

Beweis.

Zunächst stellen wir fest, dass nach dem vorletzten Lemma die Gleichung \({ TA = \mathrm{pr}_2(U \cap \{0\} \times V) }\) und damit \( {U \cap \{0\} \times V} = {\{0\} \times \mathrm{pr}_2(U \cap \{0\} \times V)} = {\{0\} \times TA} \) gilt. Da \({ \begin{pmatrix} 1 \\ p \end{pmatrix} }\) der einzige Vektor in \({ \{1\} \times V }\) ist, der unter \({ \mathrm{pr}_2 }\) auf \({ p }\) abgebildet wird, gilt weiter \({ \begin{pmatrix} 1 \\ p \end{pmatrix} \in U }\). Wir erhalten also insbesondere die Inklusion \({ \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + U \cap \{0\} \times V \subseteq U }\). Für die umgekehrte Inklusion sei \({ \begin{pmatrix} \lambda \\ v \end{pmatrix} \in U }\), dann gilt \({ { \begin{pmatrix} \lambda \\ v \end{pmatrix} - \lambda \begin{pmatrix} 1 \\ p \end{pmatrix} } = { \begin{pmatrix} 0 \\ v - \lambda p \end{pmatrix} \in {U \cap \{0\} \times V} } }\) und damit
\( { \begin{pmatrix} \lambda \\ v \end{pmatrix} } = { \lambda \begin{pmatrix} 1 \\ p \end{pmatrix} + \begin{pmatrix} 0 \\ v - \lambda p \end{pmatrix} \in \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + U \cap \{0\} \times V . } \)

Insgesamt erhalten wir die folgende Proposition.

Proposition.

Durch die Schnittmenge mit \({ \{1\} \times V }\) und die Projektion \({ \mathrm{pr}_2 \colon K \times V \to V }\) werden die Untervektorräume von \({ K \times V }\), die \({ \{1\} \times V }\) schneiden, bijektiv auf die nicht-leeren affinen Unterräume von \({ V }\) abgebildet. Dabei verringert sich die Dimension jeweils um \({ 1 }\).

Beweis.

Nach den beiden vorherigen Lemmata erhalten wir eine Umkehrabbildung indem wir für jeden nicht-leeren affinen Unterraum \({ A \subseteq V }\) einen Punkt \({ p \in A }\) wählen und den Untervektorraum \({ U \coloneqq \left\langle \begin{pmatrix} 1 \\ p \end{pmatrix} \right\rangle + \{0\} \times TA }\) bilden. Aufgrund von \({ \begin{pmatrix} 1 \\ p \end{pmatrix} \notin \{0\} \times TA }\) gilt nach Dimensionsformel die Gleichung \({ \dim U = 1 + \dim TA = 1 + \dim A }\).

Sei nun \({ f \colon V \to W }\) eine affine Abbildung zwischen Vektorräumen \({ V }\) und \({ W }\) mit der Taylor-Entwicklung \[ f \colon V \to W,\, v \mapsto f(0) + \varphi(v) . \] Dann erhalten wir mit \[ \Phi_f \coloneqq \begin{pmatrix} 1 & 0 \\ f(0) & \varphi \end{pmatrix} \colon \begin{cases} K \times V \to K \times W,\\ \begin{pmatrix} \lambda \\ v \end{pmatrix} \mapsto \begin{pmatrix} \lambda \\ \lambda f(0) + \varphi(v) \end{pmatrix} \end{cases} \] eine lineare Fortsetzung von \({ f \colon V \to W }\), also eine lineare Abbildung \({ \Phi_f \colon K \times V \to K \times W }\) mit \({ \mathrm{pr}_2 \left( \Phi_f \begin{pmatrix} 1 \\ v \end{pmatrix} \right) = f(v) }\) für alle \({ v \in V }\).

Fortsetzung von Volumenformen

Häufig stellt sich die Frage ob \({ n+1 }\) Punkte eines \({ n }\)-dimensionalen Vektorraums in einer gemeinsamen affinen Hyperebene liegen. Für \({ n = 2 }\) ist das die Frage, ob drei Punkte auf einer gemeinsamen Geraden liegen. Für diese Art von Fragestellung kann es hilfreich sein, eine Volumenform auf einem Vektorraum \({ V }\) auf den um eine Dimension größeren Vektorraum \({ K \times V }\) fortzusetzen.

Lemma.

Sei \({ \nu \colon V^n \to K }\) eine Volumenform auf \({ V }\). Dann ist die Abbildung \[ \tilde{\nu} \colon \begin{cases} (K \times V)^{n+1} \to K,\\ \left( \begin{pmatrix} \lambda_1 \\ v_1 \end{pmatrix} , \dots, \begin{pmatrix} \lambda_{n+1} \\ v_{n+1} \end{pmatrix} \right) \mapsto \displaystyle{\sum_{i=1}^{n+1}} (-1)^{i+1} \lambda_i \nu(v_1, \dots, \hat{v}_i, \dots, v_{n+1}) \end{cases} \] eine Volumenform auf \({ K \times V }\).

Beweis.

Zunächst bemerken wir, dass die Abbildung \({ \left( \begin{pmatrix} \lambda_1 \\ v_1 \end{pmatrix} , \dots, \begin{pmatrix} \lambda_{n+1} \\ v_{n+1} \end{pmatrix} \right) \mapsto \lambda_i \nu(v_1, \dots, \hat{v}_i, \dots, v_{n+1}) }\) für \({ i = 1, \dots, n }\) multi-linear ist. Damit ist auch \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) als Linearkombination dieser multi-linearen Abbildungen ebenfalls multi-linear. Es bleibt zu zeigen, dass \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) alternierend und nicht-trivial ist. Seien dazu \({ v_1, \dots, v_{n+1} \in V }\) und \({ \lambda_1, \dots, \lambda_{n+1} \in K }\) mit \({ u \coloneqq v_i = v_j }\) und \({ \mu \coloneqq \lambda_i = \lambda_j }\) für \({ i \neq j }\). Dann gilt für \({ i \neq k \neq j }\) die Gleichung \({ \nu(v_1, \dots, \hat{v}_k, \dots, v_{n+1}) = 0 }\). Die beiden übrigen Summanden von \({ \tilde{\nu} \left( \begin{pmatrix} \lambda_1 \\ v_1 \end{pmatrix} , \dots, \begin{pmatrix} \lambda_{n+1} \\ v_{n+1} \end{pmatrix} \right) }\) sind \({ (-1)^{i+1} \lambda_i \nu(v_1, \dots, \hat{v}_i, \dots, v_{n+1}) }\) und \({ (-1)^{j+1} \lambda_j \nu(v_1, \dots, \hat{v}_j, \dots, v_{n+1}) }\). Durch \({ j-i-1 }\)-faches Durchtauschen der Argumente erhalten wir \( {\nu(v_1, \dots, \hat{v}_i, \dots, v_{n+1})} = {\nu(v_1, \dots, v_{i-1}, v_{i+1}, \dots, v_{j-1}, u, v_{j+1}, \dots, v_{n+1})} = (-1)^{j-i-1} {\nu(v_1, \dots, v_{i-1}, u, v_{i+1}, \dots, v_{j-1}, v_{j+1}, \dots, v_{n+1})} \) und nach Multiplikation von diesem Term mit \({ (-1)^{i+1} \lambda_i = (-1)^{i+1} \mu }\) den Ausdruck \( (-1)^{j} \mu {\nu(v_1, \dots, v_{i-1}, u, v_{i+1}, \dots, v_{j-1}, v_{j+1}, \dots, v_{n+1})} \), also das additive Inverse von \({ (-1)^{j+1} \lambda_j \nu(v_1, \dots, \hat{v}_j, \dots, v_{n+1}) }\). Damit ist \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) auch alternierend. Sei nun \({ \{b_1, \dots, b_n\} \subset V }\) eine geordnete Basis, dann erhalten wir die Gleichung \({ \tilde{\nu} \left( \begin{pmatrix} 1 \\ 0 \end{pmatrix} , \begin{pmatrix} 0 \\ b_1 \end{pmatrix} , \dots, \begin{pmatrix} 0 \\ b_{n} \end{pmatrix} \right) = 1 }\) und damit dass \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) nicht-trivial ist.

Beispiel: Im Fall \({ \nu \colon (K^n)^n \to K }\) die Standard-Volumenform auf \({ K^n }\) ist, entspricht \({ \tilde{\nu} }\) ebenfalls der Standard-Volumenform auf \({ K \times K^n \cong K^{n+1} }\)

Im Abschnitt zu Volumenformen haben wir gesehen, wie wir für jeweils \({ n }\) Vektoren aus \({ V }\) ein gerichtetes Volumen definieren können. Dieses Volumen können wir auch als ein gerichtetes Volumen eines Parallelepipeden mit einer Ecke im Ursprung auffassen. Für \({ n+1 }\) Punkte \({ p_1, \dots, p_{n+1} \in V }\) können wir uns zumindest konzeptionell einen Parallelepipeden mit einer Ecke \({ p_1 }\) und dessen direkten Nachbarn \({ p_2, \dots, p_{n+1} }\) denken. Aus dieser Perspektive erhalten wir ein sinnvolles gerichtetes Volumen indem wir den Parallelepipeden durch Subtraktion von \({ p_1 }\) in den Ursprung verschieben und dann das Volumen entsprechend durch \({ \nu(p_2 - p_1, \dots, p_{n+1} - p_1) }\) definieren. Alternativ können wir allerdings auch die Ecken des Parallelepipeden entlang der Abbildung \[ V \to K \times V,\, p \mapsto \begin{pmatrix} 1 \\ p \end{pmatrix} \] in \({ K \times V }\) einbetten, um dann die Volumenform \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) des vorherigen Lemmas anzuwenden. Wie das folgende Lemma zeigt, führen beide Varianten zum gleichen Ergebnis.

Lemma.

Seien \({ p_1, \dots, p_{n+1} \in V }\) und \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) wie im vorherigen Lemma. Dann gilt die Gleichung \[ \tilde{\nu} \left( \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \dots, \begin{pmatrix} 1 \\ p_{n+1} \end{pmatrix} \right) = \nu(p_2 - p_1, \dots, p_{n+1} - p_1) . \]

Beweis.

Da \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) als Volumenform alternierend ist, dürfen wir das erste Argument von den übrigen Argumenten abziehen ohne das Ergebnis zu verändern:
\( { \tilde{\nu} \left( \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \dots, \begin{pmatrix} 1 \\ p_{n+1} \end{pmatrix} \right) } = { \tilde{\nu} \left( \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \begin{pmatrix} 0 \\ p_2 - p_1 \end{pmatrix} , \dots, \begin{pmatrix} 0 \\ p_{n+1} - p_1 \end{pmatrix} \right) } = {\nu(p_2 - p_1, \dots, p_{n+1} - p_1)} \).

Etwas überraschend und trotzdem geometrisch intuitiv ist, dass das gerichtete Volumen des entsprechenden Parallelepipeden bis auf Vorzeichen unabhängig davon ist, welchen der \({ n+1 }\) Punkte wir quasi als zentralen Eckpunkt auffassen und in den Ursprung verschieben. Darüber ob das Volumen des entsprechenden Parallelepipeden verschwindet, bekommen wir schließlich ein Kriterium dafür ob die \({ n+1 }\) Punkte in einer gemeinsamen affinen Hyperebene liegen.

Proposition.

Seien \({ p_1, \dots, p_{n+1} \in V }\) und \({ \tilde{\nu} \colon (K \times V)^{n+1} \to K }\) wie im vorherigen Lemma. Dann liegen die Punkte \({ p_1, \dots, p_{n+1} }\) genau dann in einer affinen Hyperebene, wenn die Gleichung \({ \tilde{\nu} \left( \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \dots, \begin{pmatrix} 1 \\ p_{n+1} \end{pmatrix} \right) = 0 }\) gilt.

Beweis.

Angenommen die Punkte \({ p_1, \dots, p_{n+1} }\) liegen in einer affinen Hyperebene \({ A }\), dann gibt es nach der vorherigen Proposition eine lineare Hyperebene \({ U }\) mit \({ \mathrm{pr}_2(U \cap \{1\} \times V) = A }\). Foglich gilt auch \({ \begin{pmatrix} 1 \\ p_i \end{pmatrix} \in U }\) für \({ i = 1, \dots, n+1 }\). Afgrund von \({ \dim U = n }\) sind die Vektoren \({ \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \dots, \begin{pmatrix} 1 \\ p_{n+1} \end{pmatrix} }\) damit linear abhängig. Nach einem vorherigen Korollar zu Volumenformen gilt damit \({ \tilde{\nu} \left( \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \dots, \begin{pmatrix} 1 \\ p_{n+1} \end{pmatrix} \right) = 0 }\). Sei umgekehrt \({ \tilde{\nu} \left( \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \dots, \begin{pmatrix} 1 \\ p_{n+1} \end{pmatrix} \right) = 0 }\), dann sind die Vektoren \({ \begin{pmatrix} 1 \\ p_1 \end{pmatrix} , \dots, \begin{pmatrix} 1 \\ p_{n+1} \end{pmatrix} }\) nach diesem Korollar zu Volumenformen linear abhängig. Folglich gibt es eine lineare Hyperebene \({ U \subset K \times V }\) mit \({ \begin{pmatrix} 1 \\ p_i \end{pmatrix} \in U }\) für \({ i = 1, \dots, n+1 }\). Nach der vorherigen Proposition ist dann \({ A \coloneqq \mathrm{pr}_2(U \cap \{1\} \times V) }\) eine affine Hyperebene mit \({ p_i \in A }\) für \({ i = 1, \dots, n }\).