Lineare Algebra Adolf Riede
I
II
Inhaltsverzeichnis I
Einleitung
1
I.1
Zur Bedeutung der Linearen Algebra . . . . . . . . . . . . . . . . . . . . . . .
1
I.2
Einige Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
II
Lineare Gleichungssysteme
6
II.1
Lösen einfacher Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
II.2
Zusammenfassung der gefundenen Einsichten . . . . . . . . . . . . . . . . . .
8
II.3
Präzisierung und Kennzeichnung der Begriffe . . . . . . . . . . . . . . . . . .
8
II.4
Eliminationsverfahren mit System . . . . . . . . . . . . . . . . . . . . . . . . 10
II.5
Hinweise auf numerische Probleme . . . . . . . . . . . . . . . . . . . . . . . . 14
III
Gruppen, Vektorräume, Körper
III.1
Von der algebraischen Struktur der Menge der -tupel reeller Zahlen . . . . . . 15
III.2
Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
III.3
Permutationsgruppen und etwas Mengenlehre . . . . . . . . . . . . . . . . . . 17
III.4
Folgerungen aus den Gruppenaxiomen . . . . . . . . . . . . . . . . . . . . . . 19
III.5
Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
III.6
Anschauliche Geometrie und geometrisch anschaulicher Vektorraum . . . . . . 22
IV
Lineare Abhängigkeit
IV.1
Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
IV.2
Erzeugendensystem, Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
IV.3
Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
IV.4
Äquivalenzrelationen und Quotientenräume . . . . . . . . . . . . . . . . . . . 36
V
Lineare Abbildungen und Matrizen
V.1
Beispiele und Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
V.2
Weitere Eigenschaften linearer Abbildungen . . . . . . . . . . . . . . . . . . . 42
V.3
Basis- und Koordinaten-Transformationen . . . . . . . . . . . . . . . . . . . . 44
V.4
Die Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . 45
V.5
Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
15
31
40
III V.6
Der Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
V.7
Die Allgemeine Lineare Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . 52
V.8
Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 54
V.9
Berechnung der inversen Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 55
VI
Metrische Größen im Anschauungsraum
VI.1
Länge, Winkel und Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . 57
VI.2
Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
VI.3
Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
VII
Determinanten
VII.1
Determinantenform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
VII.2
Das Signum einer Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . 62
VII.3
Die Frage nach Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 64
VII.4
Anwendung auf lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 64
VII.5
Determinante einer
VII.6
Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 66
VII.7
Anwendung auf den Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
VII.8
Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 68
VII.9
Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
VIII
Vektorräume mit Skalarprodukt 1
57
62
-Matrix . . . . . . . . . . . . . . . . . . . . . . . .
65
69
VIII.2
Das Standard-Skalarprodukt im
VIII.3
Allgemeines Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
VIII.4
Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
VIII.5
Die orthogonale und unitäre Gruppe . . . . . . . . . . . . . . . . . . . . . . . 76
IX
Eigenvektoren und Eigenwerte
IX.1
Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
IX.2
Bestimmung von Eigenwerten und Eigenvektoren . . . . . . . . . . . . . . . . 81
IX.3
Hauptachsen selbstadjungierter Abbildungen . . . . . . . . . . . . . . . . . . . 83
VIII.1
Das Standard-Skalarprodukt im
. . . . . . . . . . . . . . . . . . . . . . . . 69 . . . . . . . . . . . . . . . . . . . . . . . . 70
81
IV IX.4
Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
IX.5
Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
IX.6
Anwendung auf Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . 97
IX.7
Die gedämpfte und die harmonische Schwingung . . . . . . . . . . . . . . . . 101
IX.8
Eigenwerte des Integraloperators . . . . . . . . . . . . . . . . . . . . . . . . . 104
X
Ringe und Algebren
X.1
Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
X.2
Die Ringe und Algebren End
X.3
Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
X.4
Beweis der Existenz einer Determinantenform . . . . . . . . . . . . . . . . . . 109
X.5
Polynomring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
XI
Bilineare und damit verwandte Formen
XI.1
Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
XI.2
Sesquilinearform und geometrische Begriffe . . . . . . . . . . . . . . . . . . . 131
XI.3
Semi-quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
XII
Vektorräume mit Skalarprodukt 2
XII.1
Bezug zu Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
XII.2
Zur Winkel- und Volumenmessung . . . . . . . . . . . . . . . . . . . . . . . . 142
XII.3
Beziehungen zwischen Vektorräumen über
XII.4
Normalform unitärer und orthogonaler Abbildungen . . . . . . . . . . . . . . . 149
XII.5
Hauptachsen semi-symmetrischer Sesquilinearformen . . . . . . . . . . . . . . 151
XII.6
Ausblick auf physikalische Anwendungen . . . . . . . . . . . . . . . . . . . . 153
XIII
Grundbegriffe der affinen Geometrie
XIII.1
Analytische versus Synthetische Geometrie . . . . . . . . . . . . . . . . . . . 155
XIII.2
Affiner Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
XIII.3
Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
XIII.4
Parallelität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
XIII.5
Affine Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
106
und
. . . . . . . . . . . . . . . . . . . . 107
118
141
und
. . . . . . . . . . . . . . . 145
155
V XIV
Aspekte der euklidischen Geometrie
166
XIV.1
Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
XIV.2
Kurven zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
XIV.3
Flächen zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
XV
Der Minkowski-Raum
XV.1
Modell der räumlich-zeitlichen Welt . . . . . . . . . . . . . . . . . . . . . . . 174
XV.2
Lorentztransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
XVI
Eigenvektor-Theorie und Normalformen
XVI.1
Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
XVI.2
Eigenvektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
XVI.3
Satz von Caley-Hamilton und Minimalpolynom . . . . . . . . . . . . . . . . . 187
XVI.4
Das Normalformenproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
174
178
I.2 Einige Anwendungsbeispiele
1
I Einleitung I.1
Zur Bedeutung der Linearen Algebra
1. Für viele Probleme lassen sich lineare mathematische Modelle aufstellen. 2. Lineare mathematische Modelle lassen sich relativ einfach berechnen. 3. Nicht lineare mathematische Modelle lassen sich durch lineare Modelle approximieren, so daß die Lösung der linearen Approximierung eine Näherungslösung an das nicht lineare Modell liefert. Z. B. ist die Tangente an eine Kurve eine lineare Näherung an die Kurve in der Nähe des Berührpunktes.
I.2
Einige Anwendungsbeispiele
2.1
Vertikale Schwingung einer Feder (Stoßdämpfer)
Schwerkraft = Masse, Erdbeschleunigung Rückstellkraft = Federkonstante Dämpfungskraft = Reibungskonstante = Gesamtkraft = Newtongesetz: !"##$%&(' )'*+',-', positive Konstante Dies ist eine sogenannte lineare Gleichung, die eine Beziehung zwischen .'/ und
Bei Fehlen jeglicher Kräfte hat die Feder eine Ruhelage. Wir bezeichnen mit die Auslenkung aus Ruhelage (nach unten), mit die Geschwindigkeit, mit die Beschleunigung.
festen Zeitpunkt modelliert.
.', und Funktionen von 0 . 0 ' 1 32!1 !4 4 0 ' 576!1 494 8 0 6 2 :;$<
Weiteres Problem: Zeitliche Änderung beschreiben
0
Bezeichne die Zeit, dann sind
1
A. Riede: Lineare Algebra 1, WS 99/00
zu einem
I Einleitung
2
Dies ist eine sogenannte lineare Differentialgleichung mit konstanten Koeffizienten, die Differentialgleichung der gedämpften Schwingung. Für die systematische Bestimmung der Lösungsfunktionen einer linearen Differentialgleichung liefert die Lineare Algebra die wesentlichen Hilfmittel.
2.2
Gleichstromschaltkreise
Auf einer Verbindung zwischen zwei Knoten (Stromverzweigungen) fließt ein Strom der Stärke . Die Verbindung wird willkürlich mit einer Richtung versehen. Stimmt die physikalische Stromrichtung mit der Verbindungsrichtung überein, so ist mit dem positiven, andernfalls negativen Vorzeichen zu versehen. Die Ströme werden aus den Kirchhoffschen Gesetzen bestimmt, wenn die Batteriespannungen und die Stärken der Ohmschen Widerstände bekannt sind.
1. Kirchhoffsches Gesetz: Die Summe der Ströme in jedem Knoten ist null; dabei geht ein auf den Knoten zufließender Strom mit dem Faktor +1, ein wegfließender mit dem Faktor -1 ein. 2. Kirchhoffsches Gesetz: Die Summe der Spannungsabfälle in jeder Schleife ist null. Eine Schleife ist eine geschlossene Verbindung mit festgelegtem Durchlaufungssinn.
Für den Spannungsabfall an einem Widerstand wird das Ohmsche Gesetz angesetzt. Wir erhalten lineare Gleichungen für die unbekannten Ströme. Deshalb wird eine elektrische Schaltung mit nur Ohmschen Widerständen auch ein linearer Schaltkreis genannt. Die Batteriespannungen und die Stärken der Ohmschen Widerstände gehen als Konstante in die Gleichungen ein. Wir erhalten an dem (hier nicht wiedergegebenen) Beispiel für 3 Knoten und 3 Schleifen 6 Gleichungen für die 6 Ströme, die die Ströme bestimmen „sollten“. Jedoch lassen sich durch Betrachtung eines weiteren Knotens oder durch die Betrachtung weiterer Schleifen weitere Gleichungen gewinnen. Aus physikalischen Gründen kann jedoch der Schaltkreis nicht „überbestimmt“ sein, erfahrunggemäß stellen sich ganz bestimmte Ströme in den Knoten-Verbindungen ein. Die weiteren Gleichungen müssen also wohl Konsequenzen aus den anderen sein.
2.3
Leontief-Modell eines Wirtschaftsbereiches
2.3.1 Problemstellung Es soll ein mathematisches Modell für einen Wirtschaftsbereich aufgestellt werden, in welchem der Bedarf und die Produktion der einzelnen Fabriken, der Bedarf der Konsumenten und der Exportbedarf in einen Zusammenhang gebracht werden. Das Modell ist nach dem Nobelpreisträger von 1973 für Ökonomie, Wassily Leontief benannt. 2.3.2 Zielfrage
Welches sind die Bedingungen dafür, daß die Produktion den Bedarf deckt ?
I.2 Einige Anwendungsbeispiele
3
2.3.3 Aufstellung quantitativer Größen für das Modell Anzahl der Betriebe: 1. Annahme: Der Einfachheit halber nehmen wir zunächst an, daß es Y, Z gibt.
Fabriken X,
Anzahl der verschiedenen Waren, die jede Fabrik herstellt. 2. Annahme: Wir nehmen an, daß jede Fabrik nur eine einzige Ware herstellt, sagen wir, die Fabrik X die Ware A, die Fabrik Y die Ware B, die Fabrik Z die Ware C. Jahresproduktion
.'+'
Sei die Jahresproduktion der Ware A, B, C durch die Fabrik X, Y, Z, gemessen in einer dem Produkt angemessenen Einheit, z. B. Kohle in Tonnen, Strom in kWh. Außerindustrieller Bedarf pro Jahr
Konsumbedarf und Exportbedarf an der Ware A, B, C fassen wir zum außerindustriellen Bedarf bzw. bzw. zusammen. Industrieller Bedarf Zur Herstellung einer Einheit benötigt X benötigt Y benötigt Z von A Einheiten Einheiten Einheiten von B Einheiten Einheiten Einheiten von C Einheiten Einheiten Einheiten
4
Eine diesem spezifischen Bedarf entsprechende Tabelle für den Jahresbedarf läßt sich in ähnlicher Weise aufstellen. Wir benötigen jedoch die entsprechenden Bezeichnungen für die Jahresgrößen nicht und gehen gleich über zum nächsten Punkt der Modellbildung.
2.3.4 Aufstellung von Beziehungen zwischen diesen Größen Jahresbedarf: Pro Jahr benötigt X Y Z von A von B von C
4 +
Industrieller Jahresbedarf
4 ; ; +;
Außerindustrieller Jahresbedarf
4 ;$ ; + Gesamtbedarf
I Einleitung
4 2.3.5 Antwort auf die Zielfrage Bedarfsdeckung:
Der Bedarf wird dann genau gedeckt, wenn die Produktion gleich dem Gesamtbedarf ist. Für die drei Produkte ergeben sich drei lineare Gleichungen:
4 $ ; +
(1)
Daß das Datenmaterial in Tabellenform angegeben werden kann, zeigt daß es eine gewisse Struktur hat. Wir können diese Struktur dazu benutzen systematischere Bezeichnungen einzuführen. Was wir mit den Buchstaben etc. bezeichnet haben, brauchen wir dann nicht mehr oben nachsehen, sondern ergibt sich aus der Systematik:
''
für ' ' bezeichne die Jahresproduktion der -ten Fabrik, also: 51 .' 8 1 +' 1 . außerindustrielle Bedarf an der Ware der -ten Fabrik, also: 5sei1 der ' 8 1 ' 1 . sei der spezifische Bedarf der -ten Fabrik an der Ware der -ten Fabrik. (Spezifisch heißt, um eine Einheit der Ware der -ten Fabrik herzustellen). Es ist also: 1 4 ' 8 1 +' 1 ' 8 1 usw. Dann lauten die drei linearen Gleichungen: - 8 8 * (2) 8 8 -- 8 8 8 8 ** 8 8 8 Wir bringen diese Gleichungen noch in eine Standardform durch Zusammenfassen der Terme mit gleicher Unbekannten:
$ 3 8 8 8 $ 8 8 8 8 3 8 8 $
8
(3)
Ein Hauptteil der Linearen Algebra besteht im Rechnen mit solchen einfach und doppelt indizierten Größen. Eine Tabelle doppelt indizierter Größen heißt eine Matrix. Um ein Modell für alle denkbaren Wirtschaftsysteme aufzustellen, müssen wir die Anzahl der Betriebe variabel halten. Für die Wirtschaft eines Staates ist sehr groß. Wir schreiben sie für beliebiges in einer in der Mathematik üblichen Weise wie folgt an:
3 8 8 & & 8 . $ 8 8 8 & & 8 .. 3 8 8 && $
8
(4)
I.2 Einige Anwendungsbeispiele
5
2.3.6 Anzahl der Unbekannten in der Praxis Mit diesem Beispiel sehen wir, daß für Probleme aus der realen Welt lineare Gleichungssysteme mit Unbekannten auftreten können und sehr groß werden kann. Dieses kann als eine Dimension interpretiert werden. Reale Probleme erfordern also die Betrachtung des -dimensionalen Falles. Es genügt nicht, sich auf den 1, 2 oder 3-dimensionalen Fall zu beschränken. Der niedrigdimensionale Fall wird aber zum Ideen finden und zur Veranschaulichung herangezogen. Auch der -dimensionale Fall wird durch die Beschäftigung mit ihm mit der Zeit immer vertrauter.
II Lineare Gleichungssysteme
6
II Lineare Gleichungssysteme II.1
Lösen einfacher Beispiele
in die erste Gleichung einsetzen:
1. Beispiel
'
1
.'
Damit ist folgendes gezeigt: Wenn das Zahlenpaar eine Lösung ist, so gilt ; d. h. insbesondere, daß es höchstens eine Lösung gibt. Unsere Umformungen zeigen also die Eindeutigkeit der Lösung.
'
Daß tatsächlich eine Lösung ist, erweist sich dadurch, daß wir in das Gleichungssystem einsetzen. Dadurch ist die Existenz einer Lösung bewiesen.
2. Beispiel
:
Hier ist die letzte Gleichung das negative der ersten, also automatisch erfüllt, wenn die erste erfüllt ist. Subtraktion und Addition der ersten zwei Gleichungen liefert:
2
A. Riede:Lineare Algebra 1, WS 99/00
1
II.2 Zusammenfassung der gefundenen Einsichten
7
' '
Ein Lösungstripel muß also von der Form sein. Durch Einsetzen in das Ausgangssystem stellen wir fest, daß jedes Tripel dieser Form (also für eine beliebige Zahl ) eine Lösung ist.
Wir sagen dafür: Die Lösungen bilden eine einparametrige Schar mit als Parameter. 3. Beispiel
1
1
1
Wir behalten die erste Gleichung bei, subtrahieren von der zweiten die erste und subtrahieren von der dritten ebenfalls die erste.
1 " 1 " 1
Wir behalten die erste und zweite Gleichung bei, addieren zu der dritten das zweifache der zweiten.
+1 +1 (1
Dieses System hat keine Lösung, da die dritte Gleichung keine Lösung hat. 4. Beispiel
1
1
1
#1 #1 #1
' '
An diesem vereinfachten System lesen wir ab, daß eine Lösung des umgeformten Systems ist. Die zweite Gleichung des Ausgangssystems ist jedoch für diese Zahlenwerte nicht erfüllt. Bei dieser Art von Umformungen, die wir durchgeführt haben, ist klar, daß eine Lösung des Ausgangssystems auch eine Lösung des umgeformten Systems ist. Dann kann das Ausgangssystem nicht durch solche Umformungen aus dem umgeformten System zurück gewonnen werden; sonst müßte auch eine Lösung des Ausgangsystems sein. Die obigen Umformungen können also nicht umkehrbar sein.
'
'
II Lineare Gleichungssysteme
8
II.2
Zusammenfassung der gefundenen Einsichten
1. Manche lineare Gleichungssysteme sind eindeutig lösbar, oder mit anderen Worten, es gibt eine Lösung, und diese ist durch das Gleichungssystem eindeutig bestimmt. 2. Manche lineare Gleichungssysteme, auch solche mit z. B. 3 Gleichungen und 3 Unbekannten haben mehrere Lösungen, nämlich eine einparametrige Schar. 3. Manche haben gar keine Lösungen, auch wenn nicht mehr Gleichungen als die Zahl der Unbekannten zu erfüllen sind. 4. Die prinzipielle Idee zur Lösung eines linearen Gleichungssystems ist, ein lineares Gleichungssystems in ein einfacheres umzuformen, aus dem die Lösungen leicht ablesbar sind. Dann sollten die Umformungen umkehrbar sein, damit die Lösungen des umgeformten Systems auch die Lösungen des Ausgangsystems sind.
II.3
Präzisierung und Kennzeichnung der Begriffe
Wir schreiben eine lineare Gleichung mit (LG)
Unbekannten meist in der Standardform:
- 8 8 < &&& ,
' 8 ' ' '
bei der die Summanden, die die Unbekannten enthalten, links und das konstante Glied rechts stehen. ist eine feste natürliche Zahl. Die festen Zahlen heißen die Koeffizi enten der linearen Gleichung. Bei Zahlen denken wir an reelle Zahlen, wenn gleich auch andere Zahlenbereiche in Frage kommen, die später besprochen werden. Die Symbole heißen die Unbekannten, sie werden auch Unbestimmte genannt. Das konstante Glied heißt auch der inhomogene Koeffizient oder der inhomogene Bestandteil. Eine lineare Gleichung heißt homogen, falls ist. Ein System von ( eine natürliche Zahl) linearen Gleichungen schreiben wir in der Form
(LGS)
8 8 & & 8 . 8 8 8 & & 8 .. 8 8 &&
Unter Verwendung des Summenzeichens:
8
' 8' '
< ' ' ' '
Der erste Index von und der Index von beziehen sich also auf die -te Gleichung. Der
zweite Index ist der Summationsindex.
II.4 Eliminationsverfahren mit System
9
$
. Eine Lösung besteht aus Zahlenwerten für die Symbole ' 8 ' ' , sodaß beim Ein setzen dieser Zahlenwerte in das Gleichungssystem (gültige) Gleichungen zwischen Zahlen entstehen. Dabei kommt es offenbar auf die Reihenfolge der Zahlenwerte an. Zahlenwerte ' 8 '#' ' in einer bestimmten Reihenfolge heißen ein -tupel von Zahlen. Ein -tupel von Zahlen wird mit ': 8 '' ' bezeichnet, also durch runde Klammern. Ana log: Ein -tupel von Unbekannten '5 8 ' '5 . Zwei -tupel sind gleich, wenn das -te Element des einen -tupels gleich dem -ten Element des anderen -tupels ist für alle ; z. B. '5 8 ' ' 1 ' 8 ' ' ' bedeutet: Es wird 1 ' ': 1 gesetzt. Spezialfälle: ;1 ' 8 2-tupel = (geordnetes) Paar 1 ' 8 ' 3-tupel = (geordnetes) Tripel Ein lineares Gleichungssystem ist eindeutig gekennzeichnet durch die Tabelle der Koeffizien ten und durch die inhomogene Spalte : Z. B. ist beim Leontief-Modell
8 & & 8 8 & & 8 &&
.. 8 .
und für
8
So eine Tabelle wird in der Mathematik eine Matrix mit eine -Matrix. ist also die Koeffizienten-Matrix. Die
-Matrix
51
.. 8 .
8 & & 8 8 & & 8 &&
5
8
.. 8 .
Zeilen und
8
Spalten genannt, kurz
heißt erweiterte Matrix des linearen Gleichungssystems.
' 8 '*&&-' '
Den Umformungen des linearen Gleichungssystems entsprechen Umformungen der erweiterten Matrix; z. B. der Multiplikation der -ten Gleichung mit einer Zahl die Multiplikation der -ten Zeile mit . Wir sparen viel Schreibarbeit, wenn wir statt des Gleichungssystems nur noch hinschreiben!
II Lineare Gleichungssysteme
10
II.4 4.1
Eliminationsverfahren mit System
Definition elementarer Umformungen
Mit bezeichnen wir die -te Zeile von , mit die -te Spalte von . Eine elementare ZeilenTransformation (einer Matrix) ist eine Transformation eines der folgenden Typen, wobei wir eine Zeile der umgeformten Matrix mit einem Strich versehen:
' ZII. Addition eines Vielfachen einer (etwa der -ten) Zeile zu einer anderen Zeile (etwa der -ten). ' Symbolisch:
ZIII. Vertauschen zweier Zeilen, etwa der -ten und der -ten. Symbolisch: ' oder .
ZI. Ersetzen einer (etwa der -ten) Zeile durch ihr -faches, für eine Zahl Symbolisch:
Dabei bleiben jeweils die übrigen Zeilen ungeändert. Beachte: Zeilenumformungen von
und Gleichungsumformungen entsprechen einander !
Analog können auch Spaltenumformungen definiert werden. 4.2
Umkehrbarkeit elementarer Umformungen
Elementare Umformungen sind durch elementare Umformungen umkehrbar und ändern folglich die Lösungsmenge nicht.
Zu ZII:
Zu ZIII: Nochmals und vertauschen macht die Vertauschung rückgängig.
Denn:
Zu ZI:
4.3
Die Auswirkung einer Spaltenvertauschung
Der Übersichtlichkeit halber verwenden wir auch eine elementare Spaltenumformung, nämlich die Vertauschung zweier Spalten der Koeffizientenmatrix, sagen wir der -ten und der -ten.
Symbolisch:
Wohlgemerkt, nur Spalten der Koeffizientenmatrix werden vertauscht; auf keinen Fall wird die inhomogene Spalte mit einer Spalte der Koeffizientenmatrix vertauscht.
II.4 Eliminationsverfahren mit System
11
Dabei ändert sich die Lösungsmenge, jedoch in kontrollierter Weise und zwar so, daß die -te und die -te Unbekannte vertauscht werden. Sind die Lösungen des transformierten Systems gefunden, erhalten wir die Lösungen des Ausgangssystems, indem wir alle Variablenvertauschungen in umgekehrter Reihenfolge rückgängig machen. 4.4 Gauß-Verfahren 4.4.1 Erster Eliminationsschritt 1. Unbekannte eliminiert. Genauer:
Aus allen Gleichungen bis auf die 1. Gleichung wird die
1. Sind alle Koeffizienten null, haben wir bereits eine einfache Gestalt und formen nicht weiter um. 2. Besteht die erste Spalte nur aus Nullen, so vertauschen wir die erste Spalte mit einer Spalte von (nicht mit der inhomogenen Spalte), die nicht aus lauter Nullen besteht. 3. Durch eine Zeilenvertauschung erreichen wir, daß der (1,1)-Koeffizient (der Koeffizient in der 1. Zeile und 1. Spalte) ungleich null ist. 4. Wir führen nacheinander die folgenden elementaren Umformungen durch: insbesondere: insbesondere:
8 8 8 . ' 8 %1 8 * . ' % 1
8 8 - 8 8 . - .
.. .
' 51 insb.: * *
Dies wird Ausräumen der ersten Spalte unterhalb des (1,1)-Koeffizienten genannt; denn dort stehen nach diesen Umformungen Nullen, d. h. die erste Unbekannte kommt in der 2. bis -ten Gleichung nicht mehr vor.
4.4.2 Zweiter Eliminationsschritt Jetzt überlegen wir uns, welche der dem 1. Schritt entsprechenden elementaren Umformungen nötig sind, um in der Teilmatrix
88 .. 8 . 8
8 8
8 & & & & &&
die Koeffizienten unterhalb des (2,2)-Koeffizienten auszuräumen. Wir führen die dazu nötigen Umformungen jedoch mit der ganzen Matrix durch. Da die erste Spalte schon ausgeräumt war und wir nur Spalten und Zeilen von Index umformen, ändert sich dabei nichts an den Nullen unterhalb des (1,1)-Koeffizienten.
II Lineare Gleichungssysteme
12
4.4.3 Die weiteren Schritte In entsprechender Weise können wir so lange fortfahren, bis die dann zu betrachtende, nicht erweiterte Untermatrix nur aus Nullen besteht oder keine Untermatrix mehr übrig bleibt, weil wir in der letzten Zeile oder Spalte von schon angekommen waren. Damit haben wir folgendes Ergebnis bekommen. 4.4.4 Satz über die Gauß-Elimination Durch elementare Umformungen vom Typ ZI, ZII, ZIII und SIII kann die erweiterte Matrix eines linearen Gleichungssystems in eine sogenannte Stufenmatrix umgeformt werden, d. h. in eine Matrix der Form
8 &. & . 8 8 ... .. . . . . ... . . && .. .. && für ' ' ' und Dabei ist
. & & .. .. .. . . && && . . && .. .. && Min '
.
. .
. . .. ..
.. .. .
.. .. .
Diese Transformation heißt Gauß-Elimination.
/ ' ' 5 ' '' 1 Beweis: Die -te Gleichung lautet für
,- 8 <&&& 1. Gibt es eine Lösung ' 8 ' ' , so erhalten wir für
5 ' '' durch Einsetzen die Zahlengleichung, 8 && ' die nur bestehen kann, wenn ist. 2. Ist umgekehrt für alle ' ' , so sind die letzten 7 Gleichungen
4.4.5 Satz über die rekursive Auflösung bei Stufenform Das lineare Gleichungssystem (LGS) ist dann und nur dann lösbar, wenn alle inhomogenen Bestandteile sind für . Alle Lösungen finden wir durch rekursive Auflösung wie unten im 2. Teil des Beweises geschildert wird.
die „Nullgleichungen“, also immer erfüllt. Es bleiben die ersten Gleichungen und diese sind äquivalent mit:
.. .
8
8
II.5 Hinweise auf numerische Probleme
13
Hierbei sind die Unbekannten mit bezeichnet, weil sie mit den ursprünglichen nur noch bis auf Vertauschungen übereinstimmen.
' '
Setzen wir auf den rechten Seiten mit beliebigen Zahlen , so stehen auf der rechten Seite der -ten Gleichung keine Unbestimmten mehr und es läßt sich aus der -ten Gleichung eindeutig berechnen:
' ' 3 & & Indem wir den für berechneten Wert in die -te Gleichung einsetzen, können wir mit der -ten Gleichung analog verfahren. So fahren wir fort mit der -ten Gleichung bis zur 1. Gleichung. Dabei berechnen wir also die '' rekursiv d. h. nacheinander, mit anderen Worten, wir lösen die Gleichungen von unten nach oben auf. Wir erhalten eine -parametrige Schar von Lösungen mit beliebigen Parametern ' ' .
4.5
Gauß-Jordan-Verfahren
' '
Bei diesem Verfahren wird die Stufenmatrix noch weiter umgeformt. Zunächst multiplizieren wir die -te Zeile für mit und erreichen, daß an Stelle von eine 1 steht. Anschließend räumen wir die 2. bis -te Spalte auch oberhalb der Einsen mit Hilfe von Zeilenoperationen vom Typ ZII aus. Wir erhalten eine Matrix der Form
&& . . .. . . ... .... .. .. . . . . ... . . && . . .. .. .. .. &&
& & && && && &&
. .
. . .. ..
.. .. .
.. .. .
Diese Transformation heißt Gauß-Jordan-Verfahren. Dafür, daß beim Gauß-Jordan-Verfahren mehr elementare Transformationen durchgeführt werden müssen, ist dann die rekursive Auflösung wesentlich einfacher. Im wichtigen Spezialfall von Gleichungen und Unbekannten und erhalten wir als erweiterte Matrix und als eindeutig bestimmte Lösung:
&& . .. . . .. . . ... .... .. .. . . .. &&
.8 .
.
=
..8 .
II Lineare Gleichungssysteme
14
II.5 5.1
Hinweise auf numerische Probleme Auswirkung von Datenfehlern
In praktischen Beispielen stammmen oft die Koeffizienten und aus Messungen und sind daher mit einem Meßfehler behaftet. Ein relativ kleiner Fehler in den Meßdaten kann bei manchen Koeffizientenmatrizen einen relativ großen Fehler bei den Lösungen eines linearen Gleichungssystems verursachen. Matrizen, bei denen dies nicht auftritt, heißen gut konditioniert. Tatsächlich kann die Kondition einer Matrix quantitativ erfaßt werden, wie uns die Numerische Mathematik lehrt. Mit den Kenntnissen von Linearer Algebra 1 kann dies z. B. nachgelesen werden bei Stoer: (4.4.12) S. 204 und (4.4.15) S. 205. 5.2
Auswirkung von Rundungsfehlern
Wenn wir bei jedem Eliminationsschritt gegebenenfalls Zeilen und Spalten vertauschen, haben wir die Wahl, mit welcher Zeile bzw. Spalte wir die erste Zeile bzw. Spalte vertauschen wollen. Dreh- und Angelpunkt (engl. pivot) der Eliminationsverfahren sind die Koeffizienten, die wir durch Zeilen- bzw. Spaltenvertauschungen in die obere linke Ecke der Teilmatrix bringen. Diese Koeffizienten heißen Pivotelemente oder kurz Pivots. Sie spielen eine Rolle, wenn Rundungsfehler klein gehalten werden sollen. Dies gelingt häufig dadurch, daß ein betragsmäßig größtes Element in der betreffenden Zeile bzw. Spalte als Pivot gewählt wird (Stoer 4.5, S. 208). Unter Zeilenpivotierung verstehen wir dabei, daß die Pivots nur zeilenweise gesucht werden, bei Totalpivotisierung werden sie in der ganzen in Frage kommenden Teilmatrix betragsmäßig möglichst groß gesucht. Wird immer –so weit möglich– weder eine Zeilen- noch eine Spaltenvertauschung durchgeführt, d. h. mit anderen Worten, wird stets das schon in der linken oberen Ecke stehende Element als Pivot genommen, so sagen wir, daß wir ohne Pivotisierung arbeiten. Wenig Probleme entstehen in diesem Zusammenhang, wenn die Matrix equilibriert ist oder in einer bestimmten Weise in eine equilibrierte Matrix umgeformt werden kann. Dabei bedeutet equilibriert, daß die Summe der Beträge der Elemente für jede Zeile und jede Spalte der Größenordnung nach etwa gleich sind (Stoer S. 208ff).
III.1 Von der algebraischen Struktur der Menge der -tupel reeller Zahlen
15
III Gruppen, Vektorräume, Körper
III.1
Von der algebraischen Struktur der Menge der -tupel reeller Zahlen
In Kapitel II haben wir intuitiv Gleichungen addiert. Die Erklärung der Addition von linearen Gleichungen und der Multiplikation einer linearen Gleichung mit einer reellen Zahl lautet folgendermaßen: 1.1
Definition
Lineare Gleichungen werden addiert, indem die entsprechenden Koeffizienten und die inhomogenen Bestandteile addiert werden. Eine lineare Gleichung wird mit einer reellen Zahl multipliziert, indem jeder Koeffizient und auch der inhomogene Bestandteil mit der Zahl multipliziert werden. Im folgenden haben wir diese Operationen mit linearen Gleichungen übertragen auf Operationen mit den Zeilen der erweiterten Matrix . Dies führt auf folgenden Begriff von Operationen mit -tupeln reeller Zahlen. Im folgenden meinen wir mit einem -tupel stets ein -tupel reeller Zahlen und mit Zahl eine reelle Zahl. 1.2
Definition
Die Summe von zwei -tupeln und ist definiert durch: Die Multplikation eines -tupels mit einer Zahl ist definiert durch:
1.3
= = := = :=
' 8 ' ' ' 8 ' ' - ' 8 8 ' ' ' ' ' # 8 ' 8 ' '
Eigenschaften
' '
.'
Durch die Addition von -tupeln ist einem Paar von -tupeln ein eindeutig bestimmtes -tupel zugeordnet, das wir mit mit
' ' , '' und ;
1. Sind Assoziatives Gesetz: 3
A. Riede: Lineare Algebra 1, WS 99/00
' '
' ' und bezeichnen . -tupel, so gilt das
III Gruppen, Vektorräume, Körper
16
'
'
2. Es existiert ein neutrales -tupel, d. h. ein mit . ist für alle -tupel , nämlich
bezeichnetes -tupel, so daß
' ' ein entgegengesetztes -tupel, d. h. ein mit : : ist, nämlich : ' ' . für alle -tupel und . 4. Kommutatives Gesetz: ; 5. Assoziatives Gesetz der Multiplikation mit Zahlen: Für beliebiges -tupel und beliebige ' gilt: Zahlen - 6. Distributive Gesetze: # # #; '. für beliebige -tupel .' und beliebige Zahlen - 7. für alle -tupel , wobei 1 die reelle Zahl 1 ist. 3. Es gibt zu jedem -tupel bezeichnetes -tupel, so daß
III.2 2.1
Gruppen Definition
+' '
+'
und eine Zuordnung, die jedem Paar Gegeben sei eine Menge von Elementen von Elementen von eindeutig ein weiteres Element von zuordnet, das mit bezeichnet werde. Eine solche Zuordnung wird eine Verknüpfung genannt.
+'
Eine Gruppe ist eine Menge mit einer Verknüpfung, die folgende Eigenschaften hat:
für alle +' '
2. Existenz eines neutralen Elementes, d. h. eines Elementes mit der Eigenschaft für alle . 3. Existenz eines entgegengesetzten Elementes zu jedem Element , d. h. eines mit bezeichneten Elementes, so daß
/ ist. Diese drei Eigenschaften sind die Grundeigenschaften von Gruppen, die Gruppenaxiome. Eine Gruppe ist also ein Paar ' , bestehend aus einer Menge und einer Verknüpfung , so daß 1. Assoziativität:
die Gruppenaxiome gelten. In der Bezeichnung wird oft die Verknüpfung nicht erwähnt und eine Gruppe einfach mit bezeichnet, also dem selben Symbol wie die Menge ! Gilt zusätzlich:
/
1. Kommutativität:
für alle
+' '
so heißt die Gruppe kommutativ, additiv oder abelsch.
III.3 Permutationsgruppen und etwas Mengenlehre 2.2
17
Beispiele
' ' ' ' ' sind abelsche Gruppen. ' ' '
sind keine Gruppen ! Die Menge der -tupel mit der in 1.2 auf Seite 15 definierten Addition von -tupeln ist eine abelsche Gruppe.
III.3 3.1
Permutationsgruppen und etwas Mengenlehre Mengen
Der Begriff der Menge4 wird nicht weiter erklärt sondern als ein Grundbegriff genommen, der eine Gesamtheit von Dingen bezeichnet, die man die Elemente der Menge nennt. Ist ein Element einer Menge , so schreiben wir dafür: .
Das kartesische Produkt zweier Mengen ' ist die Menge: 1 )' ' , und von endlich vielen Mengen ' 8 ' ' : 8 && 1 ' 8 '' ' ' ' ' 1 && -mal der Faktor ,
z.B.
3.2
1 &&
-mal der Faktor .
Abbildungen
Auch der Begriff Abbildung einer Menge nach einer Menge wird als ein nicht weiter zu erklärender Grundbegriff genommen und als eine Zuordnung verstanden, die jedem Element eindeutig ein Element zuordnet. bedeutet „ ist eine Abbildung von nach “. Ist und so bedeutet , daß in abbildet, anders ausgedrückt , daß das Bild oder der Wert von bei der Abbildung ist, oder, daß die Anwendung von auf das ergibt.
)1 51
1 bei definiert
Beispiel: Eine Verknüpfung auf einer Menge ist nichts anderes als eine Abbildung . Für eine Teilmenge von durch
,
wird das Bild oder die Bildmenge von
1 Urbild oder Urbildmenge von bei . Ist , so heißt 1 1 heißt oder eine Abbildung auf 1"! Zu jedem # gibt es ein surjektiv mit . ([französisch] sur = auf !) Oder äquivalent: besteht aus mindestens einem Element für alle . 4
Mehr Details s. Rolf Walter, Anhang, S. 254ff.
III Gruppen, Vektorräume, Körper
18
1 heißt injektiv 1 ! oder äquivalent: besteht aus höchstens einem Element für alle . 1 heißt bijektiv 1 ! ist injektiv und surjektiv oder äquivalent: besteht aus genau einem Element für alle . Ist bijektiv, dann ist durch die Festsetzung, daß jedem das einzige Element zugeordnet wird, eine Abbildung definiert; sie heißt die Umkehrabbildung von und wird mit bezeichnet. Eine bijektive Selbstabbildung einer Menge, $1 , heißt eine Permutation von oder eine Vertauschung der Elemente von . Eine Permutation der Menge ' ' bezeichnen wir mit einer Werte-Tabelle: Die Identität oder identische Selbstabbildung von , Id Id 1 , ist diejenige, die jedem als Wert wieder das zuordnet. Sind ' ' Mengen und Abbildungen 1 und 1 gegeben, so wird die Komposition (Hintereinanderausführung)
1 von und durch 1 definiert. Abb ' bezeichne die Menge aller Abbildungen von nach . Der Kringel stellt eine Abbildung dar:
1 Abb '
Abb
<'
Abb
' ' 1 ' 3
Es gilt:
* für jede weitere Menge 2. Id 3. Id Id für bijektives . 4.
1.
und jede weitere Abbildung
1
Aus diesen Punkten folgt: 3.3
Satz
Die Menge der Permutationen einer Menge zusammen mit der Hintereinanderausführung als Verknüpfung bildet eine im allgemeinen nicht abelsche Gruppe.
III.5 Vektorräume
III.4
19
Folgerungen aus den Gruppenaxiomen
Für eine Gruppe gilt:
2. Entsprechend ist ein rechts-neutrales Element stets auch links-neutral, d. h. aus . folgt
1. Genauer sollte in der Definition einer Gruppe ein Element rechts-Inverses genannt werden; jedoch folgt aus den Gruppenaxiomen, daß ein rechts-Inverses immer auch links-Inverses ist (und umgekehrt), d. h. , daß mit stets auch gilt.
3. Es gibt nur ein neutrales Element. 4. Zu jedem
gibt es nur ein inverses Element.
'8' ' / 8 % /1 % 8 && / : Das Produkt mit einem Faktor ist das Element Induktionsbeginn etwa bei
5. Aus dem axiomatisch gegebenen Produkt von Paaren erhalten wir durch induktive Definition das Produkt eines -tupels von Gruppenelementen für .
' ' '
selbst.
Es gilt dann ein verallgemeinertes Assoziativ-Gesetz, das besagt, daß in dem Produkt von -tupeln nach Belieben Klammern gesetzt werden können. Zwischenbemerkung: Entsprechend sind andere „Pünktchen-Objekte“ induktiv definiert ! 6.
III.5 5.1
für jedes
.
Vektorräume Definition
Ein reeller Vektorraum besteht aus 1. einer Menge 2. einer Verknüpfung auf
, die Vektor-Addition genannt wird, und
3. einer zweiten eindeutigen Zuordnung, genannt Skalarenmultiplikation,
' -' &
.'
für
Erläuterung: Der Abbildung eines Paares ist mit Multiplikation ansehen.
'
.
haben wir keinen Namen gegeben. Das Bild bezeichnet worden, weil wir die Zuordnung als eine Art
III Gruppen, Vektorräume, Körper
20 Es müssen folgende Vektorraumaxiome gelten: Für die Addition die Axiome einer abelschen Gruppe.
Für die Skalarenmultiplikation die Assoziativität (Eigenschaft 5 in III.1 auf Seite 15) und die Neutralität der Multiplikation mit der Eins des Körpers (Eigenschaft 7 in III.1 auf Seite 15).
Die distributiven Gesetze 6 wie in III.1 auf Seite 15 bei -tupeln. Die Elemente von 5.2
heißen Vektoren von
.
Beispiele
Einen Vektorraum bilden: 1. Die -tupel reeller Zahlen 2. Lineare Gleichungen in
Unbekannten.
3. Lösungen homogener linearer Gleichungsysteme 4. Geometrische Vektoren der Ebene oder des Raumes 5. Folgen reeller Zahlen 6. Lösungen homogener linearer Differentialgleichungen 7. Reelle Funktionen 8. Polynome 5.3
Folgerungen aus den Vektorraumaxiomen
Sei
ein Vektorraum über . Dann gilt:
für alle , wobei links das Nullelement des Körpers Nullvektor, das neutrale Element der Vektor-Addition, steht. für und den Nullvektor 0 2. 3. & # für '* 1.
und rechts der
5.4
Vektorraum über einem Körper
Allgemeiner können wir statt der reellen Zahlen einen anderen Körper als Skalarenkörper verwenden und erhalten den Begriff eines Vektorraumes über dem Körper .
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 5.5
21
Definition
Eine Menge zusammen mit zwei Kompositionen, genannt Addition und Multiplikation und mit + und bezeichnet, heißt ein Körper, falls gilt: 1. Bezüglich der Addition ist eine abelsche Gruppe. 2. Bezüglich der Multiplikation gilt:
# # für alle -' und b) Existenz eine neutralen Elementes 1 bezüglich der Multiplikation, genannt Einsele für alle ment oder Eins des Körpers: # bezeichnetes sogenanntes inverses gibt es ein mit c) Zu jedem mit Element von mit der Eigenschaft # für alle und d) Kommutatives Gesetz: # Insbesondere ist eine abelsche Gruppe. a) Assoziatives Gesetz:
3. Folgende beide Verknüpfungen betreffende Axiome gelten:
# für alle -' und b) Das neutrale Element der Addition 0 und das neutrale Element der Multiplikation 1 sind voneinander verschieden: a) Distributives Gesetz:
5.6
Aus der Analysis bekannte Beispiele
Ganze Zahlen bilden keinen Körper; nur 1 und
Reelle Zahlen, , rationale Zahlen, , komplexe Zahlen,
bilden einen Körper.
haben ein Inverses, jedoch sind alle anderen
Axiome erfüllt. 5.7
Folgerungen aus den Körperaxiomen
' für alle 2. 3. # oder 4.
1. Es gelten alle Folgerungen aus den Axiomen einer abelschen Gruppe für (vgl. III.4).
5
A. Riede: Lineare Algebra , SS 98/99 bis WS 01/02
' und
III Gruppen, Vektorräume, Körper
22
III.6
Anschauliche Geometrie und geometrisch anschaulicher Vektorraum
In diesem Abschnitt begeben wir uns auf die erste Etappe einer Rundwanderung von der ebenen Geometrie zum anschaulichen Vektorbegriff und wieder zurück zu einem anderen, dem analytischen Modell der Ebene. Die zweite Etappe von den Vektorräumen zurück zur analytischen Geometrie werden wir in Kapitel XIII auf Seite 155 zurücklegen. Es wird hier der Begriff einer Äuivalenzrelation an Beispielen betrachtet; eine systematische Behandlung steht in Abschnitt IV.4 auf Seite 36. 6.1 Die Anschaungsebene als affine Ebene 6.1.1 Punkte und Geraden Die Anschauungsebene besteht aus einer Menge von Punkten. Außerdem gibt es Geraden, das sind gewisse Teilmengen von Punkten. bezeichne die Menge aller Geraden.
+' bedeute, daß parallel
1! ist; , daß
6.1.2 Definition der Parallelität von Geraden Zwei Geraden heißen parallel Entweder ist
nicht parallel zu
oder
.
is.
Nach unserer Erfahrung hat die Anschauungsebene folgende Eigenschaften:
5'
:' bezeichnet.
(A1) Existenz einer eindeutigen Verbindungsgeraden . Für ist eindeutig und wird dann mit
+' '
6.1.3 Folgerung Schnittpunkt von und .
mit
besteht aus genau einem Punkt, dem
(A2) Dimension einer Geraden Jede Gerade besteht aus mehr als einem Punkt. Dies bedeutet, daß, wenn wir die Punkte als die nulldimensionalen Bausteine ansehen, eine Gerade mindestens eindimensional ist. (A3) Dimension der Ebene Die Ebene besteht aus mehr als einer Geraden. Dies bedeutet, daß, wenn wir die Geraden als die eindimensionalen Bausteine ansehen, die Ebene mindestens zweidimensional ist. (A4) Parallelität ist eine Äquivalenzrelation
D. h., es gelten die Bedingungen:
Reflexivität: Jede Gerade ist zu sich selbst parallel. Symmetrie: Ist
parallel zu , so auch
Transitivität: Ist parallel zu (A5) Parallelenaxiom
und
und
zu .
parallel zu , so auch
+
genau ein
zu .
mit
und
.
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum
23
Zur Formulierung der letzten Eigenschaft benötigen wir folgende Begriffe:
' 8'
' ' ' ' ' '- 8 '.8 ' ' '
6.1.4 Definition von paraller und perspektivischer Lage Zwei Dreiecke mit den und Ecken sind in paralleler Lage zueinander, wenn es drei verschie für dene parallele Geraden gibt mit . Sie sind in perspektifischer Lage, wenn es drei verschiedene Geraden gibt, die sich in einem sogenannten Zentrum schneiden, so daß wieder . für (A6) Parallelitätseigenschaft von Desargues Wenn bei zwei Dreiecken in paralleler oder perspektifischer Lage zwei entsprechende Seitenpaare parallel sind, so sind es auch die dritten Seitenpaare. Mit den Bezeichnungen von 6.1 auf der vorherigen Seite.4:
8 8 und
8
8 . B3
A3
g3
g2
B2
A2
B1
A1
g1
Abbildung 1: Die Desargues’sche Parallelitätseigenschaft
8
Diese Eigenschaft kann als eine Schließungseigenschaft angesehen werden: Wenn wir vorgehen wie in der Zeichnung und als letztes die Parallele zu durch ziehen, dann schließt sich die Figur im Punkt .
8
6.1.5 Definition einer affinen Ebene Eine Menge von Punkten und eine Menge von Geraden wie in 6.1 auf der vorherigen Seite.1 mit diesen sechs Eigenschaften (A1) bis (A6) heißt eine affine Ebene. 6.1.6 Bemerkung In der Tat kommt man mit zwei Axiomen weniger aus; denn (A2) und (A4) folgen aus den übrigen Axiomen. 6.1.7 Bemerkung Nach unserer Erfahrung ist die Anschauungsebene eine affine Ebene. Mit einer affinen Ebene haben wir also ein mathematisches Modell für die Anschauungsebene aufgestellt. Es ist ein einfaches Modell, weil es auf nur sechs Grundeigenschaften (Axiomen) fußt. Um Zeichnungen anzufertigen benötigen wir nur ein Lineal ohne eine Skala und einen beliebigen Winkel, auf dessen Winkelmaß es nicht ankommt. Es lassen sich aus diesem Modell nicht alle Eigenschaften ableiten, welche die Anschauungsebene sonst noch hat, aber es beschreibt genügend Eigenschaften, daß wir daraus den geometrisch anschaulichen Vektorraum herleiten können. Das ist im folgenden unser Ziel.
III Gruppen, Vektorräume, Körper
24
Abbildung 2: Zeichnerische Konstruktion der Parallelen
:'
6.2 Die additive Gruppe der geometrischen Vektoren 6.2.1 Definition einer gerichteten Strecke Ein geordnetes Punktepaar nennen wir eine gerichtete Strecke. „Geordnet“ bedeutet, daß festgelegt ist, welches der erste Punkt oder der Anfangspunkt und welches der zweite Punkt oder der Endpunkt ist. Hier ist also der Anfangspunkt und der Endpunkt. Wir lassen auch den Fall zu, daß ist; hier ist die Strecke zu einem Punkt zusammengeschrumpft.
Wir veranschaulichen uns eine gerichtete Strecke durch die Punkte zwischen und inklusive und . Unter gerichtet stellen wir uns vor, daß ein Durchlaufungssinn der Strecke gegeben ist —hier von nach . Dieser Durchlaufungssinn wird in einer Zeichnung angedeutet, indem wir am Endpunkt eine Pfeilspitze anbringen. Kurz, wir veranschaulichen uns eine gerichtete Strecke durch einen Pfeil, und weil wir uns eine gerichtete Strecke durch einen Pfeil veranschaulichen können, wollen wir für eine gerichtete Strecke auch die Bezeichnung Pfeil verwenden. Wir vermerken jedoch, daß für keine Argumentation der Begriff „zwischen“ verwendet werden muß, er dient nur der Veranschaulichung.
'
6.2.2 Definition von parallelen Pfeilen Sei ein Pfeil und parallele Pfeil mit Anfangspunkt wird wie folgt definiert:
'
ein Punkt. Der zu
und 5' 5' der parallele Pfeil . Für und ziehen wir die Parallele zu 1 durch ziehen wir die Parallele zu durch und setzen 1 . (Daß
1. Für 2.
5'
sei
1
einem Punkt besteht, folgt aus den vorstehenden Eigenschaften!)
. Außerdem aus genau
und wählen wir einen Hilfspunkt 1 . Dann sei ' der gemäß vorhergehendem Fall definierte zu ' parallele Pfeil mit Anfangspunkt . : ' sei dann der zu ' parallele Pfeil mit Anfangspunkt .
3. Für
Diese Konstruktion von
:'
ist unabhängig von der Wahl des Punktes
.
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum
25
Abbildung 3: Paralleler Pfeil
Abbildung 4: Die Wohldefiniertheit des parallelen Pfeiles durch
6.2.3 Satz
Parallelität von Pfeilen ist eine Äquivalenzrelation in der Menge aller Pfeile.
6.2.4 Definition und Repräsentierung eines geometrischen Vektors Eine Äquivalenzklasse paralleler Pfeile heißt ein geometrischer Vektor. Geometrische Vektoren bezeichnen
(' ' ' etc. Die Äquivalenzklasse eines Pfeiles 5' wird mit bezeichnet. Ein Pfeil 5' aus einer Äquivalenzklasse wird ein Repräsentant von genannt. Zu jedem geometrischen Vektor und jedem Punkt gibt es genau einen Repräsentanten 5' von mit Anfangspunkt . Diesen Repräsentanten :' von bezeichnen wir mit oder kurz, wenn aus dem Zusammenhang oder einer Zeichnung klar ist, was gemeint ist, mit dem gleichen Zeichen , mit dem wir auch den Vektor bezeichnen. Wir sagen, der Pfeil 5 ' ist der vom Punkt aus abgetragene Vektor ; ist also der Endpunkt des von aus abgetragenen Vektors . 6.2.5 Definition der Addition von Vektoren Seien (' zwei geometrische Vektoren. Wir wählen einen Repräsentanten 5 ' von und von den Repräsentanten mit Anfangspunkt
wir mit
III Gruppen, Vektorräume, Körper
26
Abbildung 5: Transitivität
5'
. Wenn wir den Endpunkt des letzteren mit bezeichnen, so ist also von . Dann sei die Äquivalenzklasse von .
1
für
und
' ein Repräsentant
Abbildung 6: Die Addition von Vektoren
Die Definition ist unabhängig von der Wahl von
5'
.
Abbildung 7: Die Unabhängigkeit von der Wahl von
6.2.6 Satz
5'
Mit dieser Definition der Addition bilden die Vektoren eine additive Gruppe.
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum
27
6.3 Skalare und Skalarenmultiplikation 6.3.1 Definition Wir wählen eine Gerade und zwei verschiedene Punkte fest aus. wird uns als Zahlengerade (Skalarengerade) dienen mit den Punkten als Nullpunkt und dem Punkt als Einselement einer noch zu definierenden Addition und Multiplikation der Skalaren. Wie bisher bezeichnen wir die Skalaren mit griechischen Buchstaben und definieren das -fache eines Vektors wie folgt:
#' #'
#&
'
von der in beginnt, liegt nicht in : Sei die 1. Fall: Der Repräsentant (eine) Gerade, in der liegt, die Parallele zur Geraden durch den Skalar und . Dann ist die Klasse von Pfeilen, die durch repräsentiert wird.
1
#'
Abbildung 8: Skalarenmultiplikation
#'
ist dann 2. Fall: liegt in . Wir wählen einen Hilfsvektor , so daß nicht in liegt. nach dem 1. Fall bereits definiert. Sei der Endpunkt von und der Endpunkt von durch und . Dann ist ein Repräsentant . Sei die Parallele zu von . Diese Definition hängt nicht von der Wahl des Hilfsvektors ab, wie mit der Desargues’schen Parallelitätseigenschaft bei perspektivischer Lage gezeigt werden kann.
Trage #
$1 %
6.3.2 Definition der Multiplikation von Skalaren von aus ab; der Endpunkt ist
.
.'
miteinander
6.3.3 Strahlensatz der Affinen Geometrie und seien zwei verschiedene Geraden, die sich in einem Punkt schneiden. Wir nehmen an, daß ist, andernfalls gehen wir zu einer parallelen Figur über. Seien , und . Sei ferner:
5' '
1 ' 1 ' 1
1 ' 1 ' 1
Dann ist das gleiche Vielfache von wie von und wie von . 6.3.4 Erstes Distributives Gesetz Es gilt: (
III Gruppen, Vektorräume, Körper
28
Abbildung 9: Zum Strahlensatz
Abbildung 10: Zum ersten Distributiv-Gesetz
6.3.5 Definition der Addition von Skalaren
. Trage den Vektor vom Punkt aus ab; der Endpunkt des abgetragenen Vektors ist Anders ausgedrückt: Bilde zum Pfeil den parallelen Pfeil mit Anfangspunkt . Dann ist .
1
#'
6.3.6 Neutralität von Es gilt: Multiplikation von Skalaren miteinander,
-'
9 . Außerdem ist .
6.3.7 Assoziativität der Skalarenmultiplikation
Es gilt:
auch das Einselement der
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum
29
Abbildung 11: Zum Assoziativgesetz der Multiplikation von Skalaren mit Vektoren
6.3.8 Assoziativität der Multiplikation von Skalaren miteinander Es gilt:
Abbildung 12: Assoziativität der Multiplikation von Skalaren miteinander
6.3.9 Das Inverse struiert.
Das zu
inverse Element
wird wie in folgender Zeichnung kon-
Abbildung 13: Konstruktion des Inversen
6.3.10 Zweites Distributives Gesetz
Es gilt:
III Gruppen, Vektorräume, Körper
30
Abbildung 14: Zum zweiten Distributiv-Gesetz
6.3.11 Das Kommutativgesetz Das Kommutativgesetz der Multiplikation von Skalaren miteinander kann aus den bisherigen Axiomen nicht bewiesen werden; denn es gibt affine Ebenen, bei denen es verletzt ist. Z. B. , wenn der von William Rowan Hamilton 1843 entdeckte und nach ihm benannte nicht kommutative Körper der Quaternionen ist, dann kann als eine affine Ebene aufgefaßt werden (s. Abschnitt XIII.5 auf Seite 161). Der wie oben geometrisch konstruierte Körper ist wieder , also nicht kommutativ. Die Kommutativität kann geometrisch charakterisiert werden, und zwar folgendermaßen:
8
+' zwei verschiedene Geraden, die sich ' 8 ' ' ' 8 ' seien jeweils paarweise und und 8 8 8 8
(A7) Parallelitätseigenschaft von Pappos Seien in einem Punkt treffen. von verschiedene Punkte. Dann gilt:
B3
g
B2 B1 Z
A3
A2
A1
h
Abbildung 15: Parallelitätseigenschaft von Pappos und Kommutativität
6.3.12 Abschließende Bemerkung Die gegebene Definition einer affinen Ebene ist die sogenannte synthetische Definition. Die Ableitung eines Körpers und eines Vektorraumes über diesem Körper heißt Algebraisierung, der konstruierte Körper der Algebraisierungskörper. In Kapitel XIII auf Seite 155 wird zu einem Vektorraum über einem Körper ein affiner Raum definiert. Diese analytische Definition eines affinen Raumes führt zur Analytischen Geometrie.
IV.1 Linearkombinationen
31
IV Lineare Abhängigkeit Im folgenden ist
IV.1 1.1
stets ein Vektorraum über einem festen Körper .
Linearkombinationen Definition
. Dabei sei irgendeine Sei ein System (oder eine Familie) von Vektoren Menge, genannt Indexmenge des Systems. Jedem Element, d. h. Index, ist also eindeutig ein Vektor zugeordnet.
Ein Ausdruck der Art
mit
heißt eine Linearkombination des Systems. Für einen Vektor
mit
heißt die Gleichung
' ' '
eine lineare Darstellung von durch das Systems. Ein heißt linear darstellbar durch das System, wenn eine lineare Darstellung existiert. Das wichtigste Beispiel ist . Dann ist ein System nichts anderes als ein -tupel von Vektoren. In das allgemeine Konzept kann auch der Fall eingebaut werden, daß eine unendliche Menge ist; es muß nur zusätzlich verlangt werden, daß nur endlich viele in einer Linearkombination verschieden von null sein dürfen, damit die Summe einen Sinn macht.
1.2
Definition
Ein System wie oben heißt linear abhängig, wenn der Nullvektor eine lineare Darstellung durch das System besitzt, in der nicht alle sind, eine sogenannte nicht triviale lineare Darstellung des Nullvektors.
Andernfalls heißt das System linear unabhängig; in anderen Worten, wenn stets aus folgt für alle . Oder äquivalent: Der Nullvektor ist nur auf eine Weise (die triviale Weise, die es immer gibt) durch das System linear darstellbar.
1.3
Kriterium
ist linear abhängig.
!
Ein
läßt sich durch die anderen
linear darstellen.
IV Lineare Abhängigkeit
32 1.4
Beispiele
, so ist das System linear abhängig. 2. Zwei Vektoren ' 8 (= Vektorraum der 1-tupel) sind immer linear abhängig. 3. Sind zwei der gleich, so ist das System linear abhängig. 1. Ist ein
4. Ist ein Teilsystem linear abhängig, so auch das ganze System.
! . ' 8 0 1 0 ' 0 1 0/ 0 6. Die Funktionen ' 8 ' mit 0 1 unabhängig im Vektorraum der Funktionen )1 .
5. Ein einzelner Vektor ist linear abhängig
IV.2 2.1
sind linear
Erzeugendensystem, Basis Definition
Können wir jedes von .
durch
linear darstellen, so heißt
ein Erzeugendensystem
Gibt es ein endliches Erzeugendensystem, d. h. eines mit endlicher Indexmenge , dann heißt endlich erzeugt. Ein linear unabhängiges Erzeugendensystem von 2.2
Satz
Ist
endlich erzeugt, so gibt es eine Basis von
2.3
Beispiel
aus
.
.
' ' für ' ' ' , der Vektorraum der -tupel von Skalaren 8 , hat die Basis: ' 8 ' ' 1 ' ' ' ' ' ' ' ' ' ' ' ' ' '
Sie heißt kanonische Basis von 2.4
heißt eine Basis von
.
1. Basiskriterium
Sei . Ein Erzeugendensystem von Jeder Vektor ist eindeutig durch
Basis ! linear ist eine darstellbar.
IV.3 Unterräume 2.5
33
Definition
' ' ' . ' ' ' '
Sei eine Basis von und , Dann heißen die eindeutig bestimmten Vektoren und die Skalaren die Koordinaten von
2.6
' ' ' '
die Komponenten von bezüglich der Basis .
2. Basiskriterium
!
Ein System ist eine Basis ist ein maximales System von linear unabhängigen Vektoren von . „Maximal“ heißt: Nach Hinzunahme irgendeines weiteren Vektors wird das System linear abhängig.
2.7
Austauschsatz von Steinitz
' ' '
' ' eine Basis von . Sei Sei für '' ' +' ' ' ebenfalls eine Basis von . Es ist
sei endlich erzeugt und ein . Dann ist dabei „ durch ausgetauscht.“
2.8
Verschärfter Austauschsatz von Steinitz
'' sei eine Basis von und ' ' linear unabhängige Vektoren von . Dann ist und es gibt der Vektoren '' , die mit '' bezeichnet seien, so daß ' ' ' ' ' eine Basis von ist. Es lassen sich also geeignete durch ' ' austauschen, so daß das System eine Basis bleibt.
2.9
Basisergänzungssatz
In einem endlich erzeugten Vektorraum zu einer Basis ergänzen.
2.10
läßt sich jedes System linear unabhängiger Vektoren
Satz und Definition
Für einen endlich erzeugten Vektorrraum
gilt:
Alle Basen haben die gleiche Anzahl von Vektoren. Unter Dim( ), der Dimension eines endlich erzeugten Vektorraumes Vektoren einer Basis verstanden.
, wird die Anzahl der
IV Gruppen, Vektorräume, Körper
34 2.11
Konvention: Dim(
IV.3
Unterräume
3.1
Definition
Ein Vektorraum
über heißt ein Untervektorraum von
1. Jeder Vektor von
ist auch Vektor von
, d. h.
1 ! und
2. die Summe von Vektoren von und das Produkt von Skalaren mit Vektoren von Vektorraum dasselbe wie im Vektorraum .
ist im
Gilt , so wird ein echter Unteraum von genannt. Wenn keine Verwechslungen entstehen können sprechen wir auch kurz von einem Unterraum. 3.2
Satz und Definition
sei eine nicht leere Teilmenge von
.' ; 2. '
1.
mit folgenden Eigenschaften:
Dann ist zusammen mit der Vektoraddition und Skalarenmultiplikation von auf Elemente von angewendet werden, ein Untervektorraum von .
Die beiden Bedingungen werden Abgeschlossenheit der Teilmenge und Skalarenmultiplikation von genannt. 3.3
Definition und Satz
, die aber nur
bezüglich der Addition
von Vektoren von . Dann wird 1 ' alle bis auf endlich viele Ausnahmen bezeichnet. die lineare Hülle von genannt und mit erfüllt die Bedingungen 3.2 und ist deswegen ein Untervektorraum von .
Gegeben sei ein System
3.4
Bemerkung
ist der kleinste Untervektorraum, der alle '
enthält.
IV.3 Unterräume 3.5
35
Beispiel
3.6
, falls
ein Erzeugendensystem von
ist.
Satz
Sei ein Untervektorraum des endlich erzeugten Vektorraumes erzeugt.
3.7
Ist
. Dann ist auch
endlich
Satz Untervektorraum des endlich erzeugten Vektorraumes Dim
Das Gleichheitszeichen gilt dabei genau dann, wenn
3.8
Dim
, dann gilt:
ist.
Durchschnitt
Sind und Untervektorräume von , so bildet der Durchschnitt, , der aus allen Vektoren besteht, die sowohl zu als auch zu gehören, einen Untervektorraum von . 3.9
Verbindungsraum oder Summe
*
/ '
3.10
Direkte Summe
Sind und und , Vereinigung,
'
' 8 8 ', wenn ' 8 8 8 8 .
von Ein Unteraum von heißt direkte Summe der Unterräume und jeder Vektor eine eindeutige Darstellung der Form hat. Ist direkte Summe von , so bezeichnet man auch mit
3.11
Untervektorräume von , so heißt die lineare Hülle der Vereinigung von , der Verbindungsraum oder die Summe von und ; dabei besteht die , aus allen Vektoren, die zu oder zu gehören. Es ist . Daher der Name „Summe“ und die Bezeichnung .
'
8
Satz
ist direkte Summe von
und
8 !
.
8
und
8 .
IV Gruppen, Vektorräume, Körper
36 3.12
Dimensionsformel
und es gilt :
Dim 3.13
Dim $ Dim
seien endlich erzeugte Unterräume von
Dim
. Dann ist auch
endlich erzeugt und
Beispiele
1. Alle Polynome bilden einen Untervektorraum des Vektorraumes aller Funktionen
2. Polynome vom Grade ( feste natürliche Zahl) bilden einen Untervektorraum des Vektorraumes aller Funktionen mit der Basis ist für
IV.4
1
-dimensionalen &' ' ' , wobei
' ' Der Vektorraum der Polynome ist nicht endlich erzeugt, erst recht nicht der Vektorraum aller Funktionen 1 .
Äquivalenzrelationen und Quotientenräume
Wer keine Schwierigkeiten mit der mehr intuitiven Verwendung von Äquivalenzklassen in Abschnitt III.6 auf Seite 22 hatte, kann diesen Abschnitt erst einmal überspringen. In Beispiel 3.2 auf Seite 72 und in Abschnitt IX.8 auf Seite 104 wird erklärt, wozu der Begriff eines Quotientenraumes nütze ist und wo er vorkommt. 4.1 Äquivalenzrelationen 4.1.1 Der Begriff einer Relation besteht eine bestimmte Beziehung oder Relation, wenn beide Zwischen zwei Elementen Elemente zusammen eine gewisse Eigenschaft erfüllen. Zum Beispiel besteht eine geschäftliche Beziehung zwischen zwei Personen, wenn Sie miteinander beruflich zusammenarbeiten. Dies ist also keine Eigenschaft eines Partners allein, sondern von beiden zusammen, von der Gesamtheit beider.
.'
Daß Vater von ist, läuft auch wieder auf eine Eigenschaft beider hinaus. Wir sehen an diesem Beispiel, daß es auf die Reihenfolge von und ankommen kann. Um eine solche Beziehung einzubeziehen, müssen wir als die Gesamtheit von und nicht die Menge ansehen, sondern das (geordnete) Paar .
.'
6
A. Riede: Lineare Algebra, WS 98/99 bis WS 01/02
.'
IV.4 Äquivalenzrelationen und Quotientenräume
.'
37
Um eine Relation genau zu erklären, kommt es außerdem darauf an, anzugeben, aus welcher Menge die Dinge etc. genommen werden.
.'
Dann ist aber eine Beziehung zwischen zwei Dingen nicht anderes als eine Eigenschaft von Elementen des kartesischen Produktes . Der Begriff „Eigenschaft“ wird dabei als ein Grundbegriff genommen und nicht weiter erklärt als dadurch, daß von jedem Element von eindeutig feststehen muß, daß die Eigenschaft entweder erfüllt ist oder nicht.
.'
+
Dafür, daß die Eigenschaft besitzt, wird die Funktionsschreibweise Operatorschreibweise verwendet.
.'
.'
oder die
4.1.2 Beispiele aus der Linearen Algebra
1. Isomorphie von Vektorräumen über einem festem Körper .
'
und
für
'
' ,
eine Menge von Vektorräumen
eines -dimensionalen reellen Vektorraumes. Zwei 2. Gleiche Orientiertheit von Basen Basen heißen gleich orientiert, wenn sie durch eine Basistransformation mit positiver Determinante auseinander hervorgehen.
'
3. Äquivalenz von Matrizen: Zwei -Matrizen ( ein Körper) heißen äquivalent, wenn es eine reguläre Matrix und eine reguläre Matrix gibt mit
'
4. Ähnlichkeit von Matrizen: Zwei -Matrizen ( ein Körper) heißen ähnlich oder konjugiert zueinander, wenn es eine reguläre Matrix gibt mit
1!
5. Konjugiertheit von Endomorphismen (:= linearen Selbstabbildungen eines Vektorraumes ): konjugiert ein Automorphismus von (ein Isomorphismus von mit sich selbst), so daß gilt:
Diese Beispiele haben die folgenden Eigenschaften und sind daher Äquivalenzrelationen.
+ +.' +.' '
4.1.3 Eigenschaften von Relationen Eine Relation auf der Menge heißt reflexiv symmetrisch transitiv
1! 1!
1!
gilt gilt gilt
1 + 1 + 1 + und
+
IV Gruppen, Vektorräume, Körper
38
4.1.4 Definition von Äquivalenzrelation und Äquivalenzklasse Eine Relation auf einer Menge , die diese drei Eigenschaften hat, heißt eine Äquivalenzrelation. Bei einer Äquivalenzrelation schreiben wir anstelle von und sagen dafür ist bei der Relation äquivalent zu . Meist wird die Kurzform verwendet , lies: „ äquivalent “, wenn klar ist, welche Relation gemeint ist oder wenn in einem Zusammenhang nur eine Relation betrachtet wird.
.'
, dann heißt die Menge aller zu äquivalenten Elemente die Äquivalenzklasse Ist von bezüglich . Die Äquivalenzklassse von wird auch mit oder mit bezeichnet. Jedes Element einer Äquivalenzklasse heißt ein Repräsentant der Äquivalenzklasse.
4.1.5 Satz über die Äquivalenzklassen Für eine Äquivalenzrelation auf der Menge
gilt:
1. Äquivalente Elemente haben dieselbe Äquivalenzklasse, d. h.:
2. Zwei Äquivalenzklassen sind entweder disjunkt oder stimmen überein.
3. Jedes Element liegt in genau einer Äquivalenzklasse. Oder mit anderen Worten: ist die disjunkte Vereinigung der verschiedenen Äquivalenzklassen. Hierfür wird auch gesagt: Die verschiedenen Äquivalenzklassen bilden eine Zerlegung oder Partition von .
4.1.6 Definition der Quotientenmenge Die Menge, deren Elemente die Äquivalenzklassen bezüglich einer Äquivalenzrelation auf einer Menge sind, heißt die Quotientenmenge von nach . Sie wird mit bezeichnet.
4.2 Quotientenräume 4.2.1 Gleichheit modulo einem Untervektorraum sei ein Vektorraum über einem festen Körper , und ein Untervektorraum von durch
. Dann ist
1 ! " eine Äquivalenzrelation auf definiert. Andere Formulierung: 1 ! so daß In Worten: und sind gleich bis auf Addition eines Vektors aus , wofür auch die Redeweise verwendet wird: „ modulo “ Wir veranschaulichen uns dies in der Anschauungsebene (oder euklidischen Ebene), in der ein fester Punkt als Nullpunkt und eine Gerade durch gewählt sind. Als geometrische Vektoren sehen wir die Pfeile an, die in beginnen. sei der Vektorraum der geometrischen Vektoren der Anschauungsebene und der Untervektorraum der Pfeile, die in liegen. Dann ist modulo ! Die Endpunkte der Pfeile und liegen auf einer zu parallelen Geraden.
IV.4 Äquivalenzrelationen und Quotientenräume
39
4.2.2 Äquivalenzklasse modulo einem Untervektorraum Die Äquivalenzklasse von , die auch Nebenklasse von modulo genannt wird, ist:
1 Im obigen Anschauungsbeispiel die Menge aller Pfeile, deren Spitze auf einer von
ab-
hängigen parallelen Geraden liegt.
und
4.2.3 Addition von Äquivalenzklassen modulo U Seien und zwei Äquivalenzklassen mod. , dann wählen wir Repräsentanten und definieren:
8
8
8 1
Diese Definition ist unabhängig von der Wahl der Repräsentanten! Dafür wird auch gesagt, die Addition von Äquivalenzklassen ist „wohldefiniert“. Da und , kann die Addition auch geschrieben werden in einer intuitiven Form, die allerdings nicht so deutlich macht, daß die Definition zunächst Repräsentanten benutzt:
$
oder
8
4.2.4 Skalarenmultiplikation von Äquivalenzklassen modulo U Für eine Äquivalenzklasse mod. wird definiert:
1 /'
Repräsentant von
Diese Definition ist unabhängig von der Wahl des Repräsentanten, die Skalarenmultiplikation von Äquivalenzklassen ist „wohldefiniert“. Anders aufgeschrieben:
(
oder
(
4.2.5 Definition und Satz über den Quotientenraum
' ' ein modulo . zuordnet. 2. Sei die Abbildung, die einem Vektor seine Äquivalenzklasse ist ein Vektorraum-Homomorphismus. Dann ist 1 3. Ist 1 eine lineare Abbildung mit , dann ist 1 mit 1 ; durch diese Gleichung ist eindeutig eine wohldefinierte lineare Abbildung mit
1. Ist die Äquivalenzrelation Kongruenz modulo U, dann ist Vektorraum über , der Quotientenraum oder Faktorraum von
bestimmt.
1
V Lineare Abbildungen und Matrizen
40
V Lineare Abbildungen und Matrizen
1
Wenn nichts anderes ausdrücklich gesagt wird, bezeichnen und in diesem Kapitel Vektorräume über und eine lineare Abbildung. Ab jetzt verstehen wir unter den Vektorraum der Spalten- -tupel. Auch eine Basis schreiben wir als eine Spalte von Vektoren. Eine Spalte schreiben wir aus drucktechnischen Gründen auch in der Form
V.1 1.1
.. 8 .
1 ''
lies: „
''
transponiert“
Beispiele und Definition Koordinatenzuordnung
' '
1
eine Basis eines Vektorraumes über . Ordnen wir jedem Vektor sein Sei Koordinaten- -tupel bezüglich der Basis zu, so erhalten wir eine Abbildung:
' '
' '
1 ' 1 '' ' wobei ist.
hat folgende Eigenschaften: Für alle .' gilt: 1.
2. d. h. ist eine surjektive Abbildung. 3.
4.
d. h. ist eine injektive Abbildung.
1.2
Definition
'
1 1!
Seien Vektorräume über . ist eine lineare Abbildung oder ein Homomorphismus von Vektorräumen Die folgenden Axiome für eine lineare Abbildung sind erfüllt:
Additivität: Homogenität:
für alle
.'
für alle
und alle
V.1 Beispiele und Definition 1.3
41
Beispiele
1. Die Nullabbildung
1
1
für alle
.
2. Obige Koordinatenzuordnung . 3. Sei
der Vektorraum der homogenen linearen Gleichungen
1
in Unbekannten. Die Zuordnung 1 ' ' ist eine lineare Abbildung 1 4. Sei beliebig und , und sei ' Dann heißt 1 mit 1 + für alle eine Streckung um den Faktor . ist linear. ' 1 ' 1 .' falls ' und 5. Sei ist eine
lineare Abbildung; sie heißt Parallelprojektion von
auf
längs
.
Für ein weiteres Beispiel benötigen wir: 1.4
Definition und Satz
' ' aus
. 8 8 8 .. .. .
8 . . 8 8 8 . .. ... . 8 8 8 Der -te Koeffizient von ist also: Eigenschaften des Matrizenproduktes: Additivität: für alle .' und alle für alle Homogenität:
Das Produkt einer -Matrix mit einer Spalte ergibt per Definition das folgende Spalten- -tupel :
Koeffizienten
1.5
Beispiel
Sei eine für alle
-Matrix. Wir definieren eine Abbildung $1 . Dann ist linear wegen obiger Eigenschaften.
durch
1 <
V Lineare Abbildungen und Matrizen
42 1.6
Folgerungen aus den Axiomen
2. : <&& 3. . &&& '' linear abhängig 4. ' ' linear abhängig 5. Ist ' ' eine Basis von , so ist eine lineare Abbildung 1 durch die Bilder der Basis '' bestimmt. Sind ' ' Vektoren von , so gibt es (genau) eine lineare Abbildung 1 ' ' ' .
1.
V.2 2.1
eindeutig irgendwelche mit
Weitere Eigenschaften linearer Abbildungen Definition: Sei
1 ein Homomorphismus von Vektorräumen. Kern 1 Bild 1
2.2
Satz
1. Kern( ) und Bild( ) sind Unterräume von 2. 3.
2.3 Sei
ist injektiv
!
injektiv und
' '
' '
linear unabhängig
Dimensionsformel
1
.
linear unabhängig.
linear und
endlich erzeugt und es gilt: Dim Kern Dim Bild
endlich erzeugt. Dann ist auch
Dim 2.4
Kern( ) =
bzw.
Rang einer linearen Abbildung
1
Der Rang einer linearen Abbildung ist definiert durch: Rg Dim Bild setzen in obige Dimensionsformel erhalten wir die sogenannte Rangformel: Dim
Dim Kern
Rg
Durch Ein-
V.3 Basis- und Koordinaten-Transformationen 2.5
Satz über die Inverse einer bijektiven linearen Abbildungen
1
Ist
2.6
eine bijektive lineare Abbildung, so ist auch
1
2.7
und 1 1 linear.
Vektorräume und Bezeichnungen:
1
1
also Vektorräume über ,
bedeutet:
heißt isomorph oder ein Isomorphismus von Vektorräumen, wenn
heißen isomorph, wenn es einen Isomorphismus von
bedeutet:
ist ein Isomorphismus von
und
nach
nach
gibt.
.
sind isomorph zueinander.
isomorph /' +' isomorph
isomorph
' '
lineare Abbildungen,
Definition und Satz
Eine Abbildung von nach sie linear und bijektiv ist.
linear.
Satz über die Komposition linearer Abbildungen
Sind dann ist auch
Id
43
ist ein Isomorphismus.
2.8
Beispiel
Die Koordinatenzuordnung
2.9
isomorph
1
ist ein Isomorphismus (vgl. 1.1 auf Seite 40).
Bemerkung
1
' ' genau dann linear unab 1 sind '' genau dann Insbesondere für die Koordinatenzuordnung linear unabhängig, wenn ihre Koordinaten- -tupel ' ' es sind.
Ist hängig, wenn
'
'
ein Isomorphismus, so sind Vektoren es sind.
2.10
Satz
Sind
und
endlich erzeugt, dann gilt:
!
Dim
Dim
V Lineare Abbildungen und Matrizen
44
V.3
Basis- und Koordinaten-Transformationen
sei ein -dimensionaler Vektorraum über ,
3.1
Definition
.
: ' ' ' ' ' ' ' ' ' ' ' '
Der Übergang von einer Basis zu einer Basis heißt eine Ba sistransformation. Der Übergang von den Koordinaten bezüglich zu den Koordinaten bezüglich heißt eine Koordinatentransformation. 3.2
Definition und Satz
Eine Basistransformation wird beschrieben durch
' ''
Dabei hat die hierdurch definierte Matrix
8 & & 8 8 & & 8 &&
.. 8 .
8
den Rang , wobei Rang( ):=Maximalzahl linear unabhängiger Zeilen. Sie heißt die Matrix der Basistransformation. Zu jeder -Matrix vom Rang gehört eine Basistransformation, deren Transformationsmatrix ist. Eine Basistransformation kann in Verallgemeinerung von V. 1.4 auf Seite 41 auch in Matrizenform geschrieben werden:
.. .
8
Kurz:
3.3
.. 8 .
8 & & 8 8 & & 8 & &
Satz und Definition
Zur Basistransformation
8 .8 1
..
- 8 - 8 8 .. 8 . - 8
8 <<&&&& 8 8 8 <&&
gehört die Koordinatentransformation:
V.4 Die Matrix einer linearen Abbildung
.. 8 .
Die Koordinatentransformation von schrieben:
45
8 & & 8 8 & & 8 . 8
.. 8 & & nach wird durch die transponierte Matrix .. 8 .
mit den Koeffizient die zu
be-
Dabei heißt die Matrix transponierte Matrix. Die Transponierte von kann auch als die Matrix beschrieben werden, deren -te Zeile die -te Spalte von ist. Offensichtlich gilt:
V.4
Die Matrix einer linearen Abbildung
Im folgenden sind über . 4.1 Sei
' '
und
' '
Basen des Vektorraumes
bzw.
Definition
1
linear. Dann sei
' ' . Die daraus gebildete Matrix die lineare Darstellung von durch die Basis wird die (Abbildungs-) Matrix von bezüglich und genannt: "1 1 (5) Anders ausgedrückt, besagt diese Definition, daß die -te Spalte von das Koordinaten- -tupel des Bildes des -ten Basisvektors ist. Die obige Definitionsgleichung 5 der schreibt sich in
Matrizenform durch:
ausführlich: '' ' ' Bei einer Selbstabbildung 1 wird in der Regel für Quelle und Ziel von die gleiche gewählt und wir erhalten die Matrix der Selbstabbildung bezüglich der Basis Basis von ' ' durch die Definitionsgleichung:
V Lineare Abbildungen und Matrizen
46 4.2
Bemerkung
Halten wir und fest, so ist die lineare Abbildung eindeutig durch ihre Abbildungsmatrix bestimmt und zu jeder -Matrix gibt es (genau) eine lineare Abbildung , deren Abbildungsmatrix gleich ist. Wie sich ändert bei Benutzung anderer Basen, können wir genau erst in 7.6 auf Seite 53 formulieren.
4.3
Beispiele
1.
1
.
.
..
.
..
..
..
..
.
.
.
..
, die
-Einheitsmatrix.
bezeichnet und können so beschrieben werden: für für als auftreten, 2. Die Einheitsmatrix kann bei jedem Isomorphismus 1 . nämlich bei der Wahl von die Abbildung 1 . Dann ist 3. Sei eine -Matrix und )1 die Matrix von bezüglich der kanonischen Basen gerade die Matrix . Ihre Koeffizienten werden mit
4.4
Definition
' := Menge aller Abbildungen von nach . ' 1 linear ;1 -Matrizen mit Koeffizienten in Die Summe von Abbildungen ('* Abb ' und die Multiplikation eines Skalars mit einer Abbildung Abb ' wird wertweise definiert: $ 1 # 1 ' und die Multiplikation eines Die Summe von zwei Matrizen wird koeffizientenweise definiert: Skalars mit einer Matrix 1 # 1 Abb
V.4 Die Matrix einer linearen Abbildung 4.5
47
Satz
'
'
' 1 '
und 1
Mit den soeben definierten Zuordnungen sind Abb und Vektorräume über ist ein Unterraum von Abb . Bei fest gewählten Basen und ist durch definiert. ein Isomorphismus
4.6
Satz
' ' und ' ' beschrieben durch:
Eine lineare Abbildung wird durch die Koordinaten von bezüglich die Koordinaten von bezüglich
wobei
oder in Matrizenschreibweise durch
4.7
'
ist.
Beispiele
)1
Wir geben i. f. lineare Abbildungen angeben. 1. Für
,
und
' ' '
an, indem wir die Bilder einer Basis
''
setzen wir: := :=
für .
Dadurch ist ein Isomorphismus definiert, da eine Abbildung desselben Typs aber mit anstelle von die Umkehrabbildung ist. hat die Matrix
..
.
..
.
V Lineare Abbildungen und Matrizen
48
'
Nicht bezeichnete Koeffizienten sollen dabei null sein. Das ist der -te Koeffizient. Durch Koordinaten ausgedrückt, besteht diese Abbildung darin, daß die -te Koordinate mit multipliziert wird und die anderen Koordinaten beibehalten werden.
2. Für
,
' ' ' '
setzen wir: := für := ( .
und
Wieder wird hierdurch ein Isomorphismus definiert; denn die lineare Abbildung vom selben Typ, aber mit anstelle von ist die Umkehrabbildung. hat die Matrix: Für
..
.
.. .
..
.
..
.
-te Koeffizient ist ' sein.
Nicht bezeichnete Koeffizienten sollen dabei wieder null sein. Der das . Denn die -te Spalte muß das Koordinaten- -tupel von Durch Koordinaten ausgedrückt, erhalten wir:
. .. .. . ...
..
. .. .
..
.
..
.
für und
' ' ' und 3. Für ' D. h..:
+
.. . .. . .. .
.. .
.. .
.. .
setzen wir:
:= := :=
für und
Die Matrix des hierdurch definierten Isomorphismus entsteht aus der Einheitsmatrix durch Vertauschung der -ten und -ten Spalte.
In Koordinaten ausgedrückt ist dieser Isomorphismus natürlich die Vertauschung der -ten und -ten Koordinate unter Beibehaltung der anderen Koordinaten.
V.5 Der Dualraum
49
Diese Abbildungen heißen die Elementar-Abbildungen und ihre Abbildungsmatrizen ElementarMatrizen. 4.8
Definition
sei eine -Matrix, eine -Matrix. Dann ist das Matrizenprodukt von mit definiert als eine -Matrix mit 1 für ' ' und ' ' < 4.9 Satz: Es gilt für eine -Matrix :
4.10
Satz
1 ' 1 lineare Abbildungen von Vektorräumen über , ' ' ' ' ' ' '' Basen von bzw. bzw. . Dann gilt für die Abbil-
Sind
dungsmatrizen bezüglich dieser Basen:
V.5 5.1
5.2
Der Dualraum Definition
1 ' heißt der Dualraum von
, seine Vektoren heißen Linearformen von
Bemerkung
.
' '
Ordnen wir einer Linearform ihre Abbildungsmatrix bezüglich einer Basis von und zu, so erhalten wir einen Isomorphismus der kanonischen Basis (1) von , auf den Raum der Zeilen- -tupel. es ist also Dim .
'
Wir zeigen jetzt, wie wir aus einer Basis von
5.3 Ist
eine Basis von
Definition
'' eine Basis von
, dann sei die Linearform
finden können.
definiert durch:
V Lineare Abbildungen und Matrizen
50
1
' 8 ' '
5.4
für für
ist eine Basis des Dualraumes; sie heißt die zu
'' duale Basis.
Definition
Die von einer linearen Abbildung durch:
1
induzierte Abbildung der Dualräume ist definiert
1 Wenn wir untersuchen, wie die Matrix der dualen Abbildung 1
' 1
oder
('
bezüglich der dualen Basis aussieht, so stoßen wir wieder auf die von der Koordinatentransformation bekannte MatrizenOperation, auf das Transponieren: 5.5
V.6
Satz:
ist eine lineare Abbildung und
Der Rang
Der Begriff Rang trat zweimal auf.
1
Einmal als Rang einer linearen Abbildung , wobei endlich erzeugt sein muß. Er gibt an wie viele Dimensionen bei erhalten bleiben; den kleinsten Rang hat die Nullabbildung
: Rg( ) = 0, den größten eine injektive lineare Abbildung : Rg( ) = Dim( ). Im allgemeinen liegt der Rang zwischen diesen beiden Werten: Rg Dim .
Ein zweites Mal trat der Rang als Rang einer Matrix auf; genauer wird definiert: 6.1
Definition
Spaltenrang einer Matrix := Maximalzahl linear unabhängiger Spalten von . Zeilenrang einer Matrix := Maximalzahl linear unabhängiger Zeilen von .
Die Abbildungsmatrix liefert uns einen Zusammenhang zwischen linearen Abbildungen und Matrizen, wodurch sich auch eine Verbindung zwischen beiden Rang-Begriffen wird herstellen lassen. 6.2
Hilfssatz: Rg( ) = Spaltenrang von
Beweis:
V.6 Der Rang
51
' sei eine Basis von , ' ' eine von . Dann ist ' '' ein Erzeugendensystem von Bild . Ein maximales linear unabhängiges
Teilsystem eines Erzeugendensystems ist eine Basis (vgl. den Beweis zu IV. 2.2 auf Seite 32); folglich gilt:
' ' .
Rg( ) = Maximalzahl linear unabhängiger Vektoren des Systems
Da die Koordinatenzuordnung ein Isomorphismus ist, folgt: Rg( ) = Maximalzahl linear unabhängiger Koordinaten- -tupel dieser Vektoren bezüglich .
Da diese Koordinaten- -tupel die Spalten der Matrix von .
sind, erhalten wir Rg( ) = Spaltenrang
Im folgenden ist unser Ziel, zu zeigen, daß der Spaltenrang gleich dem Zeilenrang ist. Dann können wir kurz vom Rang einer Matrix sprechen und es gilt: Rg( ) = Rg( ) 6.3
Hilfssatz
Bei elementaren Zeilenumformungen ändert sich der Spaltenrang nicht. Beweis:
' ' ' '
1. Die Multiplikation der -ten Zeile mit bedeutet in jeder Spalte den -ten Koeffizienten mit zu multiplizieren. D. h. die Spalten werden mit dem Isomorphismus aus dem 1. Beispiel von 4.7 auf Seite 47 abgebildet. Da ein Isomorphismus die Maximalzahl linear unabhängiger Vektoren nicht ändert, bleibt bei einer Zeilenumformung vom Typ I der Spaltenrang erhalten.
2. Sei , und . Der Addition des -fachen der -ten Zeile zur -ten entpricht in jeder Spalte der Addition des -fachen des -ten Koeffizienten zum -ten. D. h. die Spalten werden mit dem Isomorphismus aus dem 2. Beispiel von 4.7 auf Seite 47 abgebildet. Wieder folgt, da ein Isomorphismus die Maximalzahl linear unabhängiger Vektoren nicht ändert, daß bei einer Zeilenumformung vom Typ II der Spaltenrang erhalten bleibt.
' ' ' '
3. Sei . Die Vertauschung der -ten und -ten Zeile bedeutet für die Spalten die Vertauschung des -ten und -ten Koeffizienten, d. h. der Anwendung des Isomorphismus aus dem 3. Beispiel von 4.7 auf Seite 47. Wie oben folgt, daß bei einer Zeilenumformung vom Typ III der Spaltenrang erhalten. 6.4
Hilfssatz
Bei elementaren Spaltenumformungen ändert sich der Spaltenrang nicht. Beweis:
V Lineare Abbildungen und Matrizen
52
Dies liegt daran, daß ein linear unabhängiges System von Vektoren linear unabhängig bleibt, wenn ein Vektor durch sein -faches mit ersetzt wird oder zu einem Vektor ein Vielfaches eines anderen Vektors des Systems addiert wird oder zwei Vektoren des Systems vertauscht werden. 6.5
Hilfssatz
Bei elementaren Spalten- und Zeilenumformungen ändert sich der Zeilenrang nicht. Beweis: Entsprechend wie für den Spaltenrang.
-Stufenmatrix: 8 &. & . && .. .. ... . . . . . . . . . ... && && .. . . . && . . && .. .. .. .. && && Min '
Wir betrachten eine
Dabei ist 6.6
.
.. .. .
. ..
Hilfssatz
Eine Stufenmatrix hat gleichen Zeilen- und Spaltenrang, nämlich . 6.7
Satz und Definition
1. Rg( ) ändert sich nicht bei elementaren Umformungen. 2. Zeilenrang und Spaltenrang einer Matrix stimmen überein. Wir definieren daher den Rang einer Matrix durch: Rg( ) := Zeilenrang( ) = Spaltenrang( )
3. Rg( ) = Rg(
V.7
) für eine lineare Abbildung
und ihre Abbildungmatrix
.
Die Allgemeine Lineare Gruppe
Im folgenden sind über .
'' und
'' Basen des Vektorraumes
bzw.
V.7 Die Allgemeine Lineare Gruppe 7.1
53
Definition
Eine
-Matrix
7.2
Satz:
1
1. Eine
heißt regulär, wenn Rg
Für
ist, andernfalls heißt sie singulär.
gilt:
-Matrix
ist regulär dann und nur dann, wenn sie einen Isomorphismus definiert (vgl. 4.2 auf Seite 46).
2. Für einen Isomorphismus
)1
gilt:
3. Genau die regulären Matrizen haben bezüglich des Matrizenproduktes eine Inverse. 7.3
Definitionen
1. Ein Isomorphismus von .
<1
eines Vektorraumes auf sich heißt ein Automorphismus
1
2. Eine Abbildung von einer Gruppe nach einer Gruppe heißt homomorph für alle oder ein (Gruppen-)Homomorphismus, falls .
'
3. Ein bijektiver Gruppen-Homomorphismus heißt isomorph oder ein (Gruppen)Isomorphismus. (Gruppen)-Isomorphismus
7.4
Bemerkung:
7.5
Satz und Definition
(Gruppen)-Isomorphismus
Die Automorphismen von bilden bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe G , die Lineare Gruppe von . Das gleiche gilt für die regulären Matrizen bezüglich des Matrizenproduktes; die von ihnen gebildete Gruppe Gl heißt Allgemeine Lineare Gruppe zur Dimension und zum Körper . Die Zuordnung definiert einen Gl . Gruppenisomorphismus G
'
'
Nachdem wir jetzt die Inverse einer regulären Matrix zur Verfügung haben, können wir genau beschreiben, wie sich die Abbildungsmatrix transformiert, wenn wir in und in die Koordinaten transformieren. Außerdem können wir damit die zu einer Basistransformation gehörige Koordinatentransformation besser als früher ( 3.3 auf Seite 44) beschreiben. 7.6 Sei
Satz
1
linear,
V Lineare Abbildungen und Matrizen
54
'' sei eine Koordinatentransformation in , ' ' ' ' sei eine Koordinatentransformation in , sei die Matrix von bezüglich der Basen und , sei die Matrix von bezüglich der und
die Matrizen der zugehörigen KoordinatentransBasen und , formationen. Dann gilt:
7.7
Satz
Die zur Basistransformation gehörige Koordinatentransformation (s. 3.3 auf Seite 44) können wir jetzt besser in der nach aufgelösten Form schreiben:
V.8
Anwendung auf lineare Gleichungssysteme
Ein lineares Gleichungssystem
& & 8 . 8 88 88 & & 8 8 ..
8 8 & & schreiben wir in Matrizenform mit Koeffizientenmatrix und inhomogener Spalte : Das Produkt wurde bereits in 3.2 auf Seite 44 definiert. heißt das zugehörige homogene Gleichungssystem. ' 1 , d. h. Zur Matrix betrachten wir die lineare Abbildung 1 diejenige mit bezüglich der kanonischen Basen.
8.1
Der Lösungsraum eines homogenen Systems
, ist der Lösungsraum gleich Kern( ) und hat nach der Rangformel Im homogenen Fall, die Dimension , wobei = Rg( ) = Rg( ). 7
A. Riede: Lineare Algebra 1, SS 98
V.9 Berechnung der inversen Matrix
55
Sind weniger Gleichungen gegeben als Unbekannte vorhanden, d. h. für homogenes System also mindestens eine nicht triviale Lösung.
, dann hat ein
Sind mindestens so viele Gleichungen gegeben als Unbekannte vorhanden sind, d. h. für dann gilt:
!
Das homogene System ist eindeutig (durch den Nullvektor) lösbar. 8.2
,
Rg( ) =
Lösungsmenge eines inhomogenen Systems
.. Das inhomogene lineare
1. Die Lösungsmenge inhom des inhomogenen Systems ist Gleichungssystem ist also genau dann lösbar, wenn Bild 2. Es gibt eine Lösung des inhomogenen Systems.
!
Rg( ) = Rg(
1
)
3. Sei eine feste Lösung des inhomogenen Systems, dann gilt, wenn hom den Lösungs, bezeichnet: raum des zugehörigen homogenen Systems,
V.9
inhom
hom
hom
Berechnung der inversen Matrix
Sind mehrere lineare Gleichungssysteme mit der gleichen Koeffizientenmatrix zu lösen, so erweitern wir einfach die Koeffizientenmatrix um alle inhomogenen Bestandteile und erhalten eine erweiterte Matrix . Dann wenden wir das Gauß oder das Gauß-Jordan-Verfahren auf sinngemäß an. Bei der rekursiven Auflösung müssen wir dann jeweils die erste, zweite ... Erweiterungsspalte verwenden, um die Lösung des ersten, des zweiten ... Gleichungssystems zu bekommen.
einer regulären -Matrix oder ausführlich: ' ' ' ' ' '
In dieser Situation befinden wir uns, wenn wir die Inverse berechnen wollen. ist festgelegt durch die Gleichung
8 ..
.
8
Dies sind lineare Gleichungssysteme mit als Koeffizientenmatrix. Im ersten sind die Koeffizienten der ersten Spalte von die Unbekannten, im zweiten die Koeffizienten der zweiten Spalte, im letzten die Koeffizienten der letzten Spalte von . Die inhomogene Spalte des -ten Gleichungssystems ist die -te Spalte der Einheitsmatrix .
Wir wenden das Gauß-Jordan-Verfahren an und nehmen an, daß den Rang hat. (Genau dann gibt es ja die Inverse.) Als Stufenform erhalten wir durch elementare Umformungen, wobei wegen der Rangbedingung keine Spaltenvertauschungen nötig sind und deshalb auch nicht verwendet werden:
V Lineare Abbildungen und Matrizen
56
.
. ..
..
..
.
..
.
..
.
. .
..
.. .. .
.
.. .. .
Die Auflösung des Stufensystems ergibt, daß die auftretende Matrix ist.
. .. .. .
gerade die Inverse
VI.1 Länge, Winkel und Skalarprodukt
57
VI Metrische Größen im Anschauungsraum VI.1
Länge, Winkel und Skalarprodukt
In den Vektorraum-Axiomen sind nicht alle Eigenschaften enthalten, die die geometrischen Vektoren des Anschauungsraumes tatsächlich haben. Z. B. kann die Länge eines Vektors und zwischen zwei geometrischen Vektoren der Winkel gemessen werden. In der Tat brauchen wir diese Begriffe auch nicht, um den Begriff eines Vektorraumes zu begründen; umgekehrt können diese Begriffe auch nicht aus den Vektorraum-Axiomen abgeleitet werden! Vielmehr ist es so, daß, wenn in einem Vektorraum diese Begriffe einen Sinn machen, der Vektorraum eine weiterreichende Struktur hat als nur die Struktur eines Vektorraumes. Zunächst betrachten wir die Anschauungsebene.
1.1
Die Länge eines Vektors
Die Länge eines Vektors , die auch Betrag von genannt und mit bezeichnet wird, berechnet sich nach dem aus der Schule bekannten Satz des Pythagoras. Dieser begründet sich aus der Elementargeometrie, die auf ganz anderen Axiomen aufgebaut wird als den Vektorraumaxiomen, z. B. gehören dazu die Kongruenzaxiome.
' 8 (8 88
das Koordinatenpaar von Seien stems, dann gilt:
bezüglich eines festen kartesischen Koordinatensy-
Das Quadrat der Länge ist gegeben durch:
8 8 88
1.2
Der Winkel
Zwei von 0 verschiedene Vektoren und der Anschauungsebene bilden zwei Winkel miteinander, von denen wir den kleineren im folgenden betrachten. Er ist nur, wenn die Vektoren zueinander entgegengesetzt sind, nicht eindeutig bestimmt; in diesem Falle haben jedoch beide Winkel das gleiche Maß , so daß diese Zweideutigkeit für die Winkelmessung keine Bedeutung hat. Wir verwenden ein kartesisches -Koordinatensystem mit der -Achse als horizontaler Achse und der -Achse als vertikaler Achse.
8
A. Riede: Lineare Algebra 1, SS 98
.'
VI Metrische Größen im Anschauungsraum
58
Wir schauen uns im Detail nur den Fall an, daß und in den 1. Quadranten zeigen und daß für die Winkel und , die bzw. mit der -Achse bilden, gilt: . Es genügt den Winkel zwischen Einheitsvektoren, solchen mit Betrag 1, zu betrachten. Sei also . und nach dem Additionstheorem für Für den Winkel zwischen und gilt dann
8 8 Dabei seien ' 8 die Koordinaten von , ' 8 die von . Mit der rechten Seite von sind wir auf einen Ausdruck gestoßen, der einen eindeutigen Sinn hat für ein beliebiges Paar von Vektoren (' . Für besteht seine geometrische Bedeutung darin, daß er nach die Länge zum Quadrat von angibt. Der Ausdruck definiert eine Abbildung: 1 ' (' 8 8 1 (' Der Ausdruck hat Ähnlichkeit mit einer Linearform auf dem 8 , 1 8 . ' 8 - 8 8 8 8 variabel sind, bei einer Der Unterschied besteht nur darin, daß in und 8 8 Linearform jedoch und 8 fest sind. Wir sehen also: Bei festem ist linear in der Variablen und bei festem ist linear in der Variablen . (' $ (' (' ' +' + (' $ ' (' ' ' ((' + (' Es wird daher eine bilineare Abbildung oder eine Bilinearform genannt. Die Bilinearität ist Anlaß dafür, daß wir (' als eine Art Produkt von und ansehen können; denn, wenn wir (' mit # bezeichnen, so schreiben sich die Bedingungen der Bilinearität folgendermaßen: $ " $" ' " $$ "' für alle Vektoren (' "' ' und alle Skalare . Die Additivität in jeder Variablen ist also dasselbe wie ein Distributivitätsgesetz für das Produkt. Berücksichtigen wir noch, daß (' eine reelle Zahl, also einen Skalar, als Wert hat, so leuchtet ein, warum (' als Skalarprodukt von und bezeichnet wird. den Kosinus:
Das Skalarprodukt hat eine weitere „Produkt-Eigenschaft“, es ist kommutativ.
(' ' Im Sinne der Abbildung wird diese Eigenschaft Symmetrie (in und
&
oder
) genannt.
VI.2 Das Vektorprodukt
59
' ' für alle (' . Denn ( ' (' (' / + ' . Als dritte Eigenschaft notieren wir: (' und (' nur für . Diese Eigenschaft Denn die Länge eines Vektors zum Quadrat ist und nur für von heißt positive Definitheit.
Bei einer bilinearen Abbildung ist
Wir sahen, daß mehrere Bezeichnungsweisen für das Skalarprodukt sich anbieten. Ab jetzt werden wir die Schreibweise
(' 1 ('
verwenden. 1.3
Bemerkung
folgt für und : (' . Dabei ist
Aus
1.4
der Winkel zwischen
und .
Anwendung: Strömung einer Flüssigkeit durch eine Fläche
Die Fläche sei ein Rechteck, das von einer Flüssigkeit mit zeitlich und räumlich konstanter Geschwindigkeit durchströmt wird. Unter dem Flächenvektor verstehen wir den auf der Fläche senkrecht stehenden Vektor, dessen Länge gleich dem Flächeninhalt von ist und der nach der Seite von zeigen soll, in die die Flüssigkeit fließt. sei die Flüssigkeitsmenge, die in der Zeit durch die Fläche fließt. Dann gilt:
0
VI.2
Das Vektorprodukt
In diesem Abschnitt sei 2.1
0 +'
der Vektorraum der geometrischen Vektoren des Anschauungsraumes.
Definition
' 8 ' 8
8
Eine Basis von heißt positiv orientiert, falls den Fortschreitungssinn einer Rechtsschraube angibt, wenn wir in der von und aufgespannten Ebene um den kleineren Winkel in hineindrehen. Wir sagen dafür auch, daß den Schraubungssinn einer Rechtsschraube darstellen.
('
' 8 '
(vgl. 1.4) des von und (' ' positiv orientiert ist, das
Seien linear unabhängig. Dann heißt der Flächenvektor aufgespannten Parallelogramms, der so gerichtet wird, daß
VI Metrische Größen im Anschauungsraum
60
('
('
Vektorprodukt von , weil das Ergebnis des Multiplizierens ein Vektor ist. Es wird mit bezeichnet und auch das Kreuzprodukt des Paares genannt.
ist also der Vektor mit folgenden Eigenschaften: 1. Er steht auf
und
senkrecht;
= = Flächeninhalt des von und aufgespannten Parallelogramms ( ' ); ( stellen den Schraubungssinn einer Rechtsschraube dar. 3. (' ' Für linear abhängige (' wird definiert 1 . 2.
2.2
Koordinatendarstellung
In einem kartesischen Koordinatensystem, bei dem die zugehörige Basis bungssinn einer Rechtsschraube darstellt, hat die Koordinaten
8 8 ' %', 8 8 ' falls die Koordinaten ' 8 ' und die Koordinaten ' 8 '
' 8 ' den Schrau-
2.3
hat.
Eigenschaften
1. Das Vektorprodukt ist bilinear.
. 3. Für eine positiv orientierte Orthonormalbasis ' 8 ' gilt: 8 &' 8 ' 8 4. "' ( (' + ' ( (' ( ' ( Lagrange-Identität (' " ' Graßmann-Identität 5. 6. Jacobi-Identität 2. Das Vektorprodukt ist schiefsymmetrisch, d. h.
VI.3
Volumen
.' ('
In diesem Abschnitt sei wieder der Vektorraum der geometrischen Vektoren des Anschau spannen ein Parallelflach oder ein Spat ungsraumes. Drei linear unabhängige Vektoren auf. Sein Volumen wird definiert durch Grundfläche des von und aufgespannten Parallelogramms mal Höhe .
VII.0 Volumen
Um
61
zu beschreiben, betrachten wir einen auf
Dann gilt:
.'
und
senkrechten Einheitsvektor
3.1
.
(vgl. VI.1 ?? auf Seite ??)
.'
Schließlich erhalten wir:
Formel für das Volumen:
.'
'
Der Ausdruck auf der rechten Seite dieser Formel ohne die Betragsstriche ist mit den Methoden der linearen Algebra besonders zugänglich und Ausgangspunkt und Motivation für das Kapitel VII auf der nächsten Seite. 3.2
Definition
1 .' heißt das orientierte Volumen des von .' (' aufgespannten orientierten Parallelflachs oder das Spatprodukt von .' (' , wobei wir ein Parallelflach als orientiert ansehen, wenn für die aufspannenden Vektoren eine bestimmte Reihenfolge festgelegt ist. Sind .' (' linear abhängig, so wird .' (' 1 definiert.
3.3
Bemerkung
' +'
Das orientierte Volumen ist abhängig von der Reihenfolge der Vektoren. Es ist positiv, genau wenn linear unabhängig und positiv orientiert sind. 3.4
Koordinatenbeschreibung
.' ('
8 * 8 8 8 ' 8 ' und ' 8'
für 9
' 8 ' '
A. Riede: Lineare Algebra 1, SS 98
- 8 8
VII Determinanten
62
VII Determinanten bezeichne im ganzen Kapitel einen -dimensionalen Vektorraum über mit
VII.1 1.1
.
Determinantenform
Definition
&& ' ' ' ' ' ' ' ' ' ' (' ' ' 1 2. Für heißt wie oben eine -fache Linearform, kurz eine -Form. 3. Eine Abbildung 1 heißt Determinantenfunktion oder Determinantenform von 1
1. Eine Abbildung des -fachen kartesischen Produktes nach einem Vektorraum über heißt -fach linear, kurz multilinear, wenn bei beliebigem die und beliebigen aber festen Vektoren Zuordnung ein lineare Abbildung ist; d. h., wenn in jeder Variablen linear ist.
, falls sie folgende Eigenschaften hat: a) b) c)
1.2
ist multilinear. ist alternierend, d. h.
' '
für alle linear abhängigen
Nullabbildung.
Folgerungen:
Für eine Determinantenform
' ' ' ' ' ' ' '
gilt:
1. Scherungsinvarianz:
2.
VII.2
' ' .
für
' ' ' '
' ' ' ' '' ' ' '' ' '
ist schiefsymmetrisch; d. h.:
Das Signum einer Permutation
für
Wir wollen die 2. Formel aus 1.2 auf beliebige Permutationen der verallgemeinern. Das dabei auftretende Vorzeichen heißt das Signum von . Eine Vertauschung der können wir auch als Vertauschung der Indizes aufschreiben. Die genaue Definition kann folgendermaßen gegeben werden:
VII.2 Das Signum einer Permutation 2.1 Sei
63
Definition
1
das Polynom in
Variablen mit
8 $ 8 8 && 8 ' ' 1 $ sich von Für $ := Permutationsgruppe von ' ' ' unterscheidet ' ' '' nur um das Vorzeichen; dieses heißt das Signum der Permutation , es wird mit sgn( ) bezeichnet. Die Definitionsgleichung für das Signum lautet also: ' ' sgn ' '
2.2 Für
heißt
'
Charakterisierung durch Inversionen
eine Inversion von
, wenn ist.
die Anzahl der Inversionen von , dann gilt: sgn( ) = 2.3 Definition: heißt gerade, falls sgn( ) = 1 ist, sonst ungerade. 2.4 Satz: sgn( ) = sgn( ) sgn( ) für alle ,' . Sei
2.5
Folgerungen
1. Die Komposition zweier gerader Permutationen ist gerade. 2. Die Komposition zweier ungerader Permutationen ist gerade. 3. Die Komposition einer geraden Permutation und einer ungeraden ist ungerade. 4. Die geraden Permutationen bilden zusammen mit der Komposition eine Gruppe; sie heißt die Alternierende Gruppe. 2.6
Charakterisierung durch Transpositionen
' ' ' ' mit vertauscht und die ' # bezeichnet wird.
Ein Permutation, die genau zwei Elemente anderen fest läßt, heißt eine Transposition, die mit
)
Jedes läßt sich als Komposition einer Anzahl von Transpositionen darstellen. Die Anzahl der Transpositionen bei jeder solchen Darstellung von ist immer gerade oder ungerade, je nachdem, ob gerade oder ungerade ist. Es gilt also
VII Determinanten
64
sgn( ) = wenn
2.7
,
die Anzahl der Transpositionen bei einer solchen Darstellung ist.
Satz: Für eine Determinantenform
' '
'
'
gilt:
' '
sgn für alle Diese Bedingung ist äquivalent zur schiefen Symmetrie.
VII.3 3.1
Die Frage nach Existenz und Eindeutigkeit
Satz
(
Eine Determinantenform ist nicht eindeutig, da mit und wieder eine Determinantenform ist. Jedoch ist dies die einzige Unbestimmtheit. Es gibt bis auf ein skalares genau eine Determinantenform von . Vielfaches
die lineare Darstellung der VektoSei '' eine feste Basis von und ren '' durch die Basis. Dann gilt: (vgl. X.4 auf Seite 109) 1. Für eine beliebige Determinantenform ist ' ' sgn 8 8 && & & ' ' . 2. Die Funktion ' 8 ' ' 1 sgn 8 8 && ist eine Deter und = kanonische Basis bezeichnen wir diese Deminantenform. Für terminantenform mit ; sie heißt kanonische Determinantenform von . Mit dieser Be zeichnung schrebt sich die 1. Formel als: ' ' ' ' ' '
VII.4 4.1
Anwendung auf lineare Abbildungen
Satz
und seien -dimensionale Vektorräume über . eine Determinantenform für . Dann ist
1
'' ' '
entweder eine Determinantenform für
oder die Nullabbildung.
eine lineare Abbildung und
VII.6 Berechnung der Determinante 4.2
65
Definition
1. Ist zusätzlich zu den Voraussetzungen des Satzes 4.1 auf der vorherigen Seite eine Determinantenform für , so gilt wegen VII.3 auf der vorherigen Seite und dem Satz 4.1 auf der vorherigen Seite
' ' # '' für einen Skalar . heißt die Determinante von bezüglich und , kurz Det . und nennen den Skalar in der Gleichung 2. Ist , so wählen wir ' ' ' ' die Determinante von , kurz Det( ); sie hängt nicht von der Wahl von ab.
4.3
Satz
!
1. Det( )
ist ein Isomorphismus.
2. Det(
) = Det( ) Det( )
3. Ist
ein Isomorphismus, dann gilt: Det(
VII.5 5.1
Determinante einer
Definition
Zu gegebener -Matrix für eine Wahl einer Basis von
5.2
Satz:
5.3
Satz
Det
1. Det( )
2. Det 3. Det
4. Det
!
Det Det Det
sgn
-Matrix
wählen wir eine lineare Abbildung und setzen:
Det Det( ) hängt nicht von der Wahl von
) = Det
1
und der Basis von
ab.
8 8 &&
invertierbar.
Det , falls
Det
invertierbar ist.
1
mit
VII Determinanten
66
VII.6
Berechnung der Determinante
sei eine -Matrix mit Koeffizienten in
6.1
Verhalten der Determinante bei elementaren Umformungen
.
1. Bei Multiplikation einer Zeile (Typ ZI) oder Spalte (Typ SI) mit einem Skalar ziert sich die Determinante mit .
multipli-
2. Bei Addition einer mit einem Skalar multiplizierten Zeile (Typ ZII) bzw. Spalte (Typ SII) zu einer anderen Zeile bzw. Spalte ändert sich die Determinante nicht.
3. Bei Vertauschung zweier Zeilen (Typ ZIII) oder Spalten (Typ SIII) multipliziert sich die . Determinante mit
6.2
Stufenform
1. Sei St eine Stufenform, in die durch elementare Umformungen vom Typ ZII, ZIII, SII übergeführt worden sei (vgl. Gaußverfahren). Dann gilt:
'
Det Det St wenn -mal zwei verschiedene Zeilen und -mal zwei verschiedene Spalten vertauscht wurden (vgl. den 3. Punkt von 6.1).
2. Eine Stufenmatrix ist ein Spezialfall einer oberen Dreiecksmatrix, wobei die Sterne irgendwelche Koeffizienten bezeichnen:
. ..
8 8.
..
.
..
.
. ..
für .
D. h. in einer Dreiecksmatrix ist per Definition
< && 3. Die Determinante einer oberen Dreiecksmatrix ist: Det 88
..
6.3
Definition
' '
Für eine weitere Berechnungsmöglichkeit benötigen wir folgende Begriffe.
1
Sei Det , nische Basis von .
' '
seien die Spalten von für sei die kano und sei die kanonische Determinantenform (s. 3.1 auf Seite 64). Dann wird
VII.8 Anwendung auf lineare Gleichungssysteme
67
von definiert durch: .. .
... Die Determinante der Matrix , die aus dadurch entsteht, daß die -te Zeile und die -te Spalte weggelassen wird, heißt ' -te Streichungsdeterminante. das algebraische Komplement
Hilfssatz:
6.5
Laplace´ scher Entwicklungssatz
1. Die Entwicklung nach der -ten Zeile lautet:
2. Die Entwicklung nach der -ten Spalte lautet:
7.1
6.4
VII.7
Anwendung auf den Rang
Definition
Zeilen und Spalten heraus, so heißt die Streichen wir in einer -Matrix -Matrix eine -reihige Unterdeterminante von . Determinante der so entstehenden
7.2 Für
Satz
ist Rg( ) =
!
Es gibt eine von null verschiedene -reihige Unterdeterminante, aber keine von null verschiedene -reihige Unterdeterminante mit .
VII Determinanten
68
VII.8
Anwendung auf lineare Gleichungssysteme
Cramersche Regel
' und Rg( ) = . Dann berechnet sich nach der Formel:
Sei ein lineares Gleichungssystem mit ist das Gleichungssystem eindeutig lösbar und die Lösung
8 8 <&&&
. . . . . . . . .
VII.9 9.1
. ..
. ..
Orientierung
Satz
Sei eine Determinantenfunktion für einen reellen Vektorraum . Dann gibt es unabhängig von der Wahl der Determinantenfunktion zwei nicht leere Klassen von Basen
' ' '' ' ' ''
Es gehören zwei Basen genau dann der gleichen Klasse an, wenn die Matrix der Basistransformation positive Determinante hat. 9.2
Definition
Eine Orientierung eines reellen Vektorraumes besteht darin, eine der beiden Klassen auszuzeichnen und Klasse der positiv orientierten Basen zu nennen.
VIII.1 Das Standard-Skalarprodukt im
69
VIII Vektorräume mit Skalarprodukt 1 Dieses Thema wird in Kapitel XII auf Seite 141 fortgesetzt.
VIII.1 1.1
Das Standard-Skalarprodukt im
Bemerkung
In Kapitel VI haben wir Vektoren der Anschauungsebene betrachtet. Die Beziehung des Satzes von Pythagoras, des Längen- und Winkelbegriffs der Elementargeometrie zum Skalarprodukt läßt erwarten, daß umgekehrt der , mit dem Skalarprodukt
+' 1 8 8
8
für
8
8
und
8
8
ein geeignetes Modell für die Anschauungsebene oder für die euklidische Ebene liefert. Die darauf begründete Geometrie wird Analytische (euklidische) Geometrie genannt im Gegensatz zur Synthetischen (euklidischen) Geometrie, die auf Begriffen wie z. B. der Kongruenz beruht (s. E. Kunz: Elementargeometrie, vieweg). Dies gilt entsprechend für den Anschauungsraum und wird uns ganz allgemein zum Begriff eines -dimensionalen euklidischen Raumes führen. 1.2
Definition
Das Standard-Skalarprodukt im
(' 1
1.3
, f"ur
, ist definiert durch:
'' '
' '
Eigenschaften
Das Standard-Skalarprodukt hat folgende Eigenschaften:
' (' (' 7 D. h. bei festem ist es linear in der Variablen : (' $ (' (' ' (' +' $ ' (' ' ' (' +'
1. Bilinearität der Abbildung: linear in der Variablen und bei festem
10
A. Riede: Lineare Algebra 1, WS 99/00
ist es
VIII Vektorräume mit Skalarprodukt 1
70
"' 3. Positive Definitheit: (' # 2. Symmetrie:
('
('
und
nur für
.
Beweis: Die Bilinearität ergibt sich wieder durch Vergleich mit einer Linearform. Die Symmetrie ist natürlich eine Folgerung aus dem Kommutativitätsgesetz für die Multiplikation in . Die positive Definitheit folgt daraus, daß eine Summe von Quadraten reeller Zahlen ist und nur dann, wenn die reellen Zahlen selbst alle null sind.
1.4
Bemerkung zur Verwendung von
Es ist hier nicht etwa die Behandlung eines vertrauten Falles, warum wir den Körper der reellen Zahlen benutzt haben, sondern weil wir für die Formulierung der positiven Definitheit einen angeordneten Körper brauchen. 1.5
Definitionen
Wir haben in Anschauungsebene und Anschauungsraum gesehen, daß Begriffe wie Länge und Winkel aus dem Skalarprodukt abgeleitet werden können. Dementsprechend definieren wir im :
1 (' # 2. Der Winkel (' zwischen zwei Vektoren und , gemessen im Intervall ' , wird durch den Kosinus erklärt: 1 (' oder äquivalent gilt: Diese Definition macht nur Sinn, wenn ('
1. Die Länge oder der Betrag oder die euklidische Norm eines Vektors ist:
Diese Ungleichung heißt die Cauchy-Schwarzsche Ungleichung, die tatsächlich richtig ist, was in Abschnitt 3.5 auf Seite 73 bewiesen wird. 3. heißt senkrecht oder orthogonal zu : d. h. .
VIII.2
! ('
Das Standard-Skalarprodukt im
Im folgenden bezeichne der Querstrich die konjugiert komplexe Zahl. Wir beachten:
!
Allgemeines Skalarprodukt 2.1
71
Definition
Sei von
und
''
' '
,
erklärt durch:
. Dann ist das Standard-Skalarprodukt
(' 1 ' '
. ..
Dabei geben die letzten beiden Ausdrücke die Matrizenform des Standard-Skalarproduktes an.
2.2
Eigenschaften
Die Abbildung
1
mit
(' 1 ('
ist
1. linear in der ersten Variablen 2. additiv in der zweiten Variablen
(' +' bzw. ('
3. semi-homogen in der zweiten Variablen, d. h.
+'
"' ( ' bzw. "' (' Insbesondere gilt für : (' (' d. h. (' d. h. +' 5. positiv definit d. h. (' (' und genau für . 4. semi-symmetrisch d. h.
VIII.3 3.1
Allgemeines Skalarprodukt
Definition
ein -Vektorraum. Dann ist ein Skalarprodukt auf 1 odermit und den Eigenschaften 1 bis 5. Für gilt: =
Sei
semi-homogen = semi-symmetrisch =
homogen symmetrisch
eine Abbildung
VIII Vektorräume mit Skalarprodukt 1
72 3.2
Beispiel
' ' ' 1 ) 1 ' stetig +' (' 1 0 0 4 0
Seien
.
Hierdurch ist ein Skalarprodukt auf definiert, was aus der Linearität des Integrals, der Vertauschbarkeit von komplexer Konjugation und Integral und der Positivität des Integrals stetiger Funktionen folgt. In der Analysis sind verschiedene Funktionenräume interessant, die aus integrierbaren Funktionen bestehen. Da eine unstetige integrierbare Funktion ungleich null sein kann, obwohl ihr Integral verschwindet, kommt es vor, daß in diesen Räumen kein Skalarprodukt mehr liefert, da es nicht mehr positiv definit ist. Um doch einen Vektorraum mit Skalarprodukt zu erhalten, wird der Unterraum der Nullfunktionen betrachtet; das sind die Funktionen, deren Integral 0 ist. Auf dem Quotientenraum der integrierbaren Funktionen modulo der Nullfunktionen besteht dann wieder ein Skalarprodukt.
0 0 4 0
3.3
Definition
1 +'
Auch in einem allgemeinen Vektorraum mit Skalarprodukt wird die Norm (Betrag bzw. Länge) eines Vektors definiert durch: 3.4
Eigenschaften
und
1.
('
und
( 3.
2.
gilt:
genau, wenn
4. Satz der Pythagoras:
8 8
8
Beweis: 1. Positive Definitheit von
'
.
2. Leicht nachzurechnen 3.
8
"' +' (' ' +' (' (' +' Re ('
' ' '
, da
Re
Allgemeines Skalarprodukt
8 8 4. 8 8
3.5
73
(' # ( ' # 8 '
(' 8 +'
"' , da Re ' wegen 3.5 8 ( ' ' # '
Satz: Cauchy-Schwarzsche Ungleichung
('
=
(' linear abhängig !
Beweis:
- ' folgt: ( "' ( (' # +' "' ' Für und 1 ' folgt nach Division durch : (' +' ' für Setzen wir 1 +' : + ' ' (' (' (' (' (' (' 8 8 (' 8 (' . Dies gilt auch für , da beide Seiten dann gleich . b) Ist (' linear unabhängig, dann ist ' und es gilt in der ersten Ungleichung von a) das -Zeichen, also auch in der Cauchy-Schwarzschen Ungleichung. Gleichheit kann also höchstens bei linear abhängigen (' auftreten. und c) Sei umgekehrt (' linear abhängig. Dann ist etwa ein Vielfaches von , es gilt für die linke Seite der Ungleichung: (' ' ' ' 8 . Für die rechte kommt das gleiche heraus: 5 : : 8 Bei linear abhängigen (' gilt daher das Gleichheitszeichen.
a) Für
3.6
Definition
Ein euklidischer Vektorraum ist ein -Vektorraum mit Skalarprodukt und ein -Vektorraum mit Skalarprodukt heißt ein unitärer Vektorraum.
VIII Vektorräume mit Skalarprodukt 1
74 Im folgenden sei
3.7
stets ein Vektorraum mit Skalarprodukt.
Definition
' ' ' '
1 '
Ist eine Basis des Vektorraumes mit den Koeffizienten .
VIII.4 4.1
'
mit Skalarprodukt , so heißt die -Matrix die Matrix des Skalarproduktes bezüglich
Orthonormalbasen
Definition
' '
Es gibt in einem Vektorraum mit Skalarprodukt sogenannte Orthonormalbasen, das sind Basen von mit:
'
'
d. h.
für
und
' ' '
für
Äquivalent mit dieser Bedingung ist, daß die Matrix des Skalarproduktes bezüglich einer Orthonormalbasis die -Einheitsmatrix ist, und damit wieder äquivalent ist, daß das Skalarprodukt die folgende Form hat:
('
für
und
Koordinaten bezüglich einer orthonormierten Basis heißen kartesische Koordinaten.
4.2
Bemerkung
' ' orthonormiert ' ' linear unabhängig
Beweis:
' '
=
=
=
=
"' ' ' '
VIII.4 Orthonormalbasen 4.3
75
Orthonormalisierungsverfahren von E. Schmidt
' '
Das im folgenden beschriebene Verfahren formt jede beliebige Basis von in eine orthonormierte Basis von um, so daß folgende lineare Hüllen übereinstimmen:
' ' '' '' für ' ' . 1. Schritt: 1 Dann ist und 2. Schritt: 8 1 8 für ein Dann ist ' 8 ' 8 . 3. Schritt: Wir suchen so zu bestimmen, daß 8 wird; dazu muß gelten: ' 8 ' 8 ' ' 8 Es folgt: ' 8 . , und ' ' 4. Schritt: 8 1 8 Dann ist 8 , 8 8 8 8 So wird induktiv fortgefahren. ' '
für Induktionsannahme: Seien '' gefunden mit ' ' ' und ' ' ' ' für ' '
Induktionsschluß: Der Schritt von
auf : 1. Schritt: %1 - ' . Dann ist: ' ' ' ' ' ' ' so zu bestimmen, daß wird für alle 2. Schritt: Wir suchen für ' ' ; dazu muß gelten: ' % ' 3 ' ' %
Es folgt:
' . 3. Schritt: 1 ' ' und Dann ist für und i,j=1,. . . ,k+1 , für ' ' ' .
VIII Vektorräume mit Skalarprodukt 1
76 4.4
Folgerungen
Für endlich erzeugten Vektorraum
gilt:
1. Es gibt eine Orthonormalbasis.
'' Vektoren eines -dimensionalen Vektorraumes mit Skalarprodukt, so daß ' für ' ' ' gilt. Dann lassen sie sich zu einer orthonormierten
2. Sind
Basis ergänzen. Beweis:
endlich erzeugt
1.
' '
Basis; orthonormalisiere diese.
zu einer Basis, orthonormalisiere diese. Die Orthonormalisierung 2. Ergänze nach Schmidt läßt die ersten schon orthonormalen Vektoren ungeändert. VIII.5 5.1
Die orthogonale und unitäre Gruppe
Satz
Für ein kartesisches Koordinatensystem
Dabei bezeichnet
'
('
auf
gilt:
'
('
wieder das Standard-Skalarprodukt auf
.
Beweis:
('
'
'
' '
Das kartesische Koordinatensystem gehöre zur orthonormierten Basis sei .
= = =
' ' von
und es
Die Koordinatenzuordnung ist also eine lineare Abbildung, bei der das Skalarprodukt zweier Vektoren gleich dem Skalarprodukt der Bildvektoren ist, kurz die das Skalarprodukt erhält. Solche Abbildungen heißen Isometrien, genauer wird definiert:
Die orthogonale und unitäre Gruppe 5.2
77
Definition
1
Sei linear und seien Isometrie, falls gilt:
Im Falle nach . 5.3
heißt
und
-Vektorräume mit Skalarprodukt. Dann heißt f eine
' (' ('
auch eine orthogonale im Falle
eine unitäre Abbildung von
Beispiele
1.
1
aus 5.1 auf der vorherigen Seite.
2. Id , -Id = Spiegelung am Nullpunkt
$1 4. Ist 1
1 # 1
3. Sind und über , dann ist auch
Isometrien zwischen Vektorräumen mit Skalarprodukt eine Isometrie.
eine bijektive Isometrie, dann ist auch
1
eine Isometrie.
1 8 8 um den Winkel : 8 8 Der Name kommt daher, daß (' ist für alle 8 . Z. B. die Drehung um wird beschrieben durch: 8 ' 8 . 6. Sei eine Gerade eines dreidimensionalen euklidischen Vektorraumes durch , d. h. ein eindimensionaler Untervektorraum von . Wir wählen eine Orthonormalbasis, bei der die ersten beiden Vektoren auf orthogonal sind und der dritte in liegt. Dann heißt die lineare Abbildung, die in zugehörigen kartesischen Koordinaten durch 8 8 beschrieben wird, eine Drehung von mit der Drehachse . 5. Die Drehung
5.4 Sei
Lemma
1
Isometrie
Beweis:
!
linear und
-dimensional. Dann gilt:
''
orthonormal, falls
' '
orthonormal.
VIII Vektorräume mit Skalarprodukt 1
78 „
“: klar
' . (' = ' = '
= '
=
= '
= ' = ('
„
“: Seien
5.5
Frage
Wie kann der Matrix Basis angesehen werden, ob 5.6
eines Endomorphismus eine Isometrie ist?
von
bezüglich einer orthonormierten
Antwort und Definition
' ' 1. Die Spalten von sind bezüglich des Standard-Skalarproduktes von orthonormiert,
d. h. ' ' '' 2. Die (transponierten) Zeilen von sind bezüglich des Standard-Skalarproduktes von
orthonormiert, d. h. ' ' '' 3. d. h. ist invertierbar (d. h. invertierbar) und
ist genau dann eine Isometrie, wenn seine Matrix bezüglich einer orthonormierten Basis eine der folgenden untereinander äquivalenten Bedingungen erfüllt:
Eine Matrix, die diese Bedingungen erfüllt, heißt für eine unitäre Matrix.
eine orthogonale im Falle
Die orthogonale und unitäre Gruppe
79
ist also genau dann eine Isometrie, wenn seine Matrix bezüglich einer orthonormierten Basis im reellen Falle eine orthogonale bzw. im komplexen Falle eine unitäre Matrix ist.
' =
wegen des Lemmas !
' = wegen 5.1 auf Seite 76 ! ' = , weil die Koordinaten des Bildes des -ten Basisvektors die -te Spalte der Abbildungsmatrix bilden. Damit ist gezeigt, daß Isometrie mit der ersten Bedingung äquivalent ist. ' ! ! b) Matrizenform von ' (s. 2.1 auf Seite 71) ! ! Also ist die erste mit der dritten Bedingung äquivalent. ! c) '
! ! Beweis: a) Isometrie
!
Damit ist die Äquivalenz der zweiten und dritten Bedingung erwiesen. 5.7
Satz und Definition
Sei . Unter einer Isometrie von verstehen wir eine Isometrie von nach . Die Isometrien von bilden bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe. Sie heißt die Isometriegruppe von . Im Falle wird sie auch Orthogonale Gruppe von genannt und mit bezeichnet; im Falle wird sie auch Unitäre Gruppe von genannt und mit bezeichnet.
Beweis:
+'
Isometrien von
Isometrie von
(s. 5.3 auf Seite 77, 3. Beispiel)
Id ist eine Isometrie, also gibt es ein neutrales Element.
Wegen 5.6 auf der vorherigen Seite ist jede Isometrie von auch ein Isomorphismus. Nach 5.3 auf Seite 77, 4. Beispiel ist die Umkehrabbildung ebenfalls eine Isometrie. Es gibt also zu jedem Element ein Inverses. 5.8
Satz und Definition
$ ' '
Sei eine orthonormierte Basis. Dann bildet die Zuordnung (= Matrix von bezüglich ) die Menge der Isometrien von bijektiv auf die Menge der orthogonalen bzw. unitären Matrizen ab, wobei der Hintereinanderausführung das Matrizenprodukt entspricht. Daher bilden die orthogonalen Matrizen mit der Matrizenmultiplikation ein Gruppe, die Orthogonale Gruppe zur Dimension . ist ein von abhängiger Gruppen-Isomorphismus. Entsprechend bilden im komplexen Falle die unitären Matrizen eine
'
VIII Vektorräume mit Skalarprodukt 1
80
zu isomorphe Gruppe, die Unitäre Gruppe zur Dimension . Da wir für bezüglich des Standard-Skalarprodukt eine kanonische orthonormierte Basis haben, gibt es einen kanonischen (einen vor allen anderen ausgezeichneten) Isomorphismus bzw. . Daher wird auch bzw. Orthogonale bzw. Unitäre Gruppe zur Dimension genannt und ebenfalls mit bzw. bezeichnet.
5.9
Satz und Definition
1 Det 1 Det
ist eine Gruppe, die Spezielle Orthogonale Gruppe. ist eine Gruppe, die Spezielle Unitäre Gruppe.
IX.2 Bestimmung von Eigenwerten und Eigenvektoren
81
IX Eigenvektoren und Eigenwerte
In diesem Kapitel wird ein Körper mit unendlich vielen Elementen wie etwa , zugrundegelegt, da für endliche Körper ein anderer Begriff eines Polynoms verwendet werden muß. (S. den Anfang von Kapitel! X auf Seite 106!)
IX.1 1.1
Diagonalisierbarkeit Problem
1 eines -dimensionalen Vektorraumes ' ' von , so daß besonders einfache Gestalt
Gegeben sei eine lineare Selbstabbildung über dem Körper . Gibt es eine Basis annimmt? Z. B. Diagonalgestalt?
. . 8 .. .
..
.
..
.
..
Wenn es eine solche Basis gibt, so sagen wir, daß diagonalisierbar ist. Dies bedeutet, daß jeder Basisvektor in ein Vielfaches von sich selber übergeht: 1.2
.
.
Definition
Ein heißt Eigenvektor zum Eigenwert Eigenvektor mit EV und Eigenwert mit EW ab.
heißt ein Eigenwert von
1!
-Matrix
1 !
und
. Wir kürzen
Es existiert ein Eigenvektor zum Eigenwert .
1
Indem wir eine in Beziehung zur linearen Abbildung sehen, deren Abbildungsmatrix bezüglich der kanonischen Basis ist, sprechen wir auch von EV und EW einer Matrix . 1.3
Notwendige und hinreichende Bedingung für Diagonalisierbarkeit
diagonalisierbar
IX.2
!
Bestimmung von Eigenwerten und Eigenvektoren
' ' Id !
Sei
Es gibt eine Basis aus Eigenvektoren.
.
ist EV zum EW Kern Id
! !
!
IX Eigenvektoren und Eigenwerte
82 Es gibt zu Isomorphismus 2.1
Satz: Sei
!
' '
ist EW von
Det(
Id) = 0.
!
zum Eigenwert .
' ' eine Basis von ' ' Det( Id) = Det( )= . * . 8 . 8 . . . . .. = sgn ... . . . . . . <&&& 1 Det( ) = Det( ). (" setzen) 4.
1
heißt das charakteristische Polynom von ,
Id).
Definition
chung von . 2.3
Kern(
und
und
Id ist kein
.
3. Sei im folgenden . Dann folgt:
2.2
einen Eigenvektor Kern( Id) Det( Id) = 0. Wir erhalten folgenden Satz:
! 2. ist ein EV von
1.
!
!
bezüglich
=
die charakteristische Glei-
Feststellungen
1. Die Eigenwerte von sind die Nullstellen des charakteristischen Polynoms von . Zur Bestimmung der Eigenwerte müsssen also die Nullstellen des charakteristischen Polynoms berechnet werden.
2. Ist ein EW gefunden, so sind die Koordinaten der EV zum EW Lösungen des homogenen linearen Gleichungssystems Id 2.4
Beispiele
8
'
'
die nicht trivialen .
hat für d. h. für 1. Die Drehung des um und Id und Id, keine Eigenvektoren. Der einzige EW von Id ist 1 und alle Vektoren sind Eigenvektoren zum EW 1. Der einzige EW von -Id ist -1 und alle Vektoren sind EV zum EW -1.
IX.3 Hauptachsen selbstadjungierter Abbildungen
83
1 2. 1 8 8 sei definiert durch 8 8 8 . Daher ist " der einzige Eigenwert. Für " folgt 8 . Um die Eigenvektoren zum EW 1 zu bekommen ist also die lineare mit sind die Eigenvektoren Gleichung 8 zu lösen. Die Vektoren zum EW . Es gibt keine Basis aus Eigenvektoren! ist nicht diagonalisierbar! 1 beliebig oft differenzierbar . 4 1 sei die Ableitung. Für 3. Sei 1 0 1 ' fest, 0 folgt: 4 0 0 0 ' d. h. 4 Die Funktion ist also ein Eigenvektor von 4 zum Eigenwert , wird auch Eigen
funktion genannt.
hat die Eigenwerte -1 und 1. 4. Die Matrix 8 ' ' ist ' ' und ' ' sind linear unabhängige ein Eigenvektor zum EW . 8 Eigenvektoren zum Eigenwert 1. ' 8 ' ist eine Basis aus Eigenvektoren. Als Diagonalisierung erhalten wir die Matrix: Dieses Beispiel ist der Schlüssel zur Anwendung der Eigenwerttheorie in der Analysis.
IX.3 3.1
Hauptachsen selbstadjungierter Abbildungen Bemerkungen
' '
:'
' '
Wir betrachten einen -dimensionalen Vektorraum mit Skalarprodukt über ; sei Id oder (kK= komplexe Konjugation). sei eine beliebige orthonormierte Basis. Zu einer orthonormierten Basis gehörige Koordinaten werden kartesische Koordinaten genannt. 1. Das Skalarprodukt lautet in einem beliebigen kartesischen Koordinatensystem wie folgt und kann als Matrizenprodukt geschrieben werden:
(' ' ' ' '
für
'
IX Eigenvektoren und Eigenwerte
84
('
2. Bei orthonormierter Basis erhalten wir die -te Koordinate larprodukt mit dem -ten Basisvektor:
eines Vektors als das Ska-
Beweis: 1. Dies folgt unmitelbar aus der Orthonormiertheit der Basis und der Definition des Matrizenproduktes.
('
2.
3.2
'
'
Definition und Satz
Eine lineare Abbildung
1
heißt semi-symmetrisch oder selbstadjungiert :
!
Eine der folgenden untereinander äquivalenten Bedingungen ist erfüllt:
' ( ' für alle (' . 2. ' ' für alle ' ' ' 3. Die Matrix ist semi-symmetrisch d. h. per Definition für alle '
'' .
1.
oder
Die Bezeichnung semi-symmetrisch ist klar, woher die Bezeichnung selbstadjungiert kommt, wird sich in dem Abschnitt 4.1 auf Seite 87 ergeben. Beweis:
1.
2.: Klar
2.
1.: Indem beliebige Vektoren durch die Basis dargestellt werden und die Linearität des Skalarproduktes in der ersten Variablen und die Semilinearität in der zweiten ausgenutzt wird, ergibt sich die erste Bedingung aus der zweiten.
!
' '
ist also die 2 3.: Es gilt nach Definition der Abbildungsmatrix . , die wir auch durch Bilden des Skalarproduktes mit mit -te Koordinate von erhalten können, also folgt:
'
!
3.3
' !
Definition
1
' '
und Sei linear und selbstadjungiert und . Sei orthonormiert. sei diejenige lineare Abbildung, die bezüglich der kanonischen Basis von die gleiche Matrix hat wie bezüglich . Wir nennen eine komplexe
1
' '
IX.3 Hauptachsen selbstadjungierter Abbildungen
85
Erweiterung von . In Abschnitt XII.3 auf Seite 145 werden wir die komplexe Erweiterung systematisch behandeln. 3.4
Satz
Wir betrachten 1.
als unitären Raum bezüglich des Standardskalarproduktes. Dann gilt:
selbstadjungiert
2. Für
ist ebenfalls selbstadjungiert.
sind die Eigenwerte einer selbstadjungierten Abbildung alle reell.
3. Damit hat auch für
ein selbstadjungierte Abbildung (reelle) Eigenwerte.
Beweis:
1. Die erste Behauptung folgt einfach daraus, daß und die gleiche Matrix haben bezüglich orthonormierter Basen und eine reell semi-symmetrische Matrix auch komplex semi-symmetrisch ist. 2. Sei ein Eigenwert und
' (' # (' #
ein zugehöriger Eigenvektor. Dann folgt:
(' wegen der Selbstadjungiertheit (' # (' # 1 ('
3. Da und die gleiche Matrix haben bezüglich orthonormierter Basen, haben sie das gleiche charakteristische Polynom. Da das charakteristische Polynom von vollständig in Linearfaktoren zerfällt mit lauter reellen Nullstellen, gilt dies auch für . 3.5
Satz und Definition
Eine selbstadjungierte Selbstabbildung von hat bezüglich einer geeigneten orthonormierten Basis Diagonalgestalt, d. h. sie ist eine Streckung in zueinander senkrechten Richtungen mit den Streckungsfaktoren , wobei die Eigenwerte von sind. Die von diesen Basisvektoren aufgespannten eindimensionalen Untervektorräume heißen Hauptachsen von . Die Transformation auf eine solche Basis heißt Hauptachsentransformation. Wenn keine verschiedene Id . Eigenwerte hat, sind die Hauptachsen nicht eindeutig bestimmt; z. B. für
: Klar sei ein Eigenwert und Für
Beweis: Induktion nach :
ein Eigenvektor dazu.
IX Eigenvektoren und Eigenwerte
86
Beachte: Auch jedes von null verschiedene Vielfache eines Eigenvektors mit dem gleichen Eigenwert.
ist ein Eigenvektor
%1 ist ebenfalls Eigenvektor zum Eigenwert . Sei ' '' eine Ergänzung von zu einer orthonormierten Basis von . Dann gilt: 8 ... Die Nullen in der ersten Spalte kommen daher, daß Eigenvektor ist, die Nullen in der ersten Zeile müssen dann wegen der Semisymmetrie der Matrix stehen. Wegen letzterem folgt für 1 8 ' ' für ' ' d. h. . Wir können einschränken auf und erhalten eine lineare Abbildung 1 , 1 ist wieder ein Vektorraum mit Skalarprodukt, das Skalarprodukt von wird einfach auf Vektoren von eingeschränkt und ist eine selbstadjungierte Abbildung. Da Dim eine orthonormierte Basis 8 ' ' gibt es nach Induktionsannahme von , bezüglich der die Matrix von Diagonalgestalt hat: 8 ...
Dann hat
Diagonalgestalt bezüglich
IX.4 Es sei
' 8 '' : 8 ...
Normale Endomorphismen
. Wir gehen folgenden Fragen nach.
1. Gilt im letzten Satz auch die Umkehrung?
diagonalisierbar bezüglich orthonormierter Basis
2. Woher kommt die Bezeichnung selbstadjungiert?
selbstadjungiert
IX.4 Normale Endomorphismen 4.1
87
Definition und Satz
' ' eine orthonormierte Basis, 1 1 , für die die folgenden unterein-
Sei ein Vektorraum mit Skalarprodukt und linear. Dann gibt es genau eine lineare Abbildung ander äquivalenten Bedingungen gelten:
(' '
' (' b) ' ' ' ' bezüglich ' ' c) heißt die zu adjungierte Abbildung. ist selbstadjungiert. !
a)
Beweis:
!
a)
b) wegen der Linearität von
(' in
und . b) bedeutet so viel wie b’) ' ' ' ' '
Sei
und der Semilinearität in .
d. h.
Dies ist Bedingung c). Also ist b) äquivalent mit c). Wegen c) ist die Abbildungsmatrix von existiert.
eindeutig festgelegt, also auch
, wenn es überhaupt
Sei die lineare Abbildung mit der Matrix wie in c) verlangt. Dann gilt natürlich c). Also existiert auch eine lineare Abbildung mit Eigenschaft c). 4.2
Definition
1
heißt normal :
4.2.1 Feststellung: 4.3 Sei
!
Eine selbstadjungierte Abbildung ist normal.
Hauptachsentransformation normaler Abbildungen für
1
eine lineare Selbstabbildung eines unitären Raumes. Dann gilt:
1 ! ist normal. Beweis: „ “: Sei ein Eigenwert und ein normierter Eigenvektor zu . Ergänze zu einer orthonormierten Basis '' . Diesbezüglich hat eine Matrix folgender Form:
ist bezüglich einer orthonormierten Basis diagonalisierbar
IX Eigenvektoren und Eigenwerte
88
. 8 .. 8
8
.. .
!
8
.. .
- 8 8 < &&& && .
..
. 8 . ..
.. 8 8 8 8 <&& 8
8
Jetzt schließen wir induktiv weiter wie beim Diagonalisierungssatz selbstadjungierter Abbildungen.
„ “: Sei diagonalisierbar bezüglich einer orthonormierten Basis. Bezüglich dieser hat dann wegen Bedingung c) auch Diagonalgestalt mit den konjugiert komplexen Zahlen in der Haupt diagonalen. Dann zeigt einfaches Nachrechnen, daß also auch gilt, das heißt, daß normal ist.
IX.5 5.1
Jordansche Normalform Einführung
1
bezeichnen wir den Sei ein -dimensionaler Vektorraum über einem Körper . Mit End -Vektorraum der Endomorphismen von . Sei End , Id Id . Wie wir gesehen haben, hat die lineare Abildung
)1 8 8 mit 8 1
8
bezüglich keiner Basis Diagonalform, weil keine Basis aus Eigenvektoren existiert. In solchen Fällen hat dann eine andere auch noch relativ einfache Normalform, die sogenannnte Jordansche Normalform (Camille Jordan, 1838-1922). Sie besteht aus sogenannten Jordankästchen,
IX.5 Jordansche Normalform d. h.
89
-Matrizen der folgenden Form:
..
.
..
.
.
..
Dabei sind die auftretenden genau die Eigenwerte von . Eine gleichwertige Behandlung der Jordanschen Normalform versteht unter Jordankästchen Matrizen der Form:
..
.
..
.
..
.
Eine Jordansche Normalform existiert unter folgender 5.1.1 Voraussetzung
&&
ist für und -<&&
' wobei . ' ' sind also die paarweise verschiedenen Nullstellen von bzw. die Eigenwerte von . Diese Bezeichnung wird im folgenden beibehalten. Wir nehmen ab jetzt an, daß diese Voraussetzung an erfüllt ist. Wegen des Funda
d. h.
Das charakteristische Polynom „zerfällt in Linearfaktoren“
mentalsatzes der Algebra ist für
5.2
Normalformen für End
die Voraussetzung immer erfüllt.
, wobei ' 8
Hier ist die „Liste“ aller Jordan-Normalformen für und für ganz durchlaufen, wobei außerhalb der Jordankästchen Nullen stehen.
Ein EW:
Zwei EW:
Drei EW:
1
' 8 1 ' 8' 1
8
8
8
8
' 8 ' paarweise verschieden
und
IX Eigenvektoren und Eigenwerte
90 5.3 Verallgemeinerte Eigenräume 5.3.1 Definition
1 Kern Id heißt Eigenvektorraum zum Eigenwert . besteht aus allen Eigenvektoren zum Eigenwert und dem Nullvektor. 1 1 Kern Id heißt verallgemeinerter Eigenvektorraum zum Ei2.
1
1.
genwert
.
5.3.2 Satz
& & ' ' 2.
1.
3. Dim
Beweis mit Hilfe der Teilbarkeitslehre von Polynomen (s. XVI. 3.6 auf Seite 191). 5.3.3 Folgerungen
eingeschränkte Abbildung 1 1 ' 1 + 2. Wir wählen Basen: ' ' von 8 ' ' 8 von 8 .. . ' ' von Dann ist '' 1 ' ' ' 8 ' ' 8 ' ' ' eine Basis von und hat diesbezüglich eine Matrix der Form:
1. Wegen der 2. Behauptung von 5.3.2 gibt es die auf .
..
8 8
.
eine
eine ist eine -Matrix, -Matrix usw. Hierbei stehen oberhalb und unterhalb der Kästchen Nullen wegen
-Matrix.
IX.5 Jordansche Normalform 5.4
Normalform auf
91
Im folgenden werden wir zeigen, daß die Hauptdiagonale herum besteht.
bezüglich geeigneter Basis aus Jordankästchen um
1!
5.4.1 Definition Sei ein Untervektorraum von ein algebraisches Komplement von in
' '
. Dann heißt ein Untervektorraum .
von
' ' ' ' . Also ist . '
5.4.2 Bemerkung Es existiert stets ein algebraisches Komplement, es ist nicht eindeutig; denn sei eine Basis von und eine Ergänzung zu einer Basis von . Dann ist ein algebraisches Komplement von in .
1 ' ' Beweis: ; denn für folgt: wegen wegen ' ' , da eine Basis ist. Es folgt . ' ' fest. Wir setzen zur 5.4.3 Bezeichnungen und Definitionen Es sei Abkürzung: Id 1 Id ' 1 , 1 ' 1 , und definieren: 1 Kern ' Id ' , ' 1 ' . Dann gelten folgende Hilfssätze: && && 8 5.4.4 Hilfssatz (a)
Beweis: 1.
Kern
2.
Kern
Kern Id
Id
.
sind diejenigen, die bei nach 0 abgebildet werden, sie werden nach 0 abgebildet, liegen also auch in . Also gilt:
3. Die Vektoren von erst recht bei .
Kern
IX Eigenvektoren und Eigenwerte
92
in die 0, Beweis: Sei , dann ist für ein . Jedes geht bei dann bereits bei in die null d. h. . 5.4.6 Hilfssatz (c) Sei im folgenden ein algebraisches Komplement von in , so . Es folgt: daß also gilt 3 ist isomorph für + d. h. . Beweis: Surjektivität klar Injektivität: Sei Kern wegen Injektivität Kern 3 8 5.4.7 Hilfssatz (d) 8 , dann: Beweis: Sei für ein d. h. d. h. . 8 8 bedeutet:
eine Basis von , dann ist ' ' linear 5.4.8 Hilfssatz (e) Ist ' ' unabhängig und kann zu einer Basis eines algebraischen Komplementes von 8 in ergänzt werden.
5.4.5 Hilfssatz (b)
Beweis:
'' eine Basis von ' ' Basis von wegen (c) (5.4.6) eine Basis von . Sei ' ' 8 8 8 wegen (d) ( 5.4.7) ' ' ' '' Basis von 8 ' ' ' '' ' '' sei eine Ergänzung zu einer Basis von . ' ' ' '' ist ein algebraisches Komplement von 8 in ' ' ' ' ' als Basis.
5.4.9 Überblick und Zusammenfassung
Es bezeichnet gilt:
mit
ein algebraisches Komplement von in , ' ' ' . Also
IX.5 Jordansche Normalform
93
8 &&
= = .. . =
&' '' bestimmen, ergeben alle zusam-
Wenn wir also sukzessive Basen von men eine Basis von .
1 ' ' eines . ist linear unabhängig und kann zu einer Basis Das Bildsystem %1 ' ' 1 ' ' '' ' von einem ergänzt werden. Die Bilder bei der Vektoren von sind wieder linear unabhängig und können zu einer Basis 8 von 8 ergänzt werden. etc. ein Diagramm an. Wir geben zur Erläuterung der Schrittes von auf 8 Basis von Basis von Ergänzug von zu Basis eines Als letztes erhalten wir eine Basis eines . Die Vektoren . aller Basen &' ' ' zusammen genommen ergeben eine Basis von
Starte mit einer Basis
5.4.10 Zusammenhang mit Jordankästchen aufeinanderfolgende Basisvektoren -Jordankästchen liefern genau dann ein
' 8 ' '
wenn
..
.
..
.
..
für '' und
.
gilt.
'
IX Eigenvektoren und Eigenwerte
94 5.4.11 Konstruktion der Jordanbasis im Detail
. 8 8 .. .. . 8
..
8
Basis von Basis von
8
Basis von
:
Eine Jordanbasis finden wir nun dadurch, daß wir die Vektoren dieser Tabelle in einer geeigneten Reihenfolge nehmen, nämlich so, daß wir sie den Spalten nach anordnen. Die Vektoren in der neuen Reihenfolge bezeichnen wir mit usw.:
8. .
8 8 8
. .. .
'8'
..
Basis von Basis von
Basis von : 8 8 8 8 8 ' 8 ' ' ' Dann gilt: , usw. Insgesamt erhalten wir ' 8 ' ' liefert also ein Jordankästchen ist. Weiter sehen wir, daß es Dim Dim Jordankästchen, wobei Dim -Jordankästchen gibt. Allgemein gilt: Dim Dim . Die Anzahl der -Jordankästchen =
erhalten wir die Matrix von aus der von , indem wir die Nullen in Wegen
der Hauptdiagonalen durch ersetzen.
Wir fassen zusammen:
IX.5 Jordansche Normalform
95
5.4.12 Satz und Definition Das obige konstruktive Verfahren liefert eine Jordan-Basis von , bezüglich der , d. h. eine Basis von die folgende Jordangestalt hat:
..
.
..
..
.
.
..
.
Außerhalb der Jordankästchen stehen Nullen.
Dim
taucht dabei -mal auf mit:
Dim
Eine aus Jordanbasen der zusammengesetzte Basis von heißt eine Jordanbasis von und die aus den zusammengesetzte Matrix ein Jordan-Normalform von .
IX Eigenvektoren und Eigenwerte
96
5.4.13 Beispiel
1
1
Standard-Basis
1. Die Berechnung des charakteristischen Polynoms liefert:
: : % 8 : % 8 Dabei wurden folgende Zeilenumformungen durchgeführt: * ' 8 ' Basis von : ' ' ' ' ' ' ' ' ' ' ' ' ' '
2. Berechnung einer Basis von
Id
' &' ' 8 : 8 8 Kern Id 8 4. Basis von : ' 8 ergänzt die gefundene Basis von zu einer Basis von ist eine Basis von 1 ' ' '; 8 1 8 8
3. Berechnung von Id
8
.
: ' ' ' ' ' 8 ' ' ' ' ' ' ' ' ' ' ' ist eine Jordan-Basis.
5. Basis von
6.
Id
und Matrix der Basistransformation von
7. Jordansche Normalform
auf :
IX.6 Anwendung auf Differentialgleichungen
IX.6
97
Anwendung auf Differentialgleichungen
Die mathematische Modellierung von mathematischen und außermathematischen Problemen läuft häufig darauf hinaus, ein System von Differentialgleichungen aufzustellen, dieses zu lösen und die mathematische Lösung mit der Wirklichkeit zu vergleichen. Es sei oder .
6.1
Definition eines Systems von
2 . 2 ..
Ein System formaler Gleichungen
Differentialgleichungen 1. Ordnung
- 8 - 8
8 & & 8 & &
(6)
5 ' ' 0 ' ' 0 von differenzierbaren heißt eine Ein -tupel 0 Funktionen 1 2 0 und 0 für die Unbestimmten Lösung von ( 6), wenn nach Einsetzen der Funktionen 2
heißt ein System von linearen Differentialgleichungen 1. Ordnung mit konstanten Koeffizienten. Die Koeffizienten bilden die sogenannte Koeffizientenmatrix und die inhomogenen Bestandteile bilden die inhomogene Spalte .
und
gültige Gleichungen von Funktionen entstehen.
2 < ' 12 2 ' ' 2 5 Das System heißt homogen 1 ! 2 < heißt das zu. (6) bzw. (7) gehörige homogene System.
Matrixschreibweise für ( 6):
(7)
6.2
(8)
Struktur der Lösungsmenge
'
1. Der Lösungsraum Łhom eines homogenen Systems ( 8) ist ein Untervektorraum des Vektorraumes der -tupel von stetigen Funktionen von nach .
0 eine spezielle Lösung des inhomogenen Systems ( 6), dann gilt: Łinhom 0 Łhom 1 0 0 0 hom
2. Ist
Hierbei darf der inhomogene Bestandteil sogar aus beliebigen stetigen Funktionen
0 bestehen.
Vom theoretischen Standpunkt aus, wird mit spezieller Lösung irgendeine Lösung bezeichnet. Vom praktischen Standpunkt aus wird versucht, eine Lösung als eine möglichst einfache Funktion, etwa eine konstante Funktion, zu bestimmen; insofern haftet ihr dann etwas spezielles, nämlich möglichst einfaches, an.
IX Eigenvektoren und Eigenwerte
98
Im Gegensatz dazu wird unter der allgemeinen Lösung nicht eine einzige Lösung verstanden, sondern eine Formel, die genau alle Lösungsfunktionen beschreibt. 6.3
Beispiel
22 ' 8 8 8' 8
22 8 ' 8
Matrixschreibweise: 8 8 ' 8 sind die Lösungen. Genau die Funktionenpaare 0 ' 8 0 (Beweis mit dem Hauptsatz der Differential- und Integralrechnung.) 6.4
Transformationsformel
eine Koordinatentransformation in und 0 1 0 Dann 2 ist 0 eine Lösung von ( 6 auf der vorherigen Seite) ! 0 , 2 2 . Daraus folgt: Beweis: Es gilt 2 ! 2 ! 2
Sei
ist eine Lösung von
6.5
Anwendung
2
Wenn möglich wird die Matrix auf Jordansche Normalform transformiert . Dann braucht nur noch die allgemeine Lösung von gefunden werden. Durch Rücktransformation erhalten wir alle Lösungen des ursprünglichen Systems.
6.6
Beispiel
Das Differentialgleichungssystem hat bereits Jordan-Normalform. Lösung:
8
2 +' 2 8 8
ist nicht diagonalisierbar und
'
Die erste Gleichung hängt von gar nicht ab und und kann getrennt von der zweiten Gleichung gelöst werden; ihre allgemeine Lösung ist: . Dies setzen wir in die zweite Gleichung ein und erhalten:
2
8 Hier können wir als einen (nicht konstanten) inhomogenen Bestandteil ansehen. Die zuge2 hörige homogene Gleichung lautet: 8 8 und hat die allgemeine Lösung: 8 8 ' 8
( )
8
IX.6 Anwendung auf Differentialgleichungen
99
8 8
8
Lösung des inhomogenen Differentialgleichungssystems ( ) mit der „Methode der Variation der die Konstante Konstanten“: Wir ersetzen in der Funktion durch eine differenzierbare Funktion :
0
82 0 2 0 8 0 0 0 Dann gilt: 8 0 ist Lösung von ( ) ! 2 # ! 2 ! 0. 8 ' 8 0 8 ist eine spezielle Lösung von ( ) und zugleich die allgemeine; denn wenn 8die allgemeine Lösung des homogenen Systems noch dazuaddiert wird, entsteht keine andere
Form der Lösung.
8
0- 8
' '* 8
ist die allgemeine Lösung des Differentialgleichungssystems.
6.7
Die allgemeine Lösung von
.. .
ist:
;0 < &&& .. . 0 < &&
im homogenen Fall
.. .
..
2
0- 8
8 .
6.8
Satz über die Lösung für
Inhomogener Fall
2
) '
' ' '
Die Lösung des inhomogenen Falles konstant gelingt mit der Methode der Variation der Konstanten: Ersetze die Konstanten in der soeben gefundenen Lösung durch Funktionen . Einsetzen in die inhomogene Differentialgleichung liefert Differentialgleichungen für die , die leicht zu lösen sind.
0'
' 0 0 '
' 0
' '
IX Eigenvektoren und Eigenwerte
100 6.9
Definition einer Differentialgleichung -ter Ordnung
Eine explizite, lineare, gewöhnliche Differentialgleichung -ter Ordnung mit konstanten Koeffizienten ist eine Gleichung der Form:
2 <&& ' ' ' ' ' ' (9) &' ' 5heißen die (konstanten) Koeffizienten, der inhomogene Bestandteil. (2) heißt homogen, falls ist. Die Gleichung 2 &&& (10)
heißt die zu (2) gehörige homogene Differentialgleichung. Dabei bedeutet: explizit: nach höchster auftretender Ableitung aufgelöst
.' 2 ' '
linear: bei der zugehörigen homogenen Differentialgleichung hängt die rechte Seite linear von ab.
0
gewöhnlich: Eine Lösungsfunktion hat eine Variable . Gegensatz: Partielle Differentialgleichung: Lösungsfunktion hat mehrere Variable und in der Differentialgleichung treten ihre partiellen Ableitungen auf.
-te Ordnung: Die Differentialgleichung enthält von für .
'
mit konstanten Koeffizienten:
, d. h. hängt von
ab, aber nicht
sind konstant.
Zur Terminologie: Wir werden uns nur mit expliziten, linearen, gewöhnlichen Differentialgleichungen mit konstanten Koeffizienten befassen und dafür kurz Differentialgleichung sagen.
.' 2 ' '
In ( 9) können wir als Unbestimmte und ganz ( 9) als einen formalen Ausdruck ansehen. Eine Lösung von ( 9) ist eine -mal differenzierbare Funktion , so daß, wenn wir in ( 9) für die Unbestimmte die -te Ableitung einsetzen, eine gültige Gleichung für Funktionen entsteht. Wenn wir betonen wollen, daß die Funktion gemeint ist, schreiben wir die Variable dazu. Der Buchstabe allein kann je nach Zusammenhang die Unbestimmte oder die Funktion bezeichnen.
0
6.10
Sei
0 ' ' 1' '
0
Beziehung zwischen einer Differentialgleichung -ter Ordnung und einem System von Differentialgleichungen 1. Ordnung
0
eine Lösung der Differentialgleichung: ( 9)
IX.7 Die gedämpfte und die harmonische Schwingung
101
für ' ' . Es folgt: 2 , also ) 1 2 0 ' ' 0 ist eine Lösung des Systems: .2 8 ... . . . . . . . . . ... .. 2 .. .. .. mit der Matrix (11) . . .
2 . Umgekehrt ist für jede Lösung 0 ' ' 0 von ( 11) 0 1 0 eine Lösung von ( 9
Wir setzen .
auf der vorherigen Seite).
IX.7 7.1
Die gedämpfte und die harmonische Schwingung Zwischenbemerkung
In den bisherigen Abschnitten sind alle Elemente zusammengetragen, um eine Differentialgleichung -ter Ordnung oder ein Differentialgleichungssystem 1. Ordnung zu lösen. Wir haben nicht die allgemeinsten Sätze aufgeführt, sondern die Bausteine zum Lösen des allgemeinen Falles behandelt und Beispiele vorgerechnet. Wir halten nochmals ein wesentliches Prinzip für fest: die Lösung eines Differentialgleichungssystems
2
1. Wir transformieren zuerst die Koeffizientenmatrix in Normalgestalt Jordan-Normalform).
(Diagonal- oder
2 , wobei . 2 0 0 ist die allgemeine Lösung des Ausgangssystems, wenn 0 die allgemeine
2. Dann lösen wir das transformierte System
3.
Lösung des transformierten Systems ist.
Im diesem Abschnitt behandeln wir ein grundlegendes Beispiel. In einem Fall existiert im Reellen keine Jordan-Normalform, aber natürlich im Komplexen. Wir zeigen, wie die reelle allgemeine Lösung zu erhalten ist. Zur Lösung eines Differentialgleichungssystems 1. Ordnung ist sodann auch die zur Normalform gehörige Basis zu bestimmen. 7.2
Fallunterscheidung nach der Diskriminante
Die Differentialgleichung der gedämpften (harmonischen) Schwingung ist eine Differentialgleichung 2. Ordnung:
6
6
2 2
mit
' ' 5
IX Eigenvektoren und Eigenwerte
102
/ ! 8 . Es hat die Nullstellen 8 8 8 ' 8 Je nach dem Vorzeichen der Diskriminante 8 8 8 Ihr charakteristisches Polynom ist
wir drei Fälle: unterscheiden
1. Fall: 2. Fall: 3. Fall:
„kleine Reibung“
„Reibungsgrenzfall“
„große Reibung“
Im folgenden betrachten wir die homogene Differentialgleichung. Für den inhomogenen Fall siehe 7.6 auf Seite 104. 7.3
Der Fall kleiner Reibung
# '
' 1 1 1 0 0
'
Im Falle haben wir zwei verschiedene, nicht reelle, sondern konjugiert komplexe Eigen werte Re Im . Darum gehen wir derart ins Komplexe über, daß wir Funktionen betrachten und damit Vektorräume über erhalten. Eine Basis des komplexen Lösungsraumes ist:
1 1
0 0
Daraus erhalten wir die folgende Basis des reellen Lösungsraumes:
8 8
0
0
Allgemeine reelle Lösung:
0
' 8 0
0 8 0 1 ' 8 ' Polarkoordinaten 0 0
0 0 0 ' 0 1
IX.7 Die gedämpfte und die harmonische Schwingung
103
d. h. . Die allgemeine Lösung ist eine periodische 0 0* 0 mit :1 Bis auf Skalierung und Verschiebung des Nullpunktes ist 0 ein Kosinus-Funktion bzw. Sinus ). Diese Bewegung der Feder heißt eine harmonische Funktion (wegen Schwingung, weil auch die Grundschwingungen einer Saite durch umskalierte Sinus-Funktionen 1 Kreisfrequenz, 1 die Frequenz und beschrieben werden. heißt Amplitude, die Schwingungsdauer. 0 heißt die Phasenverschiebung; sie hängt von der Festlegung des 7.3.1 Ohne Reibung Keine Reibung bedeutet Funktion:
Nullpunktes der Zeitrechnung ab und hat deshalb keine physikalische Bedeutung. Nur wenn zwei harmonische Schwingungen miteinander verglichen werden,
0
0 0 und 0 0* 0 , dann erhält die Phasendifferenz 0 , 0 zwischen den beiden Schwingungen eine von der Festle-
etwa
gung des Zeit-Nullpunktes unabhängige Bedeutung.
7.3.2 Mit kleiner von null verschiedener Reibung Unter kleiner Reibung soll verstanden werden
und
8 8
.
Letzteres
8 d. h. 8 9 d. h. . Wir erhalten eine gedämpfte (harmonische) Schwingung. Ihre Es gilt: 8 . Kreisfrequenz ist 8 Wir sehen außerdem, daß eine Vergrößerung der Reibung eine Verringerung der Frequenz )1 bewirkt. Wir könnten das erwarten, weil größere Reibung die Bewegung verlangsamt.
bedeutet:
Jedoch wird durch eine höhere Reibung auch die Amplitude verkleinert, so daß das mechanische System auch einen kleineren Weg zurücklegt bei einer Periode. Die Verringerung der Frequenz ist also nicht von vorneherein zu erwarten. Dabei ist zu beachten, daß die Lösung nicht mehr periodisch ist. Die Durchgänge durch die Ruhelage erfolgen aber noch periodisch. Die Zeitdifferenz zwischen zwei aufeinanderfolgenden Durchgängen durch die Ruhelage wird Periode genannt. 7.4
"
Der aperiodische Grenzfall
(
Im Grenzfall d. h. gibt es nur einen Eigenwert , der reell ist und zwar ist . Es folgt . Das zugehörige System von zwei Differentialgleichungen 1. Ordnung hat die nicht diagonalisierbare Matrix:
IX Eigenvektoren und Eigenwerte
104
0 0- 8
Daher lautet die Lösung:
0 8 , und bewegt sich für ab einem gewissen Zeitpunkt 0 monoton und sehr schnell (exponentiell) auf die Ruhelage zu.
Die Feder passiert genau einmal die Ruhelage, nämlich für
7.5 Der Fall großer Reibung
7
sein. Wir haben zwei reelle und zwar 8 8 8 0 8
Für muß die Reibung groß nämlich negative Eigenwerte
Die allgemeine Lösung lautet:
„Qualitativ“ verhält sich das System ähnlich wie im aperiodischen Grenzfall: Höchstens ein Durchgang durch die Ruhelage, ab einem bestimmten Zeitpunkt monotone Bewegung auf die erreicht wird. Ruhelage zu, die für
0
7.6
Die inhomogene Differentialgleichung
Hier ändert sich nicht viel gegenüber der zugehörigen homogenen Differentialgleichung, da als spezielle Lösung eine konstante Lösung genommen werden kann und sich die Lösungen nur um die Addition einer bestimmten Konstante ändern. Die Schwingung findet um diese Konstante herum statt, und in den letzteren Fällen bewegt sich das System statt auf die Null auf diese konstante Lage zu.
IX.8 8.1
Eigenwerte des Integraloperators Das Problem und seine Lösung
'
Der Differentialoperator auf dem Vektorraum aller beliebig oft differenzierbaren Funktionen hat alle reellen Zahlen als Eigenwerte (vgl. 3. Beispiel in 2.4 auf Seite 82). Die Integration ist die Umkehrung der Differentiation und muß daher die inversen Eigenwerte haben; denn für einen Automorphismus eines Vektorraumes hat genau die inversen Eigenwerte wie . Das Problem ist hier, daß nur ein Isomorphismus ist, wenn wir von den konstanten Funktionen absehen können; denn diese bilden den Kern . ist also gar nicht definiert. Ein erster Versuch, den Integraloperator durch die Definition
1
1
0 4 0
IX.8 Eigenwerte des Integraloperators
105
eindeutig zu machen. Es stellt sich jedoch heraus, daß dieses keinen Eigenvektor besitzt. Ande rerseits ist Integral (,worunter wir ab jetzt eine Stammfunktion verstehen) von ; also ist doch irgendwie eine Eigenfunktion des Integraloperators zum Eigenwert ! Aber wie? Die Lösung besteht darin, sinnvoll zu verarbeiten, was es bedeutet, daß ein Integral nur bis auf Addition einer konstanten Funktion eindeutig bestimmt ist. Nämlich so: Das Integral ist eindeutig bestimmt modulo des Untervektorraumes der konstanten Funktionen und definiert eine lineare Abbildung: (12) Für und gilt:
1 ' ' 1 ' '
8.2
Differential und Integral, zueinander inverse Isomorphismen
(13)
ist also so etwas wie ein „Eigenvektor relativ “ von zum Eigenwert . Die gewöhnlichen Eigenvektoren und Eigenwerte sind im Sinne dieser allgemeineren Definition die Eigenvektoren und Werte relativ der Identität.
Beachtenswert ist noch, daß
und
11
1 ' #
'
wie in Gleichung (1) zueinander inverse Isomorphismen sind.
A. Riede: Lineare Algebra 2, SS 00
X Ringe und Algebren
106
X Ringe und Algebren Wir wollen in einem späteren Kapitel die Eigenvektortheorie fortführen und dabei beliebige Körper betrachten. Dazu muß der Begriff eines Polynoms abgeändert werden. Was wir bisher als ein Polynom bezeichnet haben, nennen wir ab jetzt eine ganzrationale Funktion. Für unendliche Körper (Körper mit unendlich vielen Elementen) sind die beiden Begriffe äquivalent (s. 5.5 auf Seite 115). Dabei tritt der Begriff eines Ringes (mit Eins) auf, der ähnlich wie ein Körper definiert wird. (Freie) Moduln über einem Ring sind eine Verallgemeinerung eines Vektorraumes über einem Körper.
X.1
Ringe
1.1
Definition
1. Ein Ring (mit Eins) ist ähnlich wie ein Körper definiert (s. 5.5 auf Seite 21), jedoch das Kommutativ-Gesetz der Multiplikation, die Existenz eines Inversen und brauchen nicht zu gelten, aber zusätzlich muß das links-distributive Gesetz gelten:
"
' -'
für alle
2. Gilt auch das Kommutativ-Gesetz der Multiplikation, so sprechen wir von einem abelschen oder kommutativen Ring.
1.2
Satz über die Reste bei Division durch
sei eine beliebige natürliche Zahl. Jede ganze Zahl werden in der Form und mit
kann bekanntlich eindeutig dargestellt
' ' wobei 1 der Rest bei Division von durch genannt wird. Alle auftretenden Reste bilden die Menge 1 ' ' '
Wir definieren für
Dann gilt:
eine Addition
1
und eine Multiplikation :
'
"' ;' ist ein kommutativer Ring (mit Eins) . "' ;' ist ein Körper ! ist eine Primzahl.
1
X.2 Die Ringe und Algebren End 1.3
und
107
Definition
) 9 1 heißt ein Ringhomomorphismus, falls : und gilt.
Eine Abbildung zwischen Ringen ,
Folgender Abschnitt behandelt ein Beispiel eines Ringhomomorphismus aus der Linearen Algebra.
X.2 2.1
Die Ringe und Algebren End
und
Definition
, ein Körper und ein -dimensionaler Vektorraum über . Eine lineare SelbstabSei bildung von wird auch ein Endomorphismus genannt. End 2.2
1 ' bezeichne die Menge aller Endomorphismen von
.
Satz und Definition
1. Bezeichnet + die Summe und die Hintereinanderausführung von Endomorphismen bzw. + die Addition von Matrizen und * das Matrizenprodukt, dann sind End und (für nicht kommutative) Ringe mit Eins. Sie heißen Ring der Endomorphismen von bzw. Ring der -Matrizen mit Koeffizienten in .
' '
' '
' ' ' ;'
2.3
2. Ist eine Basis von fest gewählt, und bezeichnet bezüglich dieser Basis, dann ist die Zuordnung . End
1
die Matrix eines Endomorphismus ein Ringhomomorphismus
Feststellung
' '
' '
5 für alle (' End ' # für alle "' '
Früher hatten wir herausgefunden, daß, wenn die Multiplikation mit Skalaren bezeichnet, End und Vektorräume über sind. Es gilt außerdem:
2.4
5 # #
Definition
' ; ' zusammen mit einer Skalarenmultiplikation , .' ' ' ein Vektorraum ist und # # für alle und alle '
1. Ein Ring sodaß
,
X Ringe und Algebren
108
gilt, heißt eine
Algebra.
2. Eine Abbildung zwischen Algebren, die sowohl Vektorraum- wie Ring-Homomorphismus ist, heißt ein Homomorphismus von Algebren. Ein Algebren-Isomorphismus ist ein bijektiver Algebren-Homomorphismus. 2.5 End
1
X.3
Satz
' ' ' und ' ' ' sind Algebren und ' ' ' ist ein Algebren-Isomorphismus. End ' ' '
Moduln
In diesem Abschnitt sei ein Ring mit Eins. Moduln über einem Ring sind eine einfache Verallgemeinerung von Vektorräumen über einem Körper. Sie sind grundlegende algebraische Objekte. 3.1
Definition
Ein Modul über ist eine Menge zusammen mit zwei Verknüpfungen, einer Addition + und einer Multiplikation mit Skalaren mit folgenden Grundeigenschaften: 1. Bezüglich der Addition ist
eine abelsche Gruppe.
2. Bezüglich der Skalarenmultiplikation gilt:
b)
a) Das assoziative Gesetz:
-'
für alle
für alle
.'
und alle
3. Bezüglich beider Verknüpfungen die Distributiven Gesetze: Für alle gelten:
.' #
und alle
b) a)
Die Definition stimmt also mit derjenigen eines Vektorraumes überein, die Unterschiede betreffen nur den Skalarenbereich. Deshalb können für Moduln die gleichen Begriffe abgeleitet werden und die gleichen Sätze bewiesen werden wie für Vektorräume, insofern die Existenz der Inversen im Skalarenbereich und die Kommutativität der Multiplikation im Skalarenbereich nicht benötigt wird. Z. B. machen die Begriffe Untermodul, Linearkombination, lineare Hülle, Erzeugendensystem, Basis, lineare Abbildung, Kern, Bild, , alternierende Multilinearform genauso einen Sinn.
X.4 Beweis der Existenz einer Determinantenform
109
1
Der Satz von der Existenz einer Basis eines endlich erzeugten Moduls gilt jedoch nicht; es ist z. , aber für B. ein -Modul mit der Skalarenmultiplikation prim ist jedes einelementige System , ein Erzeugendensystem, jedoch keine Basis, da z. B. , also nicht eindeutig in der Form mit dargestellt werden kann.
'
kanonische Basis: ' ' ' ' ' ' ' ' die ' ' ' ' ' ' Dabei darf eine Basis nicht als ein maximales linear unabhängiges System definiert werden. über dem Ring Z. (2) ein maximales linear unabhängiges System des Moduls , B.aberistkein Erzeugendensystem; es erzeugt nur die geraden Zahlen. Ich verwende folgende Manche Moduln haben jedoch eine Basis , z. B.
Definitionen, die die entsprechenden Definitionen für den Fall eines Körpers verallgemeinern. 3.2
Verallgemeinerte Begriffe für freie Moduln
1.
' 8 ' '
invertierbar ist.
sind linear abhängig :
!
, wobei mindestens ein
2. Eine Basis eines endlich erzeugten Moduls ist ein System, durch das jedes Element des Moduls eindeutig linear dargestellt werden kann. 3. Ein Modul, der eine Basis besitzt, heißt ein freier Modul.
4. Eine Determinantenform auf einem -dimensionalen freien Modul ist eine -fache Linearform, die für linear abhängige Elemente verschwindet und einer (und damit jeder) zuordnet (s. 4.2 auf Seite 112). Basis ein invertierbares Element 3.3
Bemerkungen
Die Definition einer Algebra über einem Körper kann unmittelbar auf den Begriff einer Algebra über einem Ring übertragen werden.
1
Für freie Moduln und kann die Theorie der linearen und multilinearen Abbildungen , insbesondere der Bezug zu Matrizen, verallgemeinert werden. Exemplarisch führen wir die Determinantentheorie in Abschnitt X.4 durch, die wir andererseits auch für die Fortführung der Eigenwert-Theorie benötigen werden.
X.4 4.1
Beweis der Existenz einer Determinantenform
Satz
' '
Sei eine Determinantenform auf einem -dimensionalen freien Modul tativen Ring mit Eins. Sei eine feste Basis von und
über dem kommu die
X Ringe und Algebren
110
' ' . Dann gilt: 1. ' ' '' & '' mit '' 1 sgn 8 8 &&
lineare Darstellung der Elemente
2. Eine Determinantenform ist bis auf einen invertierbaren Faktor
ist eine Determinantenform.
3.
Leibniz-Formel
eindeutig.
' ' ein be
4. Es gibt genau eine Determinantenform, die einer vorgegebenen Basis liebiges vorgegebenes invertierbares Element zuordnet, z. B. .
' 8 ' '
siehe ' ' ' 8
' ' '
8
' ' '
8
& &
&& 8 && ' ' ' siehe
8 && ' ' ' 8 8 && ' 8 ' ' sgn 8 8 && ' ' ' 8
Beweis: Zu 1:
Wegen der Multilinearität kann für jede Variable eine Linearkombination aus gen werden, z. B. für die erste Variable:
' ' '
herausgezo-
8 ' ' ' 8 '' ' ' ' ' '
Hier braucht nur über paarweise verschiedene ' 8 '' summiert zu werden, weil sonst der Summand null ist, da zwei Variablen von gleich, alle Variablen also linear ab hängig sind. Dann bilden ' 8 ' ' eine Permutation von ' ' ' : ' 8 ' '
X.4 Beweis der Existenz einer Determinantenform
111
' ' ' . Daher kann die Summe als eine Summe über alle Permutationen
invertierbar. Im folgenden schrei-
schrieben werden.
' ' tierbar sind.
Zu 2: Sei eine weitere Determinantenform. Dann ist ben wir die Variablen nicht an.
1
mit
ge-
invertierbar, da
und inver-
Zu 3: Multilinearität ist erfüllt wegen folgender Argumente: Die Koordinatenzuordnung ist linear. Ein Produkt ist in jedem Faktor additiv wegen des Distributivgesetzes. Ein Produkt ist in jedem Faktor homogen wegen des Assoziativgesetzes und wegen der Kommutativität. Eine Summe linearer Abbildungen ist wieder linear.
'' für linear abhängige '' : (a) Wir zeigen dies zunächst für den Spezialfall, daß zwei Vektoren gleich sind.
Sei fürfür alle , d. h. ' ' . Wir spalten die Summe bei der Definition von in eine Summe über die geraden und über die ungeraden Permutationen auf. ' ' ' ' ' ' sgn = sgn und sgn Wir setzen mit 1 ' und 1 . Hier ist sgn Durchläuft alle ungeraden Permutationen, so durchläuft alle geraden. (Vertauschen von Faktoren) (wegen )
gerade
ungerade
' ' ' ' ' ' (b) Seien ' ' linear abhängig, dann gibt es mit
Die beiden Summen über die geraden und ungeraden Permutationen stimmen also bis auf das Vorzeichen überein; folglich gilt:
X Ringe und Algebren
112
'' -te -te -te ' 8 ' ' ; denn alle Faktoren in einem Produkt der Formel sind nur dann und ' ' ' ist. Also hat auf einer haben dann den Wert 1, wenn Basis einen invertierbaren Wert, nämlich auf ' ' den Wert 1. Zu 4: ist die einzige Determinantenform mit Wert für ' ' .
4.2
Bemerkung
'' invertierbar für eine Basis ' ' , dann ist wegen der Multilinearität %1 ' 8 1 8 ' ' 1 eine Basis mit '' . Sei jetzt ' ' eine beliebige Basis. Dann besagt die 1. Behauptung von 4.1 auf Seite 109 für diese '' und ' ' : '' ' ' '' Also ist ' ' invertierbar mit Inversem ' ' . Ist
X.5
Polynomring
Dieser Abschnitt behandelt ein wichtiges Beispiel einer Algebra über einem Ring, das wir im Abschnitt XVI.1 auf Seite 178 bei der Behandlung des charakteristischen Polynoms benötigen werden. In diesem Abschnitt sei bis Punkt 5.3 auf Seite 115 ein kommutativer Ring mit Eins. 5.1
Definition
Sei ein Element, das nicht angehört; historisch wird es eine Unbestimmte genannt. Dann besteht der Polynomring in der Unbestimmten aus allen formalen Ausdrücken der Form:
* ! 8 8 &&& nur eine andere Bezeichnung für und eine andere Wir vereinbaren bei , daß Bezeichnung für sein soll: 1 und 1 Dann schreibt sich ein solcher formaler Ausdruck systematischer in der Form && mit für alle ' ' ' und mit ' variabel. Lies: „ oben null plus oben eins plus ...“.
Diese formalen Ausdrücke können wir uns so vorstellen, wie aus einem Alphabet eine Sprache gebildet wird: Gewisse Buchstabenzusammenstellungen stellen ein Wort, ein Element, der Sprache dar. Statt von Buchstabenzusammenstellungen wird in der Mathematik und Informatik von
X.5 Polynomring
113
Zeichenketten (engl. strings) gesprochen. Als Zeichen werden an dieser Stelle die Elemente von , das Symbol , das Zeichen + , die natürlichen Zahlen und 0 verwendet; sie bilden hier das Alphabet. Elemente des Polynomrings sollen genau die Zeichenketten der obigen Form sein. Sie werden Polynome genannt.
1
Die Elemente von werden hochgerückt, weil wir für ja u. a. noch eine mit * bezeichnete Multiplikation einführen wollen. Verwenden wir die abkürzende Bezeichnung , dann wird die Multiplikation gerade so erklärt werden, daß gilt
& &
, wobei das Produkt auf der linken Seite Faktoren hat. Die linke Seite wird in der Mathematik gewöhnlich mit „ hoch “ bezeichnet. Das auf die Multiplikation bezogene „ hoch “ ist also gleich dem formalen „ oben “.
&& für , so werden die Ausdrücke &&& Ist && ' als gleich angesehen. Es kann also bei der Betrachtung zweier und
angenommen werden. Ausdrücke immer auch weggelassen werden, oder , so kann beim Aufschreiben der Zeichenkette Ist umgekehrt, fehlt ein Teil der Kette der Form , so soll dies dasselbe bedeuten wie wenn an der passenden Stelle stünde. Z. B. 8 8 . Haben wir zwei Polynome 1 <&& und 1 &&& '
dann gilt, weil im Polynomring außer der obigen Identifikation keine weiteren Identifikationen vorgenommen werden, wobei wir annehmen dürfen:
!
für alle
' ' '
Dies ist der Identitätssatz für Polynome. Er gilt hier also per Definition von Polynomen.
heißen die Koeffizienten des Polynoms . Multiplikation von Polynomen mit Skalaren Die
und Addition + von Polynomen wird koeffizientenweise erklärt, das Produkt zweier Polynome durch die entsprechende Formel, nach der ganzrationale Funktionen multipliziert werden:
<&& - <&&& . mit 1 mit für , für # '' bezieht sich auf die Addition in und die Formel für bezieht sich auf das Produkt und die Summe in , während die übrigen Pluszeichen auf der rechten Seite && zunächst formal sind; jedoch stellt sich heraus, daß das Polynom auch die Summe der Polynome ' '&&-' bezüglich der Addition in ist. 1 1 2. 3. 1 &' . 1.
X Ringe und Algebren
114
. Die Summe von
Mit diesen Verknüpfungen wird zu einer kommutativen -Algebra, wie wir durch Nachrechnen der Axiome überprüfen können. ist die Eins von und es gilt .
5 +
Es ist
5
und ist in die selbe wie in : . Das gleiche gilt für das Produkt. . (Denn für lautet die Formel für so: .) ist eine Unteralgebra von . (Unteralgebren, Unterringe bzw. Untermoduln einer Algebra, eines Ringes bzw. eines Moduls sind natürlich so definiert, daß sie Teilmengen des größeren Objektes sind und die betreffenden Verknüpfungen des größeren Objektes, wenn sie nur auf Elemente des Unterobjektes angewendet werden, mit den Verknüpfungen des Unterobjektes übereinstimmen.)
Dafür, daß sich jedes Element von eindeutig in der Form darstellen läßt, wird auch gesagt: Das System, das nur aus einem Element besteht ist eine -Algebra-Basis von . ist eine algebraische Darstellung von durch die Basis , während wir bei einem Vektorraum lineare Darstellungen durch die Basis betrachten. ist also eine eindimensionale freie Algebra über . Auch bezüglich Algebrahomomorphismen von nach einer anderen Algebra über gibt es eine Analogie zur Vektorraumbasis:
5.2
Satz
Sei ein beliebiges Element einer -Algebra , dann gibt es genau eine Abbildung mit: (i) ist Algebrahomomorphismus und (ii)
1
1
.
ist eine kommutative (Unter-) Algebra über von .
Beweis:
&&& && <&&& wegen (ii)
1. Eindeutigkeit
( )
Also ist
wegen (i)
eindeutig.
2. Existenz Wir definieren (i) und (ii) hat.
durch ( ). Dann ist leicht nachzurechnen, daß
die Eigenschaften
Auch die letzte Behauptung wird durch Nachrechnen bewiesen. Wichtig ist festzuhalten, daß nicht kommutativ zu sein braucht; Bild( ) ist immer kommutativ. Diese Tatsache benötigen wir in der Eigenwerttheorie für die nicht kommutative -Algebra End , wobei ein Körper und ein endlich dimensionaler Vektorraum über ist.
X.5 Polynomring 5.3
115
Definition
Wegen der Form ( ) von
<&& <&&& 1 Einsetzungshomomorphismus; es wird für einfach eingesetzt. und ist die Identität und
heißt Für
5.4
Voraussetzung: Im folgenden sei ein Körper.
5.5
Vergleich mit der Algebra der ganzrationalen Funktionen
1
1
Wir betrachten die -Algebra Abbildungen mit der wertweisen Multi plikation mit Skalaren, der wertweisen Addition und der wertweisen Multiplikation von zwei Abbildungen miteinander.
1
Sei
der Einsetzungshomomorphismus mit
Id . Dann gilt:
<&&& Id Id &&& Id ' &&& ' ' führt also ein Polynom mit den Koeffizienten ' '
über in die ganzrationale Funktion mit denselben Koeffizienten. Id ist die Algebra der ganzrationalen Funktionen von nach , die auch mit bezeichnet wird. Behauptung: ist genau dann ein Isomorphismus, wenn unendlich ist.
1
Beweis: Ein Polynom, das nicht das Nullpolynom ist, hat höchstens Polynoms ist (s. 5.11 auf der nächsten Seite). Für hat es jektiv; Kern(
Nullstellen, wenn
der Grad des
unendlich können wir also schließen: Geht ein Polynom in die Nullfunktion über, so unendlich viele Nullstellen, was nur beim Nullpolynom eintreten kann. ist also indenn auch bei Algebra-Homomorphismen gilt: injektiv Kern , wobei ):= . Surjektiv ist es nach Definition einer ganzrationalen Funktion.
!
Ist ein Isomorphismus, so gibt es unendlich viele ganzrationale Funktionen, also erst recht unendlich viele Abbildungen von nach , was nur für unendliches eintreten kann. 5.6
Definition
1. Der Grad des Polynoms mit
ist definiert durch: Grad( ):= Max
X Ringe und Algebren
116
2. Ist Grad( ) = , so heißt
3.
5.7
5.8 Seien
Grad
'
Der höchste Koeffizient von ist eins.
Max Grad ist.
Division mit Rest
'
mit
Grad
wobei das Gleichheitszeichen gilt, wenn
Grad
, dann gibt es eindeutig bestimmte Polynome ' : und (b) Grad Grad oder
mit
' Grad ,
, d.h.
, dann ist mit einem eindeutig bestimmten Polynom
Satz: Ist
eine Nullstelle des Polynoms
5.10
Grad
(a)
5.9
der höchste Koeffizient von .
Eigenschaften des Grades
1. Grad Grad 2.
1!
heißt normiert.
Satz und Definition
' '
, so gibt es eine Pro 8 und einem eindeutig bestimmten mit für
Sind lauter verschiedene Nullstellen eines Polynoms duktzerlegung
mit eindeutig bestimmten '' heißt die Vielfachheit der Nullstelle .
5.11
Satz: Ein Polynom vom Grade
5.12
Definition und Fundamentalsatz der Algebra
hat höchstens
Nullstellen.
Hat jedes Polynom eine Nullstelle in , so heißt der Körper algebraisch abgeschlossen. Der Körper der komplexen Zahlen ist algebraisch abgeschlossen.
X.5 Polynomring 5.13
117
Definition und Satz
zerfällt vollständig in Linearfaktoren, falls mit ' 8
Wir sagen, ein Polynom
In einem algebraisch abgeschlossenen Körper zerfällt jedes Polynom in Linearfaktoren. Wir können dann die Faktoren mit gleichen zusammenfassen und erhalten eine Darstellung der Form:
8
mit
für
und
XI Bilineare und damit verwandte Formen
118
XI Bilineare und damit verwandte Formen XI.1 1.1
Sesquilinearformen Einführung
In Abschnitt XI.1 befassen wir uns systematisch mit Bilinearformen bei beliebigem Körper und für mit Formen von zwei Variablen, die in der ersten Variablen linear und in der zweiten Variablen semilinear sind. Dabei sei die erste Variable aus einem -dimensionalen Vektorraum und die zweite Variable aus einem -dimensionalen Vektorraum über . Dabei darf sein, wofür wir gleich ein wichtiges Beispiel angeben.
1.1.1 Definitionen Eine Bilinearform auf
' Linearität in 1. Variablen: ' Linearität in 2. Variablen: ('
('
' '
1 +' ' +' +'
ist eine Abbildung gilt:
, so daß
(' ' (' wird eine Sesquilinearform (anderthalbfache Linearform) 1
'
( ' ('
Für wie eine Bilinearform definiert mit dem einzigen Unterschied, daß statt der Homogenität in der zweiten Variablen die Semi-Homogenität erfüllt sein muß:
(' +' Dabei ist das konjugiert Komplexe von . In Punkt 1.2 auf der nächsten Seite.5 werden wir
den Begriff einer Sesquilinearform in einem verallgemeinerten Sinne betrachten. Warum wir
mitbetrachten, liegt daran, daß wir folgendes 1. Beispiel einschließen wollen:
1.1.2 Beispiele
1 ' ' ' 1
1. Sei
der Dualraum von
. Dann ist folgendes eine Bilinearform:
'
2. Jedes reelle Skalarprodukt ist eine Bilinearform. 3. Jedes komplexe Skalarprodukt ist eine Sesquilinearform. 12
A. Riede: Lineare Algebra 2, SS 00
XI.1 Sesquilinearformen
119
In Kapitel VIII auf Seite 69 haben wir erst reelles, dann komplexes Standard-Skalarprodukt behandelt und anschließend gezeigt, daß der reelle und komplexe Fall eines allgemeinen Skalarproduktes gleichzeitig behandelt werden kann. Dabei wurde benutzt, daß die komplexe Konjugation ein Körper-Isomorphismus ist, dessen zweimalige Anwendung die Identität ergibt, und daß die Anwendung der komplexen Konjugation auf reelle Zahlen die Identität ist. Mit dem gleichen einfachen Trick können auch Bilinearformen und Sesquilinearformen unter einen Hut gebracht werden, wie wir im folgenden präzisieren: 1.2 Körper-Involution und Sesquilinearformen 1.2.1 Definition Eine (Körper)-Involution des Körpers ist ein Körper-Isomorphismus Id . Bezeichnen wir mit , so ist ein Körper-Isomomorphismus durch:
# 2. 1.
3.
für alle
für alle
-'
.'
1
81
mit gekennzeichnet
ist bijektiv.
8
Da aus Id die Bijektivität von folgt, hätte es gereicht statt Körper-Isomorphismus nur Körper-Homomorphismus zu verlangen. 1.2.2 Voraussetzung Für das folgende sei stets ein Körper mit Involution ; wir verwenden die Bezeichnung: .
1.2.3 Folgerungen Wenn wir definieren 1 ' ,
1
, dann gilt, wenn ' : , # # ,
1.2.4 Beispiele 1.
2.
beliebig und
und
Id
= kK = Bildung der konjugiert komplexen Zahl.
Wir bringen nun die bisherigen Begriffe Bilinearform und Sesquilinearform unter einen Hut, wenn wir definieren:
XI Bilineare und damit verwandte Formen
120
1
1.2.5 Definition heißt eine Sesquilinearform auf Eine Abbildung gilt: verallgemeinerten Sinne), wenn
(im gegenüber 1.1.1
(' Linearität in 1. Variablen: ' Semi-Linearität in der 2.: ('
' "' ((''
Ist
'
+' ('
' ' (' '
( ' ('
Id , so ist eine Sesquilinearform nichts anderes als eine Bilinearform. Für und erhalten wir den Begriff einer Sesquilinearform im speziellen Sinne von Definition 1.1.1. Für sagen wir anstelle von „Form auf “ auch „Form auf “, obwohl der Definitionsbereich ist.
1.3
Matrix einer Sesquilinearform
' 8 ' '
' 8 '' eine Basis von . Für eine Sesquilinear 1 ' ' 1 Dann heißt die Matrix der Sesquilinearform bezüglich der Basen ' 8 ' ' und ' 8 ' ' . 1.3.2 Satz Die Spalte bezeichne die Koordinaten von und die Spalte die Koordinaten von bezüglich der Basen und . 1. Durch ihre Matrix ist die Sesquilinearform eindeutig bestimmt; wenn wir mit das
1.3.1 Definition eine Basis von Sei form auf sei
,
Matrizen-Produkt bezeichnen, gilt:
('
2. Ist die Matrix beliebig vorgegeben, so wird durch die vorstehende Formel eine Sesquilinearform definiert, deren Matrix ist.
3. Die Sesquilinearformen auf bilden bezüglich wertweiser Addition und wertweiser Multiplikation mit Skalaren einen -Vektorraum Wir erhalten einen (von den Basen abhängigen) Vektorraum-Isomorphismus:
1 Beweis: Zu 1:
'
XI.1 Sesquilinearformen
('
121
' ' . ..
' '
1. Gleichung in Punkt 1
..
.
bezeichnet das -te Element einer Spalte
Zu 2: Daß durch die Formel im 1. Punkt eine Sesquilinearform definiert wird, ist leicht zu sehen und im Zweifelsfalle direkt nachzurechnen. Daß die Matrix von diesem die vorgegebene Matrix ist, sehen wir so ein:
' ' ' ' ' ' bezüglich ' ' hat und die Koordi-te ' '' bezüglich naten '' ' '' , folgt ' '' und ' ' -te ein -Vektorraum ist, wird durch direktes Nachrechnen verifiziert. Zu 3: Daß gilt: Linearität von : Für ' ' ' ' # ' # ' # Da die Koordinaten
1. Punkt
2. Punkt
Injektivität von
Surjektivität von
1.3.3 Transformationsformel
1. Bei Basistransformationen von sich die Matrix der Sesquilinearform wie folgt:
2. Für wird im 1. Punkt Transformationsformel:
und
und
von
transformiert
genommen. Dann lautet die
XI Bilineare und damit verwandte Formen
122
Beweis:
'
' 0 '
0
0 1 ' -ter Koeffizient 1.4 Zur Vektoralgebra im 1.4.1 Bemerkung über -fache Linearformen Definition 1.3.1 und Satz 1.3.2 verallgemeinern sich auf -fache Linearformen. Wir formulieren && eine -fache Linearform auf , dann ist durch nur einen Aspekt. Sei 1 ' ' ' ' ' '' ' ' ' eindeutig bestimmt, wobei ' ' eine Ba8 sis von ist. Zwei -fache Linearform und stimmen daher überein, wenn ihre Werte auf allen -tupeln von Basisvektoren übereinstimmen. : Für Sesquilinearformen ' 1 5 ! ' ' ' ' ' ' ' ' && -fach linear: Für ' 1 5 ! ' ' ' ' ' ' ' ' ' ' ' ' ' 8 1.4.2 Lagrange-, Graßmann- und Jakobi-Identität Im mit dem Standard-Skalarprodukt gilt: "' (' ' (' ' Lagrange-Identität 1. +' +' Gramsche Determinante ' ' 2. .' .' (' Det .' (' =: Spatprodukt 3. ! ' Det ' ' für alle (' " 4. ' Graßmann-Identität 5. Jacobi-Identität
XI.1 Sesquilinearformen
123
Beweis: Zu 1:
(' "' '
In der Lagrange-Identität sind beide Seiten in Abhängigkeit von 4-fache Linearfor men. Sie stimmen daher überein, wenn ihre Werte für vier beliebige Basisvektoren gleich sind. Letzteres ist leicht nachzurechnen für die Standard-Basis, wenn noch folgendes beachtet wird: Für oder sind beide Seiten gleich null und bei Vertauschung von mit oder von mit gehen beide Seiten in ihr Negatives über. Daher genügt es zu zeigen, daß beide Seiten gleich sind für mit und . Nachrechnen ergibt, daß beide Seiten gleich 1 sind für und gleich 0 für .
(' "' ' ' ' ' ' '
' '
Zu 2: Wie in VI.3 auf Seite 60.
' ' ) „ “: ' Det ' ' für alle .' ' Det .' ( ' % ' + % Zu 4: Für alle gilt: .' Det .' ' Det ' .' "' (' "' +' "' +' " (' ' Zu 5: (' "' ' # .' # .' +'
.'
Zu 3: „
“:
.' '
Det
''
wegen 2
(' ' ' (' "' +' wegen 2
wegen 1
Det
'
wegen 2.
.' (' .' ('
(zyklisch vertauscht)
(nochmals zyklisch vertauscht)
Beim Aufaddieren dieser drei Gleichungen heben sich rechts die unterstrichenen und die gestrichelt unterstrichenen und die überhaupt nicht markierten Terme paarweise weg. Es bleibt die Jakobi-Identität stehen.
XI Bilineare und damit verwandte Formen
124
1.4.3 Bemerkung Dies alles gilt entsprechend für einen orientierten dreidimensionalen euklidischen Vektorraum. Zum Beweis muß dann eine positiv orientierte, orthonormierte Basis herangezogen werden. 1.5 Andere Auffassung einer Sesquilinearform 1.5.1 Beschreibung durch den Dualraum 1. Halten wir bei einer Sesquilinearform die erste Variable zweiten Variablen eine semi-lineare Abbildung:
fest, so haben wir bezüglich der
1 ' 1 ( ' .) liegt also im (semi-linear bedeutet additiv und semi-homogen d. h. semi-linearen Dualraum von 1 1 ' . Der Index soll hierbei auf semilinear hinweisen. 1 < ist linear. '
2. Die Abbildung 1
3. Die Abbildung
1
1
'
' ' ('
ist linear. ist sogar ein kanonischer (d. h. nicht von einer Basis abhängiger) Isomorphismus, dessen inverser der folgende Homomorphismus ist: mit
( ' 1 Fazit: auch als eine lineare AbWir können in kanonischer Weise eine Bilinearform 1
1 '
'
1
bildung von nach auffassen und umgekehrt; und zwar sogar so, daß der ganze Vektorraum der Sesquilinearformen isomorph zum Vektorraum der linearen Abbildungen von nach ist. Beweis:
Zu 1: Da semi-linear in der zweiten Variablen ist, ist
eine semi-lineare Abbildung.
homogen ist. Für alle und alle
nach Definition von Definition von (('' nach weil in der ersten Variablen homogen nach Definition von nach Definition von
da Abbildungen gleich, wenn alle Werte gleich und alle Zu 3: Wir zeigen exemplarisch, daß additiv ist. Für alle
Zu 2: Wir zeigen exemplarisch, daß
gilt::
gilt:
XI.1 Sesquilinearformen
125
(' (' ('
Definition von Definition von Definition von
wertweise Addition von Sesquilinearformen Definition von und wertweise Addition von linearen Abbildungen Definition von und wertweise Addition von und Definition von Abbildungen gleich alle Werte gleich
Zu 4: Um zu zeigen, daß und zueinander invers sind, ist zu beweisen: Id Wir führen exemplarisch den Beweis der zweiten Gleichung an:
('
Für alle
('
und alle
<
.
gilt: Definition von Definition von Definition von
bzw.
1.5.2 Feststellung Sei die Matrix von bezüglich der Basen Sei die zu duale Basis von .
Id und
die Matrix von bezüglich und . Dann gilt:
Sei
Beweis:
Zur Erinnerung: Die -te Koordinate einer Linearform
bezüglich
die -te Koordinate des Bildes des -ten Basisvektors, , d. h.
. Also ist '
ist
1.5.3 Beispiel: Das zweite Differential und die Hessesche Form
1
1. Sei eine offene Menge und eine differenzierbare Abbildung in einen endlich-dimensionalen reellen Vektorraum . Dann ist das Differential an der Stelle eine lineare Abbildung und das Differential von eine Abbildung
4 1 4 4 1 ' ' 4 2. Für , d. h. )1 erhalten wir als Differential eine Abbildung in den Dualraum: 4 1 ' ' 4
XI Bilineare und damit verwandte Formen
126
4
3. Daß wie in Punkt 2 zweimal differenzierbar ist, bedeutet nach Definition der zweiten Ableitung, daß die Abbildung in Punkt 2 differenzierbar ist. Im Hinblick auf Punkt 1 ist jetzt und es folgt:
48
1 4 4 1 4 8 ' '
1
Das zweite Differential von einer zweimal differenzierbaren Abbildung kann also aufgefaßt werden als eine Bilinearform auf . Diese Bilinearform heißt die Hessesche Form von an der Stelle .
1.6 Symmetrische und hermitesche Formen 1.6.1 Definition Sei . Eine Sesquilinearform auf heißt semi-symmetrisch, wenn eine der folgenden untereinander äquivalenten Bedingungen erfüllt ist:
+' '
1.
2. Die Matrix
von bezüglich irgendeiner Basis ist semi-symmetrisch, d. h.:
5'
Im Falle von Id ist eine semi-symmetrische Sesquilinearform nichts anderes als eine symmetrische Bilinearform und im Falle wird eine semi-symmetrische Sesquilinearform eine hermitesche Form genannt (nach dem französischen Mathematiker Charles Hermite, 1822-1901)
' ' d. h. .8 und .8 seien die Koordinaten von 2. 1.: .. .. folgt, wenn das Matrizenprodukt bezeichnet: (' ' Beweis der Äquivalenzen:
1.
2.:
bzw. von
. Dann
1.6.2 Diagonalisierung
(a) Sei symmetrische Bilinearform auf reellem -dimensionalem Vektorraum oder hermitesche Form auf komplexem -dimensionalem Vektorraum.
XI.1 Sesquilinearformen
127
(' 8 &&& 8 8 && 8 (b) Sei symmetrische Bilinearform auf komplexem -dimensionalem Vektorraum. Dann hat die Matrix von bezüglich einer geeigneten Basis eine Diagonalgestalt wie unten mit -mal 1 in der Hauptdiagonalen und = Rg( ). (' 8 &&& 8 Die geometrische Bedeutung von wird in 1.7.1 geklärt und die von und werden später behandelt (s. 3.2.6).
Dann hat die Matrix von bezüglich einer geeigneten Basis eine Diagonalgestalt wie = Rg( ). unten mit -mal 1 und -mal in der Hauptdiagonalen und
..
.
..
..
-1
(a)
. -1
..
..
.
Beweis mit Hilfe elementarer Umformungen:
.
.
..
(b)
.
..
.
und stehe an der -ten Stelle in der Hauptdiagonalen. Bei 8 sei
stehe das in der -ten Zeile und -ten Spalte und es Wir betrachten Elementarmatrizen. In ist . Bei steht das dann in der -ten Zeile und -ten Spalte.
..
.
..
.
8
.. . ..
..
.
.
..
.
8
.. .
.
..
.
.
..
..
..
.
..
.
XI Bilineare und damit verwandte Formen
128 Es gilt für eine
-Matrix
liefert Matrizenmultiplikation 8 8 liefert
Matrizenmultiplikation
: liefert für
liefert:
die elementare Umformung:
Da Elementarmatrizen regulär sind, können wir sie als Matrizen verwenden. Wegen der Transformationsformel
von Basistransformationen
transformiert sich die Matrix einer Sesquilinearform so, daß eine elementaren Zeilenumformung und anschließend die entsprechende Spaltenumformung durchzuführen ist, in welcher der Koeffizient noch durch zu ersetzen ist.
Die elementaren Umformungen wenden wir nun so an:
'
, so können wir, falls ein ist für ein mit , durch elementare 1. Ist Umformungen vom Typ I erreichen, daß wird; falls ein ist, geht dies mit Zeilen- und entsprechenden Spalten-Vertauschungen (elementare Umformungen vom Typ III). (Ersteres geht übrigens nicht bei beliebigem Körper. Es muß ein Körper sein, in dem ist.)
1 2. Wieder durch elementare Umformungen vom Typ I räumen wir die erste Spalte unterhalb aus, wobei jeweils auch die oben beschriebenen Spaltenumformungen vorgenommen werden. Wegen der Semisymmetrie wird dabei auch die erste Zeile rechts von ausgeräumt! 3. Falls außer noch weitere Matrixelemente vorhanden sind, können wir durch ele wird. Anschließend mentare Umformungen vom Typ I oder III erreichen, daß 8 8 räumen wir wieder unterhalb und rechts von 8 8 aus. Indem wir so fortfahren, erhalten wir schließlich eine Diagonalgestalt, in der die ersten Elemente in der Hauptdiagonalen sind. , woraus für folgt 4. Im Falle a) gilt für die Matrix der Sesquilinearform
, d. h. ist (auch für und ) reell. Multiplikation der -ten Zeile mit und anschließende Multiplikation der -ten Spalte mit für '' in der Hauptdiagonalen. Durch Vertauschen von Basisvektoren können wir diese liefert noch so anordnen, daß zuerst alle und dann die kommen. Die Anzahl der Elemente in der Hauptdiagonalen muß der Rang von sein, da elementare Umformungen den
Rang nicht ändern.
XI.1 Sesquilinearformen
129
, liefert keine Einschränkung für die . Wir setzen für '' 1 eine der beiden komplexen Wurzeln aus . Multiplikation der -ten Zeile mit und der -ten Spalte mit liefert den Koeffizienten 1 ' ' . in der Hauptdiagonalen für
5. Im Falle b) ist
Id . Symmetrie,
1.6.3 Beispiel:
5'
kK
8
8
/ 8 8 * 8 8
8
8
8 ' 8 ' 8 8
8 8
1.6.4 Beispiel: Eine hermitesche Form mit folgender Matrix, in der alle Elemente in der Hauptdiagonalen 0 sind, ist zu diagonalisieren:
- 8 8
' 8 ' 8
XI Bilineare und damit verwandte Formen
130
8
8
1.7 Nicht ausgeartete Sesquilinearform 1.7.1 Definition und Satz gilt: Für eine Sesquilinearform
1 (' für alle # ist ein -Untervektorraum, der Ausar1. 1 tungsraum von bezüglich der ersten Variablen. (Bezüglich der zweiten Variablen analoge
Definition).
2.
Kern
3. Die geometrische Interpretation von = Rg( ) lautet (vgl. 1.6.2):
Dim
ist also unabhängig von den Basen, bezüglich derer
gebildet war.
Beweis: 1. Die 1. Behauptung folgt aus der zweiten. 2.
( ' ! ! !
! Kern liefert: Dim Dim Kern Rang 3. Die Rangformel für 1 Rang Rang , weil die Matrix von ist. Rang Rang Dim oder Dim 1.7.2 Beispiel .. . mit -mal die Matrix einer Sesquilinearform Ist .
.. 1 bezüglich der Basis '' , so ist ' ' . !
XI.2 Sesquilinearform und geometrische Begriffe
131
1.7.3 Definition einer nicht ausgearteten Sesquilinearform Sei Dim Dim . Eine Sesquilinearform heißt nicht ausgeartet, falls eine der folgenden untereinander äquivalenten Bedingungen erfüllt ist:
1. Der Ausartungsraum bezüglich der ersten Variablen ist der Nullraum 2. Fassen wir als lineare Abbildung auf, so ist mus.
3. Die Matrix
1
1
.
von ist regulär.
.
4. Der Ausartungsraum bezüglich der zweiten Variablen ist der Nullraum
!
Beweis der Äquivalenzen:
!
1. 4. 2.
3.:
! !
XI.2
Dim
!
!
ein Isomorphis-
ist regulär.
3.: Analog 3.: Der Leser möge selbst das Argument angeben.
Sesquilinearform und geometrische Begriffe
In diesem Abschnitt betrachten wir endlich dimensionale Vektorräume über einem festen Skalarenkörper mit einer festen Involution . 2.1 Adjungierte Abbildung 2.1.1 Definition und Existenz Sei eine nicht ausgeartete Sesquilinearform und Dim mit: End . Dann gibt es genau eine lineare Abbildung
1
heißt die zu
1
Dim
. Sei
' +'
adjungierte (genauer rechts-adjungierte) lineare Abbildung.
'
,
ist die (Links-) Adjungierte
1 ' , sei. ein Vektorraum
zusammen mit einer nicht
2.1.2 Beispiel: Induzierte Abbildung Für die Bilinearform im 1. Beispiel von 1.1.2 , die induzierte Abbildung von Abschnitt V. 5.4 auf Seite 50.
(' 8 &&& 8 8 && $ 8
2.2 Geometrischer Vektorraum 2.2.1 Definition Ein geometrischer Vektorraum, ausgearteten Sesquilinearform
XI Bilineare und damit verwandte Formen
132 2.2.2 Beispiel Der mit seinem kanonischen Skalarprodukt und metrischen Vektorraumes.
ist das Standardbeispiel eines geo-
2.3 Isometrien 2.3.1 Beispiel: Isometrien des Eine lineare Abbildung des , die das kanonische Skalarprodukt erhält, für die also gilt
'
+'
('
wird eine Isometrie genannt. Diese Bezeichnung kommt daher, daß, wenn das Skalarprodukt erhalten bleibt, metrische Größen wie Länge eines Vektors oder Winkel zwischen zwei Vektoren erhalten bleiben, d. h., daß , gilt. In Verallgemeinerung hiervon wird definiert:
' '
'
('
2.3.2 Definition einer Isometrie ein geometrischer Vektorraum. Eine lineare Abbildung Sei Isometrie von , falls die Form invariant läßt, d. h., wenn gilt:
' ('
+'
1
heißt eine
2.3.3 Satz über die Inverse und die Matrix einer Isometrie Für einen Endomorphismus eines geometrischen Vektorraumes sind äquivalent: 1.
ist eine Isometrie von
.
Id d. h. ist invertierbar und . 3. Sei die Matrix von bezüglich einer Basis von und die Matrix von bezüglich , dann gilt: 2.3.4 Allgemeine und Spezielle Isometrie-Gruppe Für einen geometrischen Vektor' gilt: raum Isometrie von 1. Isometrie von 5 Isometrie von 2. (' Isometrien von 3. Die Isometrien von bilden eine Gruppe, die (Allgemeine) Isometriegruppe von . 1 1 Isometrie von 9' 4. Sei oder . Für jede Isometrie von gilt: Det . oder bilden die Isometrien von mit Det( ) = 1 eine Gruppe, die 5. Für Spezielle Isometriegruppe von .
2.
XI.3 Semi-quadratische Formen
133
2.4 Orthogonalität 2.4.1 Definition Sei ein geometrischer Vektorraum, bei dem halb symmetrisch oder halb schiefsymmetrisch ist. Dann wird in Verallgemeinerung des Orthogonalitätsbegriffes im definiert:
'
heißt orthogonal zu 1 ! 1 ! (' Wegen der Voraussetzung an ist dann auch senkrecht auf , so daß wir sagen können,
und
sind orthogonal aufeinander.
2.4.2 Total senkrechter Untervektorraum Sei wie in Definition 2.4.1, ein Untervektorraum von
1
ein Untervektorraum. Er heißt der zu Dim( ) = Dim( ) Dim( ).
'
. Dann ist
total senkrechte Untervektorraum von
; es gilt:
2.4.3 Orthogonalbasis halbsymmetrischer Sesquilinearformen Sei ein geometrischer Vektorraum mit halb symmetrischem . Dann existiert eine Orthogonalbasis von , d. h. eine mit:
' 8' ' ' ' '' mit ' gilt dann: Für 1 (' (' ' wobei und Die Matrix von hat dann bezüglich ' 8 ' ' Diagonalgestalt mit den ' ' gonalelementen.
XI.3
[1]
Semi-quadratische Formen
In diesem Abschnitt soll im Körper gelten beliebig,
Id
[2]
5'
'
d. h.
als Dia-
. Wir betrachten die zwei Fälle:
komplexe Konjugation
Im folgenden werden wir uns mit den Ziffern [1] und [2] in eckigen Klammern stets auf diese beiden Fälle beziehen. 3.1 Semi-symmetrische und zugehörige semi-quadratische Form 3.1.1 Reellifizierung Wir benötigen im folgenden, daß ein -Vektorraum auch als -Vektorraum aufgefaßt werden kann. Wir haben nämlich wegen erst recht eine Skalarenmultiplikation mit reellen Zahlen. Beschränken wir die Skalarenmultiplikation auf reelle Zahlen, so wird aus ein reeller Vektorraum . Er heißt die Reellifizierung von .
XI Bilineare und damit verwandte Formen
134 3.1.2 Definitionen
' ( ' + ' , wobei der Querstrich die Im Falle [2] heißt hermitesch, wenn gilt: "' Bildung des konjugiert Komplexen bezeichnet. (' , wobei der Beide Fälle fassen wir zusammen als semi-symmetrisch: "'
1. Wir wiederholen (s. 1.6.1):
Im Falle [1] heißt symmetrisch wenn gilt:
Querstrich die Anwendung der Involution bezeichnet.
2. Analog heißt eine Sesquilinearform auf
semi-schiefsymmetrisch, falls gilt:
' +'
Dies wird für [1] auch schiefsymmetrisch und für [2] schiefhermitesch genannt.
3. Sei eine semi-symmetrische Sesquilinearform auf
. Dann heißt
;1 ' 1 ( '
die zu gehörige semi-quadratische Form, für [1] auch einfach quadratische Form. 3.1.3 Eigenschaften der zugehörigen semi-quadratischen Form
1.
Das ist im Falle [1] die leere Bedingung, im Falle [2] bedeutet es, daß die Werte von in liegen.
2.
8 8
' für für
3. Durch die folgende Festsetzung ist eine symmetrische Bilinearform
(' 1 1 für [1] bzw. 1 4. für [1] Re für [2] Dabei ist der Realteil von wertweise definiert, d. h. Re +' 1
definiert:
für [2].
Re
('
XI.3 Semi-quadratische Formen
135
3.1.4 Definition einer semi-quadratischen Form Bei beliebigem Körper mit Involution (Es darf hier auch sein.) heißt eine Abbildung mit den ersten drei Eigenschaften von 3.1.3 eine semi-quadratische Form auf , für [1] auch einfach quadratische Form .
1
Beweis der Eigenschaften: 1. 2. 4.
< ( ' (' Bei 1) ist mit vertauscht. ( (' (' (' < "' (' ' < (' "' (' "' (' ' (' (' (' im Falle [1], d. h. und im Falle [2]: Re (' Re (' d. h. Re
3. Für [1] folgt die Behauptung aus Punkt 4, weil das zweifache einer Bilinearform wieder eine Bilinearform ist.
1
Für [2] folgt es ebenfalls aus Punkt 4, wenn wir noch beachten, daß Re eine symmetrische Bilinearform ist. Letzteres kann direkt nachgerechnet werden.
3.2 Definitheit und Index 3.2.1 Voraussetzung für den Rest dieses Abschnittes Sei entweder Id oder kK .
'
'
'
3.2.2 Definition der positiven Definitheit und verwandter Begriffe Eine semi-quadratische Form heißt positiv definit positiv semidefinit negativ definit indefinit
1!
1! 1! 1!
mit mit mit und
mit
.
Eine semi-symmetrische Sesquilinearform hat eine der genannten Definitheitseigenschaften per Definition, wenn ihre zugehörige semi-quadratische Form sie besitzt. Das ist in Übereinstimmung mit unserer früheren Definition positiver Definitheit.
XI Bilineare und damit verwandte Formen
136
3.2.3 Feststellung für einen Untervektorraum Ist ein Untervektorraum von und eine semi-quadratische Form auf , dann ist die Einschränkung von auf ebenfalls positiv (bzw. negativ bzw. positiv semi- bzw. negativ semi-) definit, wenn es ist.
3.2.4 Kriterium für positive Definitheit Eine Matrix, die als Matrix einer positiv definiten semi-symmetrischen Sesquilinearform auftaucht, heißt positiv definit. Es erhebt sich die Frage, wie einer Matrix die positive Definitheit angesehen werden kann, ohne sich auf die Sesquilinearform zu beziehen. Dazu definieren wir die und die Hauptunterdeterminanten einer Hauptuntermatrizen Matrix :
' ' ' ' . . .. ... .. 1 .. 1 Det . In der Literatur werden die auch Hauptminoren genannt. Für eine semi-symmetrische Sesquilinearform sind die Hauptunterdeterminanten auch im komplexen Falle reell. Eine semi symmetrische Sesquilinearform mit Matrix bezüglich irgendeiner Basis '' ist genau dann positiv definit, wenn alle Hauptunterdeterminanten von positiv sind.
Beweis:
ist die Matrix von , der auf 1 '' eingeschränkten Form. ist Det eine semi-symmetrische Sesquilinearform auf , folglich gilt: Det reell. Det Det Det eine Basistransformation und sind , die Matrizen von
2. Feststellung: Ist bezüglich bzw. bezüglich , dann gilt: Det Det ! 1.
Dies folgt aus der Transformationsformel (s. 1.3.3):
Det
Det Det Det Det Det Det
Det
Daraus folgt die Behauptung.
3. Sei positiv definit. Dann hat als Diagonalform die Matrix (Einheitsmatrix). Ihre Determinante ist 1 also . Nach obiger Feststellung gilt dann Det bezüglich jeder beliebigen Basis. Da die Matrix von ist und auch positiv definit ist, folgt . für alle
' '
XI.3 Semi-quadratische Formen
137
. Wir zeigen durch Induktion, daß positiv definit ist für ' ' . bedeutet " , folglich ist Induktionsbeginn: hat die Matrix mit .. Induktionsannahme: Sei positiv definit für ein
. Induktionsschluß: Wir wählen eine Orthonormalbasis von , ergänzen Sie zu einer Basis eine Matrix der folgenden Form von . Dann hat .. .. .. .. . . . . ... ' welche durch Ausräumen übergeht in: && 4 && &&
4. Seien umgekehrt alle .
4 < % 3.2.5 Definition und Satz vom Rang Sei eine semi-symmetrische Sesquilinearform auf und die zugehörige quadratische Form, aus dem Diagonalisierungssatz 1.6.2 die maximale Dimension eines dann ist die Zahl der Untervektorraumes , so daß die Einschränkung von auf nicht ausgeartet ist. heißt der . Ist die Matrix von bezüglich Rang von , 1 , oder der Rang von , Rang 1 irgendeiner Basis, dann ist Rg( ) = Rg( ). Beweis: 1 Max Dim Untervektorraum von mit nicht ausgeartet 1 1 ' .' .' ' .' a) ' ' eine Basis, Sei ' ' ' bezüglich der die Matrix wie in 1.6.2 (a) hat. Sei 1 ' ' . Dann hat bezüglich der Basis ' ' von die reguläre Matrix .. . . .. Bei diesem Ausräumen ändert sich die Determinante wegen der Scherungsinvarianz einer Determinantenform nicht. Da die letze Matrix positive Determinante hat, folgt und damit ist .
b)
Also ist
Sei
nicht ausgeartet. Dim
irgendein Untervektorraum mit
nicht ausgeartet. Dann gilt:
XI Bilineare und damit verwandte Formen
138
'' Denn für ('
'' und folgt: ' ' Das bedeutet, Ausartungsraum von . Dies ist aber der Nullraum, da nicht ausgeartet ist. Also muß gelten. Wegen ' ist die Summe ' ' ' eine direkte Summe und es folgt: ' ' ' ' Dim Dim Dim Dim Dim a) und b) folgt c) Die Gleichung Rang Rang 1. daraus, daß durch elementare Umformungen in die Diagonalmatrix .. . . .. . ..
mit -mal
in der Hauptdiagonalen übergeführt werden kann,
2. daraus, daß sich bei elementaren Umformungen der Rang nicht ändert und 3. Rang
ist.
3.2.6 Sylvesterscher Trägheitssatz und Trägheitsindex Sei eine semi-symmetrische Sesquilinearform auf dem Vektorraum semi-quadratische Form. Sei:
und
1 Max Dim Untervektorraum von mit positiv definit 1 Max Dim Untervektorraum von mit negativ definit := Anzahl der +1 in einer Diagonalisierung von nach Abschnitt 1.6.2:
die zugehörige
XI.3 Semi-quadratische Formen
139
..
.
..
.
..
.
:= Anzahl der -1 in . 4 Dann gilt: Die Zahlen und sind daher unabhängig von der Basis, bezüglich der die Matrix von Diagonalgestalt besitzt. oder kurz der Index von bzw. von .
heißt der Sylvestersche Trägheitsindex heißt die Signatur von bzw. von .
die
Beweis:
'' eine Basis, bezüglich der eine Diagonalgestalt der Form 1 '' Dann ist positiv definit. Dim b) Sei ein beliebiger Untervektorraum mit positiv definit. Dann gilt: 1 ' ' ; denn aus ' ' negativ semi-definit und
a)
Sei
hat.
ist positiv definit folgt,
ist sowohl negativ semi-definit als auch positiv definit. Das geht nur, wenn
ist.
' ' ist eine direkte Summe. ' ' Dim '' Dim Dim Dim Dim
Für
wird analog geschlossen.
140
XI Bilineare und damit verwandte Formen
3.2.7 Anwendung in der Analysis Positive und negative Definitheit und Indefinitheit werden in der Analysis benötigt bei der Untersuchung von Maxima und Minima zweimal stetig differenzierbarer Funktionen von mehreren Variablen. Der Index spielt eine wichtige Rolle bei der Untersuchung von sogenannten kritischen Punkten, einer Verallgemeinerung von Extremalpunkten. Die zu untersuchende Bilinearform ist die Hessesche Form (s. 1.5.2).
XII.2 Zur Winkel- und Volumenmessung
141
XII Vektorräume mit Skalarprodukt 2
' ' Id
In diesem Abschnitt ist und, wenn nichts anderes gesagt,
'
oder kK (kK = komplexe Konjugation) ein -dimensionaler Vektorraum über .
Die beiden wichtigsten Beispiele geometrischer Vektorräume haben wir bereits vorneweg in Kapitel VIII auf Seite 69 behandelt, nämlich die Vektorräume mit Skalarprodukt d. h. im reellen Falle die euklidischen Vektorräume und im komplexen Falle die unitären Vektorräume. Hier ergänzen wir die Winkel- und Volumenmessung, beschreiben die allgemeinste unitäre und orthogonale Abbildung und leiten aus dem Satz über die Hauptachsentransformation selbstadjungierter Abbildungen die Hauptachsentransformation semi-symmetrischer Sesquilinearformen ab.
XII.1 1.1
Bezug zu Sesquilinearformen
Charakterisierung eines Skalarproduktes
Nach der Terminologie aus Kapitel XI auf Seite 118 ist ein Skalarprodukt dadurch charakterisiert, daß es eine nicht ausgeartete, semi-symmetrische Sesquilinearform mit Index 0 ist. Statt Index = 0 können wir äquivalenterweise auch positive Definitheit verlangen.
1.2
Der Isomorphismus mit
Nach XI.1.5.1 bestimmt das Skalarprodukt einen Isomorphismus von Dualraum : oder
mit dem semi-linearen
1 ' (' ('
1 (' Skalarprodukt-Bildung mit Ist '' eine orthonormierte Basis, so ist der Isomorphismus mit es gilt: ' ' die zu '' duale Basis ist. Denn
'
13
A. Riede: Lineare Algebra 2, SS 00
, wobei
XII Vektorräume mit Skalarprodukt 2
142
XII.2 2.1
Zur Winkel- und Volumenmessung
Orientierter Winkel
(' ('
('
'
In einem zweidimensionalen orientierten euklidischen Vektorraum zwischen einem Paar von Vektoren im Intervall Det und
+'
kann der Winkel definiert werden durch:
Dabei sei Det diejenige Determinantenfunktion von , die für eine positiv orientierte und orthonormierte Basis den Wert 1 hat. Dieser Winkel heißt der orientierte Winkel zwischen und .
' 8
' 8
Diese Definition ist konform mit den Formeln in der euklidischen Anschauungsebene für den Flächeninhalt eines Parallelogramms: Sind bzw. kartesische Koordinaten der von null verschiedenen Vektoren bzw. und der Winkel zwischen und , dann hatten wir aus der Anschauung für im 1. Quadranten die folgenden Formeln gefunden:
(' Daraus folgt: 8 $ 8 Det + ' 8 8
Also ist die obige Definition von
Durch Angabe von
und
' eindeutig festgelegt. Zu zeigen
konform mit der anschaulichen euklidischen Vorstellung.
Det ( ' , damit die Definition von sinnvoll ist. 8 8
Beweis: Sei ' 8 orthonormiert, '
Dann folgt: Det (' 8 8 Det ' 8 nach X. 4.1 auf Seite 109 8 8 88 8 8 88 8 Det (' 8 88 8 88 $ 8 8 88 88 8 8 8 8 . 8 8 8 8 Det (' 8 Det (' + '
8 8 8 8 8
bleibt:
ist
im Intervall
2.2
Bemerkung
Es kommt auf die Reihenfolge von ankommt.
('
an, da es bei der Determinante auf die Reihenfolge
' ('
XII.2 Zur Winkel- und Volumenmessung
143
(In höheren Dimensionen kann kein orientierter Winkel kanonisch definiert werden! Auch kann nicht für alle zweidimensionalen Untervektorräume eines höher dimensionalen Vektorraumes „kanonisch“ eine Orientierung gewählt werden !)
2.3 Das orthogonale Komplement 2.3.1 Satz und Definition Für einen Vektorraum mit Skalarprodukt ist der zu einem Untervektorraum total senkrechte Untervektorraum ein algebraisches Komplement von . Daher wird auch orthogonales Komplement von genannt.
Beweis: Nach früherem ist schon die Dim komplementär zur Dim d. h. Dim Dim Dim . Es ist nur noch zu zeigen, daß ist. Dies folgt umittelbar aus der positiven Definitheit:
Sei
, dann ist
und
, folglich gilt
(' , also
2.3.2 Definition des Lotes und der orthogonalen Projektion Sei ein Untervektorraum des euklidischen Raumes und . Dann kann dargestellt werden in der Form:
; '
Der Vektor Abbildung
heißt das Lot von
auf
und
%' die orthogonale Projektion von
/' auf . Ist '' eine Basis von
'
eindeutig
auf
. Die
heißt orthogonale Projektion von gegeben durch:
, so sind
die eindeutigen Lösungen des folgenden linearen Gleichungsystems: ' '
' ( ' '
Beweis: !
' ' ' ! (' ' ! ' (' Dabei sind die
2.4
Volumen eines Parallelflachs
und
XII Vektorräume mit Skalarprodukt 2
144
2.4.1 Definition als Grundfläche mal Höhe sei ein euklidischer Vektorraum. linear unabhängige Vektoren dimensionales Parallelflach auf:
''
spannen ein -
' ' Wir definieren induktiv den -dimensionalen Inhalt (Volumen): 1 1 das von ' ' aufgespannte Parallelflach, und die Länge des Lotes von Dabei ist auf die lineare Hülle von '' . wird auch die Höhe des Parallelflachs bezüglich die Grundfläche genannt und bezüglich . Diese Definition entspricht der Erklärung des Volumens als Grundfläche mal Höhe, wie es in der Elementargeometrie üblich ist. Hier erhebt -dimensionale Seite als sich die Frage, ob die Definition nicht davon abhängt, welche Grundfläche gewählt wird, und wie das gegebenenfalls zu beweisen ist; anders ausgedrückt, ob das Volumen nicht von der Reihenfolge der Vektoren ' ' abhängt. Dies ist der Fall, wenn
1
das Volumen wie folgt durch eine Determinantenform definiert wird. Wir werden zeigen, daß beide Definitionen äquivalent sind. Damit ist die aufgetrete Frage beantwortet: Die Definition des Volumens ist unabhängig von der Reihenfolge der Vektoren. 2.4.2 Volumenmessung durch eine Determinantenform In einem euklidischen Vektorraum ist eine Determinantenform Det bis auf das Vorzeichen eindeutig dadurch festgelegt, daß sie auf einer (und damit auch auf jeder anderen! s. u.) orthonormierten Basis den Betrag 1 hat. Für eine solche Determinantenform gilt:
Det
''
Beweis: Im folgenden bezeichnet Det, ohne, daß dies in der Bezeichnung zum Ausdruck gebracht wird, eine Determinantenform auf verschiedenen euklidischen Vektorräumen, die auf orthonormierten Basen den Betrag 1 hat. Sei . und Aus der Scherungsinvarianz der Determinante folgt:
1 ' '
'
/'
' ' Det ' ' '
' '' ist eine Basis von ' ' , die wir mit dem Schmidtschen Orthonormalisierungsverfahren orthonormalisieren zu '' . haben wir deswegen als ersten Vektor genommen, damit wir nach dem ersten Schritt des Schmidtschen Verfahrens erhalten: und
.
bezeichne die Koordinaten von ' ' bezüglich ' ' . bezeichne die Koordinaten von ' ' bezüglich der Basis 8 ' ' . Dann folgt: Det ' ' ' .. Det ' ' .
Det
XII.3 Beziehungen zwischen Vektorräumen über
Det ' ' Det ' '
XII.3
und
145
nach dem Entwicklungssatz
Beziehungen zwischen Vektorräumen über
und
Oft ist es nützlich von einem -Vektorraum zu einem -Vektorraum und von einem Endomorphismus zu einem -Endomorphismus überzugehen. Es kommt einem dann zu gute, daß algebraisch abgeschlossen ist. Z. B. hat stets einen Eigenwert und dazu einen Eigenvektor, so daß über größere Chancen bestehen, daß ein Endomorphismus diagonalisierbar ist. Anschließend ergeben sich aus den Ergebnissen über Rückschlüsse auf . (S. IX.3 auf Seite 83) 10.2.1.2 Zuerst betrachten wir noch einmal den zu einem komplexen Vektorraum gehörigen reellen Vektorraum , den wir schon in Abschnitt XI.3.1.1 kennengelernt hatten. Er entsteht aus einfach durch Einschränkung der Skalarenmultiplikation auf reelle Skalare.
3.1
Satz über Basis und Dimension von
' ' ' ' ' ' '
Ist eine Basis des komplexen Vektorraumes und die imaginäre Einheit, dann ist eine Basis des reellen Vektorraumes , insbesondere gilt: Dim( )=2 Dim( ) 3.2
Definition und Satz über die komplexe Erweiterung
Sei ein reeller -dimensionaler Vektorraum. Dann wird die komplexe Erweiterung oder Komplexifizierung von definiert durch: 1.
1
Vektoren
('
als Mengen. Die Vektoren von von .
sind also die geordneten Paare
(' von
(' und ' wird mit bezeichnet und definiert durch: + ' ' 1 ' , wobei auf der rechten Seite beide Male die Addition in gemeint ist. 3. Die Skalarenmultiplikation in des Skalars mit (' wird mit bezeichnet und definiert durch: (' 1 "&" ' " & . Dabei bezeichnen die Punkte rechts jeweils die
2. Die Summe von
Skalarenmultiplikation in
.
Hierdurch ist ein komplexer Vektorraum Der Nullvektor ist natürlich setz der Skalarenmultiplikation:
erklärt. Er heißt die komplexe Erweiterung von
.
' . Wir beweisen exemplarisch das Assoziative Ge
XII Vektorräume mit Skalarprodukt 2
146
+' (' , wobei und " ' Linke Seite: ( ' ' $ ' +' ( ' Rechte Seite ergibt das Gleiche: 9 '
3.3
Weitere Feststellungen über die komplexe Erweiterung
1. Sei der Nullvektor von . Wir identifizieren mit ungsebene ein Punkt der -Achse mit dem Punkt wird. Dann ist und es gilt:
(' , so wie auch in der Anschau ' der .' -Ebene identifiziert
gilt: & ; denn: 9 ( ' &"$ ' " & &+' & D. h.: Die Skalarenmultiplikation von einer reellen Zahl mit einem Vektor von stimmt mit der Skalarenmultiplikation in überein. ; denn: gilt: $ b) +' ' (' ' a)
Wegen dieser zwei Punkte bezeichnen wir auch mit dem gewöhnlichen Punkt, den wir wie üblich je nach Zweckmäßigkeit auch weglassen und mit dem gewöhnlichen Plus-Zeichen. Diese beiden vorstehenden Punkte bedeuten, daß reeller Untervektorraum von ist.
' , denn: - (' &" ' ' (' gilt: ; denn: 3. (' (' ' Deshalb heißt der Realteil von , Re , und der Imaginärteil von , Im . 4. 1 heißt der zu konjugiert komplexe Vektor. ' linear unabhängig ! Re ' Im linear unabhängig; denn sie gehen durch Multiplikation mit einer regulären Matrix auseinander hervor: Re Im
2.
XII.3 Beziehungen zwischen Vektorräumen über 5.
' ' Basis von über gilt Dim Dim .
und
147
' ' Basis von
über . Insbesondere
Beweis:
'' Erzeugendensystem von (' beliebig. Sei ('
' '
'
a)
:
für gewisse da
und
'
Erzeugendensystem von
b) Lineare Unabhängigkeit über
von
'' :
.
'
'
' ! und und für alle ' ' , da ' ' über linear unabhängig.
Sei
3.4 Sei End
,
Die komplexe Erweiterung einer linearen Abbildung
End und '' eine Basis von . Dann ist die komplexe Erweiterung von definiert durch: 1
Es gilt:
XII Vektorräume mit Skalarprodukt 2
148
für alle reellen Vektoren . bezüglich ' ' 2. 3. Insbesondere ist bezüglich ' ' reell und für die charakteristischen Polynome 1.
gilt
.
4. Jeder Eigenwert von ist entweder reell oder mit ist auch ein Eigenwert. Ist Eigenvektor von zum nicht reellen Eigenwert dann ist Eigenvektor von zum Eigenwert .
und ein nicht reeller Eigenwert von , dann gilt
. Bilden wir auf beiden Seiten das konjugiert Komplexe dann erhalten wir, da die reell sind, . Also ist auch ein Eigenwert. ein Eigenvektor zu dem nicht reellen Eigenwert , dann gilt Ist . Bildung des konjugiert Komplexen liefert: nach Definition von nach Definition von Beweis zu 4.: Sei
nach
3.5
Die komplexe Erweiterung eines Skalarproduktes
' ein Skalarprodukt auf , dann ist die komplexe Erweiterung ' so definiert, daß für '* gilt: ' #1 (' ' (' ' ' 1 ist das komplexes Skalarprodukt auf , dessen Einschränkung auf
Sei alle
das ursprüngliche Skalarprodukt auf
wieder ergibt.
XII.4 Normalform unitärer und orthogonaler Abbildungen 3.6
149
Bemerkung
'
'
Wir hätten in Abschnitt IX.3 auf Seite 83 über die Hauptachsentransformation selbstadjungierter Abbildungen auch diese Komplexifizierung und verwenden können. Einen Vorteil hätte es uns nicht gebracht. Wenn jedoch nur im Komplexen eine Diagonalform existiert und im Reellen nicht, dann werden wir im folgenden aus dieser Komplexifizierung Nutzen ziehen und (als können. Der Unterschied zur früheren Betrachtung ist, daß Mengen).
XII.4 4.1
Normalform unitärer und orthogonaler Abbildungen
Diagonalisierbarkeit unitärer Abbildungen
Jeder unitäre Endomorphismus mierten Basis diagonalisierbar.
eines unitären Vektorraumes
ist bezüglich einer orthonor-
Beweis:
1 1 8' ' ; denn: ' ' " ist. und dann auch
'
'
Im Komplexen gibt es stets einen Eigenwert und zu ihm einen normierten Eigenvektor . Wir setzen und ergänzen zu einer orthonormierten Basis von . ist dann ein algebraisches Komplement von . ist invariant bei , d. h.
Wegen
' ' "
' / , da ein Eigenwert einer unitären Abbildung 8 ' ' hat die Matrix von bezüglich ' ' die Gestalt:
1
. .8 8 .. .. 8
8. ..
ist
ist wieder eine unitäre Abbildung und wir können (wie in IX.3 auf Seite 83) induktiv schließen, daß sich aus der Diagonalisierbarkeit von die Diagonalisierbarkeit von ergibt, und zwar jeweils bezüglich orthonormierter Basen.
XII Vektorräume mit Skalarprodukt 2
150 4.2
Normalform orthogonaler Abbildungen
,' ' '
'
<1
Es gibt eine orthonormierte Basis, bezüglich der die Matrix einer orthogonalen Abbildung die folgende Normalform hat mit und .
..
.
. ..
..
.
..
'
'
.
Die geometrische Interpretation dieser Normalform ist folgende: zerfällt in die direkte Summe von zweidimensionalen Untervektorräumen , den Eigenvektorraum zum Eigenwert 1, falls 1 als Eigenwert auftritt, und den Eigenvektorraum zum Eigenwert -1, falls -1 als Eigenwert auftritt. Diese Untervektorräume stehen alle paarweise aufeinander senkrecht. Bei und gedreht, wird jeder um einen Winkel wird am Nullpunkt gespiegelt und identisch abgebildet.
'
In anderen Worten: Die allgemeinste orthogonale Abbildung besteht aus Drehungen von zueinander paarweise orthogonalen Ebenen. Das orthogonale Komplement der direkten Summe dieser Ebenen wird orthogonal an einem Unterraum gespiegelt. Beweis:
1
Wir gehen über zur Komplexifizierung . ist unitär und hat daher Eigenwerte vom Betrag 1 und nach 4.1 auf der vorherigen Seite und 3.4 auf Seite 147 eine Diagonalgestalt bezüglich einer komplexen orthonormierten Basis aus Eigenvektoren:
' ' ' ' ' ' ' ' ' zu den Eigenwerten ' ' ' ' ' '' ' ' ' mit nicht reell für '' . Für die letzten Eigenvektoren zu den reellen Eigenwerten wählen wir reelle orthonormierte
Vektoren.
XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen
151
' ' transformieren wir folgendermaßen auf reelle orthonormierte Vektoren: 1 9 ' 1 Die umgekehrte Transformation lautet: , Da den Betrag 1 hat, können wir schreiben in der Form: " für ' und . Daraus ergibt sich: 9 und analog: Daraus sehen wir, daß die Matrix von bezüglich ' ' ' ' ' ' ' eine Form Für
wie behauptet hat.
4.2.1 Normalformen in Dimension 3 Für einen dreidimensionalen euklidischen Vektorraum gibt es sechs Normalformen orthogonaler Abbildungen, die folgende Bezeichnungen tragen, wobei ist.
Drehung um eine Achse
Orthogonale Spiegelung an einer Ebene durch
Orthogonale Spiegelung an einer Geraden durch
XII.5
Drehspiegelung
' ' Identität
Orthogonale Spiegelung am Nullpunkt
Hauptachsen semi-symmetrischer Sesquilinearformen
Aus der Diagonalisierung selbstadjungierter Abbildungen wird sich die Diagonalisierung semisymmetrischer Sesquilinearformen ergeben.
XII Vektorräume mit Skalarprodukt 2
152 5.1
Satz
Für einen Endomorphismus
von
wird die Sesquilinearform
(' 1 '
definiert durch:
Wir erhalten eine Abbildung
' Bezüglich einer orthonormierten Basis ' ' bezeichne die Matrix von . Dann gilt: 1.
die Matrix von
und
2. ist ein Isomorphismus.
3.
!
ist selbstadjungiert.
Beweis:
ist semi-symmetrisch.
-te Koordinate von ' '
2. Wir übergehen den (einfachen) Beweis, daß linear ist und zeigen nur die Bijektivität von . Sehen wir das Transponieren als eine Abbildung , die Matrizenzuordnungen ebenfalls als Abbildungen an, so bedeutet , oder gilt. als Zusammensetzung von Bijektionen , wobei noch ist eine Bijektion. 3.
5.2
!
ist selbstadjungiert
!
!
1
' +' ' ' +' '
!
Satz und Definition
ist semi-symmetrisch.
Jede semi-symmetrische Sesquilinearform auf hat bezüglich einer geeigneten orthonormierten Basis eine Diagonalmatrix mit reellen Koeffizienten in der Hauptdiagonalen. Die von diesen orthonormierten Basisvektoren aufgespannten eindimensionalen Unterräume von heißen die Hauptachsen der semi-symmetrischen Sesquilinearform. Die Transformation auf eine solche Basis heißt Hauptachsentransformation. Die Eigenwerte und Eigenvektoren der zu gehörigen symmetrischen Abildung , nennen wir auch die Eigenwerte und Eigenvektoren von .
XII.6 Ausblick auf physikalische Anwendungen
153
Beweis: Da eine selbstadjungierte Abbildung bezüglich einer orthonormierten Basis mit reellen Zahlen in der Hauptdiagonalen diagonalisiert werden kann, geht dies nach 5.1.1 auch für eine semi-symmetrische Sesquilinearform.
5.3
Bemerkung
;1 1 (' für alle . Die Figur 1 heißt eine Hyperfläche zweiter Ordnung oder eine Quadrik,
eine Kurve bzw. eine Fläche zweiter Ordnung. (Vgl. Kap. XIV auf Seite 166 .) für Bezeichnen ' ' die Koordinaten bezüglich einer orthonormierten Basis, bei der Dia
Wir betrachten den Fall Form ist
. Die zur symmetrischen Bilinearform
gehörige quadratische
gonalgestalt hat und sind
die Eigenwerte, so hat
die Gleichung
8
Sind alle Eigenwerte positiv, dann ist ist für eine Ellipse, für ein Ellipsoid, deren Achsen Eigenvektoren darstellen. Die Längen der Hauptachsen der Ellipse bzw. des Ellipsoids sind . Dieser Zusammenhang mit den Achsen einer Ellipse bzw. eines Ellipsoids erläutert die Bezeichnung „Hauptachsentransformation“.
XII.6 6.1
Ausblick auf physikalische Anwendungen
Trägheitstensor
In der Mechanik des starren Körpers führt die Betrachtung von Trägheitsmomenten bezüglich einer Drehachse auf den sogenannten Trägheitstensor. Er kann einerseits als eine selbstadjungierte lineare Abbildung , andererseits als die zugehörige symmetrische Bilinearform aufgefaßt werden mit zugehöriger quadratischer Form . Die das Eigenwerte des Trägheitstensors heißen Hauptträgheitsmomente und die Fläche Trägheitsellipsoid. Mit diesen Bezeichnungen gilt:
1 1
'
(' 5'
1
1. Die Abhängigkeit des Trägheitsmomentes von der Drehachse wird beschrieben durch: wobei ein Einheitsvektor sei, der die Drehachse aufspannt.
2. Die kinetische Energie ist (bei festem Schwerpunkt) eine Funktion des Vektors Winkelgeschwindigkeit, und zwar :
8
3. Der Drehimpulsvektor
ist ebenfalls eine Funktion von , und zwar:
der
XII Vektorräume mit Skalarprodukt 2
154 6.2
Historische Anmerkung zum Spektralsatz
David Hilbert (1862-1943) schuf Anfangs dieses Jahrhunderts eine Theorie von symmetrischen unendlichen Matrizen und führte dabei den Begriff eines Spektrums als rein mathematischen Begriff ein: Spektrum einer Matrix := Menge der Eigenwerte der Matrix Erst ca. zwanzig Jahre später wurde erkannt, daß dieser mathematische Begriff Atom- und Molekülspektren beschreibt. Unser Satz von der Diagonalisierbarkeit ist die endlich dimensionale Version des sogenannten Spektralsatzes für selbstadjungierte lineare Selbstabbildungen gewisser unendlich dimensionaler Vektorräume mit Skalarprodukt –der Hilberträume.
XIII.2 Affiner Raum
155
XIII Grundbegriffe der affinen Geometrie XIII.1
Analytische versus Synthetische Geometrie
Der Anschauungsraum wurde bisher benutzt, um ein geometrisch anschauliches Beispiel eines Vektors und eines Vektorraumes zu beschreiben. Für den Anschauungsraum selbst wurde dabei keine strenge Begründung gegeben. Den Begriff eines Vektorraumes über einem Körper begründeten wir folgerichtig, ohne den Anschauungsraum zu verwenden. Wir werden im folgenden aus dem streng begründeten Vektorraumbegriff einen präzisen Begriff eines geometrischen Raumes ableiten, den wir für und im dreidimensionalen Falle auch als ein mathematisches Modell für den Anschauungsraum ansehen.
Von einem Vektorraum über einem Körper gelangen wir dabei zum Begriff eines affinen Raumes über und von einem reellen Vektorraum mit Skalarprodukt, also einem euklidischen Vektorraum, zum euklidischen Raum. Ab jetzt müssen wir, insbesondere bei Unterräumen, streng zwischen Vektorraum und Raum unterscheiden. Die projektiven Räume sind eine weitere Art von geometrischen Räumen, die auf dem Vektorraumbegriff aufgebaut werden können. Die Untersuchung von geometrischen Räumen, die auf dem Vektorraumbegriff aufbaut, heißt Analytische Geometrie, weil über Vektorraum-Koordinaten schnell eine zahlenmäßige, quantitative Analyse möglich ist. Das Gegenstück wird Synthetische Geometrie genannt. Ihre größtenteils auf Euklid zurückgehenden Axiome sind direkt auf die zu untersuchenden geometrischen Figuren wie Geraden, Strecken, Winkel, Dreiecke und die geometrischen Begriffe wie gleich lange Strecken, gleich große Winkel, kongruente Dreiecke usw. bezogen. Vielleicht können wir die Namensgebung „Synthetische Geometrie“ in etwa so nachempfinden, daß aus diesen unmittelbar interessierenden geometrischen Gebilden und Begriffen eine geometrische Lehre durch „Synthese“ aufgebaut wird. In dem durch den Vektorraumbegriff definierten Raum liegt hingegen das fertige Produkt bereits vor, das wir „analysieren“, um die einzelnen Begriffe und Sätze herzuleiten. Diese Interpretationen –ob historisch belegbar oder nicht– verbinden jedenfalls die Namen der beiden geometrischen Lehren mit ihrer Vorgehensweise.
XIII.2 2.1
Affiner Raum
Desargues-Ebenen
Wir nennen im folgenden die in III. 6.1 auf Seite 22 synthetisch definierten affinen Ebenen Desargues-Ebenen, um sie zunächst von den analytisch definierten affinen Räumen zu unter14
A. Riede: Lineare Algebra 2, SS 00
XIII Grundbegriffe der affinen Geometrie
156
scheiden, die wir jetzt definieren wollen. (In der Literatur werden unter Desargues-Ebenen auch diejenigen verstanden, bei denen die Pappos-Eigenschaft nicht gilt, d. h. zu denen ein nicht kommutativer geometrischer Körper gehört. Der eigentliche Satz von Desargues ist noch allgemeiner; er folgt aber leicht aus der hier behandelten Parallelitätseigenschaft von Desargues (sogar in der projektiven Geometrie). Analog verhält es sich mit der Parallelitäts-Eigenschaft von Pappos und dem allgemeinen Satz von Pappos.) 2.2
Beziehung zu geometrischen Vektorräumen
Sei
sei die Menge der Punkte einer Desargues-Ebene.
der Vektorraum der geometrischen
Vektoren der Desargues-Ebene, wobei Vektoren Äquivalenzklassen von Pfeilen sind; bezeichne die Äquivalenzklasse des Pfeiles vom Punkt nach dem Punkt . Dies definiert eine Abbildung
1 ' : ' 1 '
die eine Beziehung zwischen
(A1)
5'
(A2)
und
ist die Abbildung
'
gilt:
herstellt mit folgenden Eigenschaften:
1
,
1
bijektiv.
Damit können wir eine analytische Definition eines affinen Raumes geben. 2.3
Definition
Ein affiner Raum 1.
' ' , wobei
über dem Körper besteht aus einem Tripel
eine nicht leere (vgl. jedoch 3.4 auf Seite 160) Menge ist, deren Elemente Punkte genannt werden,
2. 3.
ein Vektorraum über dem Körper und
1 #
eine Abbildung ist.
Die Dimension eines affinen Raumes wird definiert durch: Dim
1
:' mit
Dim
Um an das anschauliche Beispiel 2.2 zu erinnern, wird allgemein bezeichnet für . Das Tripel heißt ein affiner Raum über , wenn die Axiome (A1) und (A2) erfüllt sind. In abstrakter Bezeichnung schreibt sich (A2) wie folgt:
:'
(A2*)
5'
'
5'
XIII.2 Affiner Raum 2.4
Folgerungen
157
2.5
'
Definition und Eigenschaften von Translationen
Wir betrachten die Abbildung:
0%1 #' 0 (' 1 Wir definieren 0 1 durch 0 1 0 (' . 0 heißt die Translation oder Parallelverschiebung von mit Translationsvektor .
Translationen haben folgende Eigenschaften: A
1
:' 0 0
Für alle
gibt es genau einen Vektor
mit
0
1 0 für alle +' und alle 8 Alle Translationen bilden eine Gruppe, die zur additiven Gruppe von dere ist 0 Id.
A
.
isomorph ist. Insbeson-
Beweis:
1 0 ! !
nach Definition von 0
D. h.: Haben wir ein mit 0
, so ergeben diese Äquivalenzen von oben nach unten gelesen, die Eindeutigkeit von . Lesen wir die Äquivalenzen von unten nach oben, so sehen wir, daß #1 die geforderte Eigenschaft hat. Zu A 1 Wir formen die rechte Seite von A um: 0 0 8 0 für 1 0 d. h.8 5'
' für 1 0
d. h. Die linke Seite von A ergibt: 0 8 :' ' nach den Definitionen von und A ergibt sich : ' nach A Zu A
aus
.
8
8
Daß alle Translationen eine Gruppe bilden, ergibt sich aus A , A und sei als Übungsaufgabe dem Leser überlassen. Mit Hilfe des Translationsbegriffes erhalten wir:
XIII Grundbegriffe der affinen Geometrie
158 2.6
Äquivalente Definition eines affinen Raumes
#' ' 0 , das aus einer Menge , deren und einer Abbildung 01 Die Abbildung 0 wird in Erinnerung an das anschauliche Beispiel „Abtragen eines Vektors von einem Punkt aus“ genannt. mit den Eigenschaften A und 0 Id heißt eine Ausblick: Eine Abbildung 0 1 8 Operation der additiven Gruppe von auf der Menge . Eine solche Operation heißt transitiv, wenn es für alle 5' ein gibt mit 0
und einfach transitiv, wenn es genau ein solches gibt. A bedeutet also die einfache Transitivität der Operation 0 . Mit dem Ein affiner Raum über dem Körper ist ein Tripel Elemente Punkte genannt werden, einem -Vektorraum besteht mit den Eigenschaften A , A .
Abtragen von Vektoren haben wir also ein Beispiel einer einfachen transitiven Operation einer Gruppe auf einer Punktmenge kennengelernt. Gruppenoperationen spielen eine bedeutende Rolle sowohl in der klassischen Geometrie wie in der aktuellen Mathematik.
(Stichwort (klassisch): Felix Kleins Erlanger Programm (1872): Eine Geometrie besteht nach Klein aus der Untersuchung aller Eigenschaften von geometrischen Figuren, die bei der Operation der Gruppe, die zu jeder Geometrie gehört, erhalten bleiben. Beispiel: ist die Gruppe der Geometrie eines euklidischen Vektorraumes, ist eine Eigenschaft, die bei allen orthogonalen Abbildungen erhalten bleibt. Siehe G. Fischer: Analytische Geometrie, S. 208, 6. Auflage, vieweg, Wiesbaden 1992)
(Stichwort (aktuell): -Räume, eine Symmetrie-Gruppe des Raumes). Wenn wir mehrere affine Räume betrachten, so verwenden wir für den affinen Raum Schreibweise:
die
' '
Wenn aus dem Zusammenhang keine Verwechslungen möglich sind, wird für den affinen Raum und die ihm zugehörige Punktmenge das gleiche Zeichen verwendet! wird auch mit bezeichnet und mit !
#' '
Beweis der Äquivalenz der beiden Definitionen affiner Räume: Es ist noch zu zeigen, wie wir von der zweiten Definition zur ersten zurückkommen. Dazu sei
:'
dann:
A
0
per Definition das nach A
eindeutig bestimmte
1 Injektivität von :
5'
5'
1 0 und 0
' da 0 eine eindeutige Zuordnung. Surjektivität von : Sei , setze 1 0
Zu
mit
0
.
Es gilt
XIII.3 Affine Unterräume
:'
Zu A
8 1
0
0
0 Außerdem gilt: 0 gibt mit 0
Da es genau ein
2.7
von
nach Definition
159
5'
0
0
, folgt aus
5'
und
8
nach A wegen wegen
:
wegen
'
Beispiele
1. Die Auffassung eines Vektorraumes
als affiner Raum
:
+' 1 (' eines Vektors nach einem 2. Die sogenannte Nebenklasse 1 Untervektorraum von bildet eine affinen Raum : 1 /' fest, 1 /' 1 ( wie im 1. Beispiel) 3. Wegen Łinhom Łhom bilden sowohl die Lösungen eines inhomogenen linearen 1 '
1 '
Gleichungssystems wie auch eines inhomogenen linearen Differentialgleichungssystems mit konstanten Koeffizienten einen affinen Raum. (Vgl. V. 8.2 auf Seite 55 bzw. IX. 6.2 auf Seite 97)
XIII.3 3.1
Affine Unterräume
Definition
' '
1!
Ein affiner Raum 1.
2.
3.
' '
heißt ein affiner Unterraum des affinen Raumes
(als Mengen),
ist Untervektorraum von
'
und
XIII Grundbegriffe der affinen Geometrie
160 3.2 1.
Beispiele
#
aus dem 2. Beispiel von 2.7 auf der vorherigen Seite ist ein affiner Unterraum des affinen Raumes des 1. Beispiels. Die affinen Unterräume von durch Null sind nichts anderes als die Untervektorräume von , aufgefaßt als affine Räume im Sinne des 2. Beispiels von 2.7 auf der vorherigen Seite.
' ' ein affiner Raum, ' ein Untervektorraum von , dann bildet
einen affinen Unterraum mit . die Teilmenge 1
2. Ist
Der Unterraum heißt (in beiden Beispielen) der zu durch . 3.3
parallele Unterraum von
bzw.
Kriterium
1
Sei ein affiner Raum und eine Teilmenge von affinen Unterraumes von genau dann, wenn . Untervektorraum von ist für ein
3.4
durch
. Dann ist die Punktmenge eines eine bijektive Abbildung auf einen
Satz über den Durchschnitt affiner Unterräume
affiner Unterräume , ( eine Indexmenge) eines affinen Raumes ist ein affiner Unterraum von . Hierbei ist es zweckmäßig zu definieren, daß die leere Menge . ein affiner Unterraum der Dimension ist. Weiter gilt für Der Durchschnitt
3.5
Affine Hülle und Verbindungsraumes
Ist eine Menge von Punkten des affinen Raumes , so gibt es nach 3.4 den kleinsten affinen Unterraum von , der umfaßt. Dieser heißt die affine Hülle von in oder der von aufgespannte (oder erzeugte) affine Unterraum von . Wir bezeichnen ihn mit oder .
'' ' '
&&
der (affine) Verbindungsraum
&& . , 8
, :' , . Dann ist 8 1
Spezialfall: Verbindungsgerade von und . Sind von
3.6
affine Unterräume von , so heißt . Wir bezeichnen ihn auch mit
Dimensionsformel
Für affine Unterräume
'
Dim
des affinen Raumes
Dim
gilt, falls Dim
Dim
oder
oder
die
:
XIII.5 Affine Ebenen Falls
161
und
und
Dim
XIII.4 4.1
gilt: Dim
Dim
Dim
Parallelität
Definition
0 8
0 0
Unter einer Figur verstehen wir einfach eine Teilmenge des affinen Raumes . Eine Figur heißt parallel zu einer Figur , falls eine Parallelverschiebung existiert, mit oder . Die Bezeichnung für Parallelität ist:
8 0 8 8 Sind ' 8 affine Unterräume, dann bedeutet parallel dasselbe wie
oder . Gleichdimensionale afine Unterräume sind also genau dann parallel, wenn ihre zugehörigen Vektorräume gleich sind. Daraus folgt:
4.2
Feststellung
Auf der Menge aller -dimensionalen affinen Unterräume ( Äquivalenzrelation.
XIII.5
fest) ist die Parallelität eine
Affine Ebenen
sei eine affine Ebene, d. h. ein zweidimensionaler affiner Raum.
5.1
Feststellung
Auf der Menge der Geraden ist Parallelität eine Äquivalenzrelation. Siehe 4.2!
5.2
Feststellung
1 !
'
Zwei Geraden sind parallel oder . D. h. der analytische Parallelitätsbegriff stimmt mit dem synthetischen aus III.6.1.2 überein.
!
Beweis: Wir zeigen, daß die Verneinungen äquivalent sind.
! nicht parallel 1) wegen der Dimensionsformel: Dim Dim Dim Dim
und
0-dimensional
!
XIII Grundbegriffe der affinen Geometrie
162 5.3
Feststellung
%
Es gilt das Parallelenaxiom; d. h. zu jeder Geraden . Gerade mit und
und jedem Punkt
gibt es genau eine
Beweis: Eindeutigkeit:
%
5.4
Strahlensatz
Existenz: 1
und seien zwei verschiedene Geraden, die sich in dem Punkt schneiden. und seien zwei zueinander parallele Geraden, deren Durchschnitt mit bzw. jeweils aus genau einem von , verschiedenen Punkt besteht; wir bezeichnen die Schnittpunkte wie folgt: ,
5 1 , : 1 . Weiter sei 4 1 Dann ist , weil , 4 ' . Behauptung: Beweis: Sei 1 . Es ist , 4 4 4 # 4 # 4 4
1 1 1 , 1 , 1 , 1 "
, für geeignete Skalare
5.5
, 1
und
.' '
.
.
" "
wegen wegen
4
und
Satz von Desargues
' 8 ' und ' 8 ' seien Dreiecke in perspektiver Lage mit dem Zentrum paralleler Lage (vgl. III.6.1.4). Dann gilt: 8 8 und 8 8
Beweis: Bei perspektiver Lage: Sei:
oder in
XIII.5 Affine Ebenen
163
B3
A3
g3
g2
B2
A2
B1
A1
g1
Abbildung 16: Satz von Desargues bei paralleler Lage
1 ' 4 1 ' 1 ' 1 8 ' #1 8 ' 1 ' ;1 Sei gilt nach dem Strahlensatz: ( und 4 , dann $ 8 8 Bei paralleler Lage: Es gilt (wegen s. die untenstehende Aufgabe): 8 8 und 8 8 8 8
8 , 1 8 . Folglich ist:
5.6
Aufgabe
gelte: '/ ' ' ' . Sei "1 -' "1 + ' ' ' -' 1 +' 1 . 8 8 8 und 8 8 Dann gilt: 8 Für die Geraden
XIII Grundbegriffe der affinen Geometrie
164
B3
g
B2 B1 Z
A3
A2
h
A1
Abbildung 17: Parallelitätssatz von Pappos und Kommutativität
5.7
Parallelitätsatz von Pappos
'
8 8
und 8 8
8 ' für ein nach dem Strahlensatz 5' für ein nach dem Strahlensatz 8 5' wegen und ' wegen und 8 8 8 8 8 8
Beweis:
' 8'
zwei verschiedene Geraden, die sich in einem Punkt treffen. seien jeweils paarweise und von verschiedene Punkte. Dann gilt:
+' ' 8 '
Seien
8 8
XIII.5 Affine Ebenen 5.8
165
Abschließende Bemerkung
Damit haben wir im wesentlichen bewiesen, daß eine (analytisch definierte) affine Ebene auch eine affine Ebene im Sinne der synthetischen Geometrie, d. h. eine Desargues-Pappos-Ebene ist.
XIV Aspekte der euklidischen Geometrie
166
XIV Aspekte der euklidischen Geometrie XIV.1 1.1
Grundlegendes
Definition
Ein euklidischer Raum hörigen Vektorraum .
1.2
ist ein reeller affiner Raum mit einem Skalarprodukt auf seinem zuge-
Definition
Ein Punkt , genannt Grundpunkt oder Nullpunkt und eine orthonormierte Basis von heißt ein kartesisches Koordinatensystem von . Fü beliebiges
gilt:
'
'' heißt das Koordinaten- -tupel von stems ' '' . 1.3
bezüglich des kartesischen Koordinatensy-
Transformation kartesischer Koordinaten
' ' '
Sei ein zweites kartesiches Koordinatensystem, -tupel von bezüglich . 15
' '
' ' '
A. Riede: Lineare Algebra 2, SS 00
' '
das Koordinaten-
XIV.2 Kurven zweiter Ordnung
167
1.4
orthogonal
1 ', 1
Ergebnis
Kartesische Koordinaten transformieren sich durch Multiplikation mit einer orthogonalen Matrix und Addition eines -tupels. Das additive -tupel beschreibt den Translationsanteil der Transformation.
XIV.2
. ..
.. .
.. .
orthogonal
Kurven zweiter Ordnung
sei ein zweidimensionaler euklidischer Raum, eine euklidische Ebene. 2.1
Definition
' 8
seien kartesische Koordinaten in . Die Lösungsmenge
8 8 8 8 8 88 . 8 8
heißt eine Kurve 2. Ordnung oder eine Quadrik in ein Ausdruck 2. Ordnung.
einer Gleichung 2. Ordnung
'
(1)
. Der Ausdruck auf der linken Seite heißt
1 für , #1 und 1 8 , und berücksichtigen wir, daß 8 8 8 8 8 8 etc., dann schreibt sich (1) in der systematischeren 8 (2)
Setzen wir dann gilt Form:
XIV Aspekte der euklidischen Geometrie
168 2.2
Transformationsformeln
8 8 1 8 8 8 88 8 Wir setzen weiter: 3 8 1 3 8 mit 1 '* %1 ' 8 1 3 8 8 88 1 8 8 88 orthogonal 8 in die Kurvengleichung ein, so erhalten wir: 8 '* Setzen wir 8 8 8 8 mit 8 . Die -Matrizen transformieren sich also nach der Formel: 1 (3) ' 1 '* 1 erhalten wir: 8 für ' ' Wegen 1 8 Wenn wir setzen
1 8 ' 1 8 , 8 88 8 88 Eine kartesische Koordinatentransformation können wir folgendermaßen ansetzen:
läßt sich dies in Matrizenform ausdrücken:
(4)
D. h. transformiert sich wie bei einer symmetrischen Bilinearform. Es folgt aus diesen Transformationsformeln, daß ein Ausdruck zweiter Ordnung gegenüber kartesischen KoordinatenTransformationen folgende Invarianten hat:
Rg
'
Rg
'
die Eigenwerte
8
Was die Determinanten angeht, folgt dies aus:
, da
' 8 von &' Det ' Det 8 88
XIV.2 Kurven zweiter Ordnung 2.3
169
Klassifikation
Auf Hauptachsen transformiert, erhalten wir:
8
8 8
Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben bezeichnet! Die Kurvengleichung lautet:
8 8 88 . 8 8 ' Rang ;1 1. Fall: Rang und wir können die quadratische Ergänzung bilden: Dann sind ' 8 8 - 8 8 8 8 8 8 8 ' ' da Rang 8 1 188 1 Das transformierte hat die Form 8 und die Gleichung: 8 8 88 1 8 8 88 ' /1 ' 8 1
Unterfälle:
' 8 : Ellipse b) und 8 1 Hyperbel c) ' 8 : nullteilige Kurve, ' Rang 2. Fall: Rang a)
Durch quadratische Ergänzung können wir erreichen:
8
8
8
8
8
wegen Rang
XIV Aspekte der euklidischen Geometrie
170
8 8 8 8 8 8 8 8 8 8 8 Wir können annehmen:
/1 ' 8 1 8 8 8 1 8
; andernfalls führen wir die Transformation 8 8 aus.
Die Kurve ist eine Parabel.
3. Fall: Rang Dann ist
'
Rang
8 .
und
Unterfälle:
' 8 : besteht aus genau einem Punkt. b) % ', 8 : besteht genau aus zwei sich schneidenden Geraden. ' Rang 4. Fall: Rang besteht aus zwei parallelen Geraden oder ist leer. ' Rang 5. Fall: Rang besteht aus genau einer Geraden. a)
XIV.3 3.1
Flächen zweiter Ordnung
Definition
' 8 ' seien kartesische Koordinaten in einem drei-dimensionalen euklidischen Raum . Die Lösungsmenge einer Gleichung 2. Ordnung .
' (5) 8 8 , und wir setzen heißt eine Fläche 2. Ordnung oder eine Quadrik in . Dabei sei wieder 1 die systematischere Schreibweise: und erhalten 8 und 1 : ' in Matrizenform: mit &'' Es wird analog zum zwei-dimensionalen Fall gesetzt: 1 8
XIV.3 Flächen zweiter Ordnung 3.2
171
Invarianten
Bei kartesischen Koordinaten-Transformationen erhalten wir die zum zwei-dimensionalen Fall analogen Transformationsformeln für den Ausdruck 2. Ordnung und daher folgende Invarianten: Rg 3.3
'
Rg
'
die Eigenwerte
', 8 ', von &' Det ' Det
Klassifikation
Auf Hauptachsen transformiert, ergibt sich:
8
8 8
Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben bezeichnet! Die Flächengleichung lautet:
8 8 88 8 - 8 8 * 1 ' Rang 1. Fall: Rang
Durch quadratische Ergänzung bekommen wir:
8 8 88 8 und durch Gleichungsumformung: 8 8 88 8 Unterfälle: a) ' 8 ' : heißt ein Ellipsoid. Für 8 8 Der Schnitt mit der ' 8 -Ebene ist eine Ellipse: ' 8 8 kleine sind auch die Schnitte mit Ebenen parallel zur ' 8 -Ebene Ellipsen: konstant, 8 8 88 8 ; für 8 sind es Kreise und ist ein Rotationsellipsoid, das dadurch entsteht, daß eine Ellipse um die -Achse rotiert. b) ' 8 ' : heißt ein einschaliges Hyperboloid. Schnitte mit zur ' 8 -Ebene parallelen Ebenen sind stets Ellipsen: ' 8 8 88 8 . Zu beachten ist hier, daß die rechte Seite immer größer als 0 ist. Die Schnitte mit den Koordinaten-Ebenen bzw. 8 sind Hyperbeln. c) ' 8 ' : heißt ein zweischaliges Hyperboloid. ' 8 88 8 : ; entsprechend, wie eine Hyperbel aus zwei Ästen besteht, besteht aus zwei Teilen, genannt Schalen, die durch die 8 ' -Ebene getrennt werden; im einen ist im anderen .
172
XIV Aspekte der euklidischen Geometrie
: ist eine Hyperbel. 8 8 ' 8 ' 8 8 88 1 ist eine Hyperbel. 2. Fall: Rang ' Rang ' 8 8 wegen Rang . Wie bei der Parabel kann erreicht werden, daß wird. 8 8 88 8 8 88 ' ' 8 Unterfälle: a) ' 8 : heißt ein elliptisches Paraboloid. konstant leer konstant : Ellipse konstant oder 8 konstant: Parabeln b) ' 8 : Elliptisches Paraboloid, da durch die Tranformation : in den vorstehenden Fall überführbar. ' 8 : heißt ein hyperbolisches Paraboloid oder Sattelfläche. c) Schnitte mit Ebenen ergeben: : Sich schneidendes Geradenpaar. konstant : Hyperbel konstant : Hyperbel oder 8 : Parabel : Kann nicht auftreten; denn 3. Fall: Rang ' Rang 8 Rang , Widerspruch! 8 ' Rang : 4. Fall: Rang ' 8 ' 8 weHier erreichen wir die fettgedruckten Nullen durch quadratische Ergänzung, . gen Rang
XIV.3 Flächen zweiter Ordnung
173
8 8 88 8 Unterfälle: a) ' 8 ' : besteht aus genau einem Punkt. b) ' 8 ', : ist ein Kegel. konstant : Ellipse : Punkt c) Alle weiteren Unterfälle lassen sich durch Multiplikation mit -1 und Vertauschen von Koordinaten auf die betrachteten zurückführen.
5. Fall: Rang der.
6. Fall: Rang
8. Fall: Rang 9. Fall: Rang
'
'
7. Fall: Rang Ebenen.
'
Rang
Rang Rang
:
:
:
' Rang : ' Rang :
ist ein elliptischer oder ein hyperbolischer Zylinist ein parabolischer Zylinder. besteht aus zwei verschiedenen sich schneidenden besteht aus zwei verschiedenen parallelen Ebenen. besteht aus einer Ebene.
XV Der Minkowski-Raum
174
XV Der Minkowski-Raum Im folgenden bezeichnen
' 8 ' &' Koordinaten zu einer Basis ' 8 ' &' .
XV.1 Modell der räumlich-zeitlichen Welt 1.1
Problemstellung
Wir stellen uns die Aufgabe, ein geometrisches Modell unserer räumlich-zeitlichen Welt aufzustellen. 1.1.1 Erste Annahme Wir nehmen an, daß sich die Ereignisse unserer Welt durch drei räumliche reelle Koordinaten und eine reelle Zeitkoordinate beschreiben lassen und umgekehrt zu jedem genau ein Raumzeitpunkt gehört. Mathematisch nehmen wir an, daß die
Welt ein vierdimensionaler reeller affiner Raum ist.
' '
8 '' &' 8
1 0
1.1.2 Definition der Lichtgeraden und des Lichtkegels Unserer Erfahrung nach gibt es für unseren dreidimensionalen Lebensraum gewisse (kartesische) Koordinatensysteme, , so daß jeder Lichtstrahl eine Gerade ist.
' 8 ' Ein Lichtstrahl durch den Koordinaten-Ursprung hat also folgende Parameterdarstellung: 0 0 ' ' ' ' ' 8 ' konstant ' 0 ein reeller Parameter Verwenden wir als Parameter für die Lichtausbreitung die Zeit 0 , so ist die Konstante 1 8 als die Ausbreitungsgeschwindigkeit eines Lichtblitzes zu verstehen. Den physikali
schen Beobachtungen zufolge ist die Lichtgeschwindigkeit für alle Lichtstrahlen die gleiche, also eine Konstante. Auf die tiefere Bedeutung dieser physikalischen Beobachtung kommen wir noch zurück. Im vierdimensionalen Raum stellt sich die Lichtausbreitung vom Koordinaten-Ursprung aus durch sogenannte Lichtgeraden dar, die durch ein homogenes lineares Gleichungssystem gegeben sind:
' '
mit
1
8
Mathematisch betrachtet, bedeutet die Existenz von Koordinatensystemen, in denen sich Lichtstrahlen in einer solchen Weise beschreiben, daß diese Lichtgeraden als Strukturelemente gegeben sind. Alle Lichtgeraden zusammen bilden den Lichtkegel:
1
8 $ 8 8
XV.1 Modell der räumlich-zeitlichen Welt
175
1.1.3 Inertialsysteme Jedes Koordinatensystem, in dem sich Lichtstrahlen wie beschrieben längs Geraden ausbreiten oder mathematisch betrachtet, in denen sogenannte Lichtgeraden oder der Lichtkegel gegeben sind, nennen wir ein Inertialsystem. In der Physik werden Inertialsysteme anders definiert; sie sind jedenfalls so erklärt, daß in Inertialsystemen die Naturgesetze die gleiche Form haben (Relativitätsprinzip). Wir haben hier nur das eine Naturgesetz berücksichtigt, daß sich Licht mit konstanter (endlicher) Geschwindigkeit längs Geraden ausbreitet. Wenn das Naturgesetz der Lichtausbreitung invariant gegenüber Koordinatentransformationen von einem Inertialsystem zu einem anderen sein soll, so müssen Lichtgeraden in Lichtgeraden oder der Lichtkegel in den Lichtkegel übergeführt werden. 1.1.4 Auf dem Lichtkegel verschwindende quadratische Formen Die Gleichung des Lichtkegels legt nahe, die quadratische Form
' 8 ' &' 1 8 $ 88 $ 8 8 8
zu betrachten, die auf dem Lichtkegel verschwindet. Für eine lineare Koordinatentransformation , die den Lichtkegel in den Lichtkegel überführt, muß dann
' 8 ' &' 1
' 8 ' &'
wieder eine quadratische Form sein, die auf dem Lichtkegel verschwindet. Gilt etwa Dazu hilft weiter:
?
'
1.1.5 Satz über quadratische Formen ist bis auf einen Faktor die einzige nicht ausgeartete quadratische Form, die auf dem Lichtkegel verschwindet. Eine quadratische Form heißt dabei nicht ausgeartet, wenn die symmetrische Bilinearform , zu der sie gehört, nicht ausgeartet ist. 1.1.6 Minkowski-Raum Eine Koordinatentransformation die den Lichtkegel in den Lichtkegel transformiert, transformiert also in sein -faches mit einem . Diese Transformation von wird auch bewirkt durch die Skalenänderung auf jeder Achse um den gleichen Faktor . Wenn ein auftritt, können wir das deshalb so interpretieren, daß bei auch noch eine solche Skalenänderung vorgenommen wird. Die Transformationen, die die Form invariant lassen, können wir also als diejenigen ansehen, die den Lichtkegel in den Lichtkegel überführen und keine solche Skalenänderung hervorrufen.
Damit gelangen wir zu folgendem Modell der Welt: Die Welt ist der Form bzw. mit der symmetrischen Bilinearform:
.' 1 $ 8
mit der quadratischen
Die Welt ist also ein geometrischer Vektorraum mit einer symmetrischen Bilinearform der Signatur 3 und mit Index 1. Als erster hat der Mathematiker Hermann Minkowski (1864-1909)
XV Der Minkowski-Raum
176
diesen Raum als einen Rahmen für die spezielle Relativitätstheorie erkannt. Nach ihm wird er Minkowski-Raum genannt. Da bis auf das Minuszeichen wie ein Skalarprodukt aussieht, wird auch pseudoeuklidisches Skalarprodukt genannt und ein pseudoeuklidischer Vektorraum.
'
XV.2 Lorentztransformationen 2.1
Definition
Die Lorentztransformationen sind die Isometrien des Minkowski-Raumes.
1 ' 4 eine Lorentztransformation heißt homogen, falls 4 ist. Daß eine Isometrie ist bedeutet für die Matrix nach XI.2.3.3 Matrix von bezeichnet. Ausführlich:
1 1 1 1
1 1 für ' ' mit den Kroneckersymbolen und 1 für
, wobei
1
Damit schreibt sich die Isometriebedingung in der folgenden Form, wobei bezeichnet:
1
die
'
die -te Spalte von
D. h. ist eine Isometrie genau dann, wenn die Spalten von pseudo-orthonormiert sind, d. h., daß eine pseudo-orthogonale Matrix ist. 2.2
Definition
Ein Vektor heißt raumartig : zeitartig : Lichtvektor : 2.3
!
! !
Einheitsvektoren
Einheitsvektoren erfüllen die Gleichung:
8 $ 88 $ 8 8
XV.2 Lorentztransformationen
177
Dabei gilt für die raumartigen Einheitsvektoren und für die zeitartigen. Die raumartigen Einheitsvektoren liegen auf einem einschaligen (dreidimensionalen) Hyperboloid, die zeitartigen auf einem einschaligen. 2.4
Relativität der Gleichzeitigkeit
' 8 ' '
' 8 ' '
Bezüglich zweier Inertialsysteme mit den Basen und , so daß und linear unabhängig sind,sind zwei Ereignisse, die in einem Koordinatensystem gleichzeitig sind, im andern nicht gleichzeitig.
XVI Eigenvektor-Theorie und Normalformen
178
XVI Eigenvektor-Theorie und Normalformen Wenn nicht ausdrücklich etwas anderes gesagt wird, bezeichnet mus eines -dimensionalen Vektorraumes über dem Körper (
XVI.1
1
einen Endomorphis-
).
Charakteristisches Polynom
Man ist versucht, das charakteristische Polynom durch Det( Id ) zu definieren. Jedoch ist Id End d. h. es ist ein Element eines Polynomringes und nicht ein Endomorphismus. Daher wird zuerst das charakteristische Polynom einer Matrix erklärt. Dazu schicken eine Koordinatentransformation, dann wir eine andere Betrachtung voraus. Ist transformiert sich nach V. 7.6 auf Seite 53 die Abbildungsmatrix bezüglich in die Abbildungsmatrix bezüglich nach der Formel:
1.1
Definition konjugierter oder ähnlicher Matrizen
Zwei -Matrizen und , für die die Formel Matrix ist, heißen konjugiert oder ähnlich zueiander.
gilt, in der
eine reguläre
-
Wegen der Bemerkung zuvor sind und genau dann zueinander ähnlich, wenn sie als Abbildungsmatrizen ein und desselben Endomorphismus bezüglich eines Koordinatensystems bzw. aufgefaßt werden können.
1.2 Sei
Definition des charakteristischen Polynoms eine Unbestimmte und
<
. Dann ist
. 8 . .8 . . . . . . .. .. ..
.
..
; alle Koeffizienten außerhalb der Hauptdia
eine Matrix mit Koefizienten im Polynomring gonalen sind konstante Polynome, die in der Hauptdiagonalen lineare Polynome (solche vom Grade 1). Jetzt wenden wir die Determinantentheorie für kommutative Ringe an, und zwar für 16
A. Riede: Lineare Algebra 2, SS 00
XVI.1 Charakteristisches Polynom
179
ist ein Polynom, es heißt das charak . Ist von bezüglich einer Basis ' ' von , dann heißt die Abbildungsmatrix 1 das charakteristische Polynom von .
den Polynomring . Die Determinante der Matrix teristische Polynom von ; wir bezeichnen es mit
1.3
Grundtatsachen über das charakteristische Polynom
1. Grad
Grad
' '
; der höchste Koeffizient ist
2. Von der Basis , bezüglich der die Abbildugsmatrix gebildet wurde, hängt das charakteristische Polynom nicht ab.
3. Ähnliche Matrizen haben das gleiche charakteristische Polynom.
ist diagonalisierbar ! ist ähnlich zu einer Diagonalmatrix , d. h. für eine reguläre -Matrix . 1 , bei dem für Id eingesetzt 5. Beim Einsetzungshomomorphismus über. wird, geht das charakteristische Polynom in die ganzrationale Funktion (Vgl. Abschnitt X. 5.5 auf Seite 115!) Damit ist der Anschluß an Kapitel IX auf Seite 81 hergestellt. Insbesondere gilt: Die Eigenwerte von sind genau die Nullstellen aus des charakteristischen Polynoms von .
4.
Beweis: Zu 1: Dies folgt aus der Leibniz-Formel für Det
Zu 3:
2. folgt aus 3.
Zu 4: Nach Definition ähnlicher Matrizen.
1 Id Det < 8 Det
Zu 5:
sgn
sgn sgn Det
' ' '
Id
XVI Eigenvektor-Theorie und Normalformen
180 1) wegen der Leibniz-Formel, 2) da ein Algebra-Homomorphismus,
3) wegen wertweiser Addition und Multiplikation von Funktionen.
Für die letzte Aussage ist nur zu beachten, daß die in gelegenen Nullstellen eines Polynoms per Definition die Nullstellen der ganzrationalen Funktion sind. 1.4
Beispiel
Durch Entwickeln nach der letzten Zeile von Polynom der Matrix
. . .
.. .. .
wie folgt lautet:
'' also Wenn wir für &&
Polynom einer Matrix auftaucht.
1.5
..
erhalten wir, daß das charakteristische
.
..
..
.
..
.
..
' 8 ! && setzen, sehen wir, daß jedes Polynom mit höchstem Koeffizient als charakteristisches ..
.
Definition und Satz von der Spur
Die Spur einer
-Matrix
' '
ist definiert durch: Spur Sp 1
Die Spur eines Endomorphismus von einer Basis definiert: Spur
1
wird über die Abbildungsmatrix Sp Sp . Dann gilt:
von
bezüglich
1. Ähnliche Matrizen haben die gleiche Spur.
2. Die Spur von hängt nicht von der Basis ab, bezüglich der die Abbildungsmatrix gebildet wird, sondern nur von .
, wobei der -te Koeffizient des charakteristischen Poly-
3. Sp noms von ist.
XVI.1 Charakteristisches Polynom 1.6
181
-Matrix
Charakteristisches Polynom einer
-Matrix und seine Nullstellen lauten also: ! Sp8 8 Sp
Das charakteristische Polynom einer
8
Sp
Die Untersuchung der Nullstellen eines Polynoms und damit die Untersuchung von Matrizen und Endomorphismen wird vereinfacht, wenn das Polynom in Faktoren von Polynomen (niedrigeren Grades) zerlegt werden kann. Diese Zerlegung ist in einem, wie sich noch herausstellen wird, wichtigen Fall möglich: Satz über eine Faktorisierung von
1.7 Sei
ein kommutativer Ring mit Eins. Sei
1
,
.
'
'5
, Nullmatrix
Dann gilt für die Determinanten und die charakteristischen Polynome:
.
Dies verallgemeinert sich leicht auf „Kästchen - Dreiecksmatrizen mit mehr als zwei diagonalen Kästchen “. Beweis:
/ /
Dies folgt aus der Leibniz-Formel. Wegen der Nullen in dem linken unteren Kästchen brauchen für . D. h., es müssen nur die wir nur die Permutationen zu betrachten mit Permutationen betrachtet werden, die die letzten Indizes untereinander vertauschen und die folglich auch die ersten Indizes untereinander vertauschen. Für eine solche Permutation setzen wir:
5 5 1 1 5 8 Das heißt: 1 für '' ' 8 1 : für ' ' ' 8 für ' und für Beachten wir
wir:
1
: 1 : 8
'
so erhalten
XVI Eigenvektor-Theorie und Normalformen
182
Daraus folgt:
XVI.2 Eigenvektorräume
XVI.2
Eigenvektorräume
Weiterhin sei End
2.1
183
und Dim( ) = ,
:'
ein beliebiger Körper.
Satz über Eigenvektoren zu verschiedenen Eigenwerten
' '
sei Eigenvektor zum Eigenwert , und die Eigenwerte Für linear unabhängig. verschieden. Dann sind
' '
1 Induktionsbeginn:
Induktionsschluß: Sei 1 #1 1 Dies in I eingesetzt liefert
Beweis durch Induktion nach :
' da .
2.2
Der Fall
seien paarweise
' '
' '
' woraus folgt
nach Induktionsannahme wegen ' da .
verschiedener Eigenwerte
Gibt es verschiedene Eigenwerte von , dann gibt es eine Basis aus Eigenvektoren, d. h. (nach IX. 1.3 auf Seite 81) ist diagonalisierbar.
Diagonalisierbarkeit und Zerfallen von
2.3 Ist
in Linearfaktoren
diagonalisierbar, dann zerfällt das charakteristische Polynom in Linearfaktoren, d. h.
, wobei die nicht paarweise verschieden zu sein brauchen. Die Umkehrung gilt jedoch nicht (s. 2. Beispiel von IX. 2.4 auf Seite 82). Mit dem Begriff eines Eigen
vektorraumes läßt sich die Bedingung für die Umkehrung formulieren.
XVI Eigenvektor-Theorie und Normalformen
184 2.4
Definition des Eigenvektorraumes
4 Eigenvektoren zum Eigenwert
Der Eigenvektorraum zum Eigenwert ist
2.5
1
Kern
Satz über die direkte Summe von Eigenvektorräumen
In Verallgemeinerung von 2.1 auf der vorherigen Seite gilt für paarweise verschiedene Eigenwerte
''
1
: a)
Dabei bedeutet b), daß jedes
und b)
eindeutig in der Form
'
bar ist (nach Definition einer direkten Summe für endlich viele Summanden).
Beweis: Zu a): Induktion nach :
: Sei 8 , dann folgt: und 8 , 8 , 8 , , da 8 Induktionsschluß: Sei und ) .
1 ' '
1
1
nach Induktionsannahme ' da
Zu b): Sei
' ' . Sei beliebig.
Induktionsbegin für
) ' (nach a)), .
2.6
Algebraische und geometrische Vielfachheit
, darstell-
XVI.2 Eigenvektorräume
185
2.6.1 Definition Sei die Ordnung der Nullstelle von
und
Dim
.
heißt die algebraische und die geometrische Vielfachheit des Eigenwertes . 2.6.2 Vergleich der beiden Vielfachheiten Die geometrische Vielfachheit ist kleiner oder gleich der algebraischen:
Beweis:
'' eine Basis von und Basis von '' ' '' eine Ergänzung zu einer .. . Det
Sei
' ' '
.
2.6.3 Satz über Diagonalisierbarkeit die paarweise verschiedenen Eigenwerte von , dann sind folgende AusSind sagen äquivalent: 1.
ist diagonalisierbar.
2. Das charakteristische Polynom von
3. Dim
4.
5.
Beweis: 1.
2.:
Dim
zerfällt in Linearfaktoren und
XVI Eigenvektor-Theorie und Normalformen
186
eine Basis, so daß
folgende Diagonalgestalt hat:
..
.
8
..
.
8
..
.
..
.
Dabei sei
1
Dim
Anzahl der , die in der Hauptdiagonalen auftreten.
'
da
allgemein gilt.
3.:
2.
Grad
Grad
Dim
wegen 2.5 auf Seite 184
Dim
Dim
3. 4.: Wenn ein Untervektorraum die Dimension des ganzen Raumes hat, stimmt er mit dem ganzen Raum überein. 4. 5.
5.: Wegen 2.5 auf Seite 184 1.:
Wir nehmen in jedem Summanden eine Basis. Diese setzen sich zu einer Basis aus Eigenvektoren von zusammen. Also ist diagonalisierbar.
XVI.3 Satz von Caley-Hamilton und Minimalpolynom
XVI.3
187
Satz von Caley-Hamilton und Minimalpolynom
Wir behandeln auch in diesem Abschnitt einen Endomorphismus torraumes über einem Körper . 3.1
eines -dimensionalen Vek-
Invariante Untervektorräume
1!
3.1.1 Definition eines invarianten Untervektorraumes Ein Untervektorraum von heißt invariant bei
3.1.2 Beispiele invarianter Untervektorräume
''
oder , orthogonal, unitär oder selbstadjun ein invarianter Untervektorraum. sind invariant bei . 2. Die Eigenvektorräume 3. Ist ein Eigenvektor von , so ist invariant. ist offenbar der kleinste invariante Untervektorraum, der enthält. 4. Sei beliebig. Dann gibt es den kleinsten invarianten Untervektorraum von , der enthält. Denn der Durchschnitt von invarianten Untervektorräumen, die enthalten, ist wieder ein invariant bei und solcher. Daher ist 3.1.3 Untersuchung des kleinsten Untervektorraumes mit Wegen der endlichen Dimension von gibt es ein kleinstes , so daß sind. Weil +' ' ' linear unabhängig sind, (' ' ' linear abhängig ist von (' ' ' linear abhängig, d. h. es gilt: &&& für geeignete (1) (' ' ' 1 ist invariant bei ; denn für gilt: 8 Beachte hierbei: wegen ( 1) ' da kleinster invarianter Untevektorraum, der enthält. mit 1 ist eine Basis von und 1.
giert,
ein Skalarprodukt, Eigenvektor von . Dann ist
XVI Eigenvektor-Theorie und Normalformen
188
hat die Matrix
bezüglich
.
. . .. .. .
.. .. .
&& (nach 1.4) (2) Durch Vergleich der Formeln ( 1 auf der vorherigen Seite) und ( 2) finden wir folgendes: Setzen wir in das charakteristische Polynom für ein und wenden den so erhaltenen Endomorphismus auf an, so erhalten wir 0: (3)
..
..
.
..
.
Es gilt aber noch viel mehr, nämlich: 3.2
Satz von Caley-Hamilton
<&&& 7 für ein, so erhalten wir den Null-Endomorphismus: <&& Id -Matrix in ihr charakteristisches PoDas Entsprechende gilt für die Einsetzung einer lynom : &&&
Setzen wir in das charakteristisches Polynom von
Bevor wir dies beweisen, erinnern wir daran, daß das Bild des Einsetzungshomomorphismus eine kommutative Algebra ist, d. h. es gilt: 3.3
Feststellung
'
und
Beweis zum Satz:
End
Ergänze (' ' '
.
gilt:
zu einer Basis von . Dann folgt: . Da
beliebig war, folgt
XVI.3 Satz von Caley-Hamilton und Minimalpolynom 3.4 Minimalpolynom 3.4.1 Beispiele Endomorphismen und Polynome mus ergeben:
189
, die bei Einsetzen von
für
den Nullendomorphis-
8 , genügt der Gleichung: 8 d. h. 8 d. h. 2. Eine Involution End , 8 Id , genügt der Gleichung: 8 Id 8 . für Id , auf einem reellen Vektorraum genügt 3. Eine komplexe Struktur End , 8 für 8 . d. h. der Gleichung: 8 Id . Fazit: Es gibt offenbar manchmal auch Polynome vom Grad Dim( ) mit
1. Ein idempotenter Endomorphismus , für .
3.4.2 Satz und Definition des Minimalpolynoms
End gibt es genau ein normiertes Polynom von minimalem Grade mit . Normiert bedeutet, daß der höchste nicht verschwindende Koeffizient gleich 1 ist. heißt das Minimalpolynom von . . 2. Es ist Grad mit sind genau die durch teilbaren. teilt insbe3. Die Polynome sondere das charakteristische Polynom von .
1. Zu
Beweis:
mit Grad Grad . Wäre , so hätten wir ein Polynom kleineren Grades als , das die Nullstelle in End hat.
3.4.3 Einige Fakten über Polynome
1. Ein Polynom Grad
heißt ein echter Teiler eines Polynoms , wenn Grad
ein Teiler von
ist mit
heißen teilerfremd : ! keine echten gemeinsamen Teiler von und . 8 3. Es gibt zu ' 8 genau einen normierten gemeinsamen Teiler von maximalem Grad; er heißt der größte gemeinsame Teiler von und 8 . Bezeichnung: 9 ' 8 , so daß der größte gemeinsame Teiler von und geEs gibt Polynome ' 0 2.
' 8
schrieben werden kann in der Form:
-$0 8
8
XVI Eigenvektor-Theorie und Normalformen
190
'
3.4.4 Berechnung des größten gemeinsamen Teilers Wir beachten, daß per Definition Grad sei. Sei Grad Grad . Dann kann der größte gemeinsame Teiler wie folgt durch Polynom-Divisionen berechnet werden. Wir setzen und führen folgende Polynom-Divisionen durch:
%1 ' 1 . 8 8 .. . - 8 .. . - 8 8
Grad 8 Grad Grad Grad Grad Grad Grad Grad 8 Grad Grad , so daß &' ' ' und
Grad Grad
Dann gibt es genau ein Dieser Verfahren heißt Euklidischer Algorithmus.
ist. Dann ist
ggT
' .
3.4.5 Beispiele
1. Für eine Drehung Id ist, gilt
Dies liegt daran, daß Denn
Id und
keine Eigenwerte hat.
* 8 8 2. Für bezüglich einer Basis ist Gilt ? Id hat die Matrix . Also ist . Die Antwort ist nein. Dann muß gelten . 3. mit hat nach dem 4. Beispiel aus IX. 2.4 auf Seite 82 das 8 und eine Basis aus Eigenvekcharakteristische Polynom , ' Eigenvektoren zum toren ' 8 ' ' Eigenvektor zum Eigenwert 8 . Eigenwert 8 . Dann wäre Id , d. h. Id , Widerspruch! . Dann wäre Id < , d. h. Id , Widerspruch!
eines zweidimensionalen euklidischen Vektorraumes, die
kann keine echten Teiler haben, weil diese dann linear wären; es würde gelten und hätte Eigenwerte.
XVI.3 Satz von Caley-Hamilton und Minimalpolynom
191
1 . Wir können ein beliebiges schreiben als - 8 8 und erhalten: Id Id Id Id 8 Id Id 8 Id Id
Dies alles zeigt, daß das Minimalpolynom ist; denn:
, wie gerade gezeigt.
ist normiert.
ist ein Teiler von
0
Jeder Teiler von Ergebnis: 3.5
.
von kleinerem Grad als annuliert
nicht. (
0 )
Kriterium für Diagonalisierbarkeit End
diagonalisierbar
!
zerfälllt in Linearfaktoren und hat nur einfache Nullstellen.
Vgl. die Beispiele 2 und 3 in 3.4.5! Der Beweis des Kriteriums beruht auf folgendem: 3.6
Lemma
% && mit paarweise teilerfremden '' 8 && Beweis: Für
Fall mit Induktion nach ): (Allgemeiner 0 0 8 Id 8 Sei Dann gilt:
0 8
0
. 8 Sei 8 8
Bemerkung: Statt
8
“: Seien
''
0
denn:
Rechte Seite von (*) ist 0.
. Sei
1
Kern
wegen Punkt 3 von 3.4.3
.
könnte hier auch beliebiges Polynom mit
Beweis des Kriteriums: „
die paarweise verschiedenen Eigenwerte von .
stehen.
.
XVI Eigenvektor-Theorie und Normalformen
192
1 8 && Ein beliebiges kann geschrieben werden in der Form: '* nach 2.6.3 ist ein Polynom mit .
ist ein Teiler von .
zerfällt in Linearfaktoren und hat nur einfache Nullstellen, weil dies für gilt.
“:
„
&& ' ''
paarweise verschieden.
Wegen des Lemmas 3.6 auf der vorherigen Seite folgt:
Kern
diagonalisierbar, da direkte Summe von Eigenvektorräumen (vgl. 2.6.3).
3.7
1!
heißt trigonalisierbar Es gibt eine Basis von auf diese Basis eine obere Dreiecksmatrix ist. 3.8
, so daß die Matrix
Kriterium über Trigonalisierbarkeit
Das charakteristische Polynom ist trigonalisierbar.
Beweis: „
“:
* . . . „ “: Induktiv nach , Beginn bei Sei &&
von
zerfällt in Linearfaktoren.
!
trivial.
.
ein Eigenvektor zum Eigenwert und '' eine Basis von && ...
Definition der Trigonalisierbarkeit
Sei
.
von
bezogen
XVI.4 Das Normalformenproblem
193
&& ' und ' $1 diejenige lineare Abbildung mit bezüglich Sei 1 8 '8 ' . zerfällt in Linearfaktoren. Per Induktionsannahme gibt es eine '' von , sodaß diesbezüglich trigonal. Dann ist trigonal bezüglich Basis ' 8 '8 ' .
8
3.9
Folgerung
Jeder Endomorphismus eines Vektorraumes
XVI.4
über
ist trigonalisierbar.
Das Normalformenproblem
Wir wenden uns nun dem Problem zu, für einen Endomorphismus eines -dimensionaflen Vektorraumes über einem Körper eine Normalform der Abbildungsmatrix zu finden. Unter Normalform verstehen wir zunächst eine möglichst einfache Gestalt der Abbildungsmatrix. Wir werden diesen Begriff präzisieren. Wir schicken eine Definition voraus. 4.1
Definition
Ein Untervektorraum
von
!
heißt zyklisch bezüglich :
(' ' '
, sodaß der kleinste enthaltende, bei invariante Untervektorraum von ist (vgl. 3.1 auf Seite 187). Mit andern Worten: Ein zyklischer Untervektorraum ist ein bei invarianter Untervektorraum, zu dem es einen Vektor und ein gibt, so daß eine Basis von ist.
Wir hatten schon gesehen, daß jedes in einem zyklischen Untervektorraum enthalten ist und daß bezüglich der genannten Basis eine einfache Form hat:
4.2
. ..
..
.
. .
.. .. .
.. .. .
..
.
Definition
!<&&
So eine Matrix heißt Begleitmatrix des Polynoms
XVI Eigenvektor-Theorie und Normalformen
194 4.3
Frage
Können wir in eine direkte Summe von zyklischen Untervektorräumen zerlegen? Dann bekämen wir eine Normalform, die aus lauter diagonalen Kästchen von Begleitmatrizen besteht. (Außerhalb der diagonalen Kästchen Nullen) Wenn wir eine direkte Summenzerlegung von suchen, können wir obiges Lemma 3.6 auf Seite 191 nochmals heranziehen. Dazu brauchen wir eine geeignete Zerlegung von in ein Produkt paarweise teilerfemder Faktoren. Da gibt es aber eine kanonische, nämlich die Zerlegung in die irreduziblen Faktoren (gleichbedeutend mit Primfaktorzerlegung). Dabei ist definiert:
4.4
4.5
Definition
heißt irreduzibel !
Grad
und
kein echter Teiler von .
Definition
Jedes normierte Polynom positiven Grades kann auf genau eine Weise als Produkt endlich vieler normierter irreduzibler Polynome dargestellt werden (Produkte, die sich nur um die Reihenfolge der Faktoren unterscheiden, werden hierbei als gleich angesehen.)
4.6
Satz
' ' 1 8 && 1. ' ' 2. ist invariant bei für 3.
Sei die Zerlegung von in die irreduziblen Faktoren, wobei gleiche Faktoren zusammengefaßt sind; sind also insbesondere paarweise teilerfremd. Sei Kern . Dann gilt:
.
4.7
Beispiel
8 8 8 8 ! ' ' 8 ' '
Für
könnte
Beachte: Über die irreduziblen.
etwa so aussehen:
sind die linearen und die quadratischen Polynome ohne reelle Nullstellen
XVI.4 Das Normalformenproblem
195
Beweis zum Satz: 1. Nach dem Lemma 3.6 auf Seite 191 .
. Wegen 3.3 auf Seite 188 folgt:
2. Sei
3. Offenbar gilt muß.
, da es ein Teiler von sein
Frage 4.3 auf der vorherigen Seite zu kommen, ist Um also zu einer positiven Antwort auf die noch zu zeigen, daß jedes mit in eine direkte Summe zyklischer Untervektorräume zerlegt werden kann. Dies geht tatsächlich, es gilt: 4.8
Satz
&' ''
Sei
'
&&
normiert und irreduzibel. Dann gibt es zyklische Untervektorräume .
mit
Dem Beweis schicken wir einige Bezeichnungen, Feststellungen und einen Hilfssatz voraus. 4.9
Bezeichnungen
'
und der kleinste -invariante Untervektorraum, der enthält. Sei heißt ein -erzeugender Vektor von und heißt auch der von -erzeugte Untervektorraum.
1
4.10
Feststellungen
C.
A. Für B.
und
!
gilt: !
ist ein Teiler von
-invariant
.
Beweis: A.
! ! Zu 1): „ “: klar. „ “: Insbesondere bildet eine Basis von nach 0 ab, also auch ganz
.
XVI Eigenvektor-Theorie und Normalformen
196 B.
Teiler von
C. Sei
4.11 Sei
ist also ein Polynom, welches annuliert. . dann ist
und
Beweis: „ “: Sei
mit ' Kern .
Hilfssatz
Dann folgt:
ist ein
Kern
wegen , d. h. für 1 gilt: wegen Kern Durch einsetzen von erhalten wir: Daraus folgt für das Minimalpolynom: 0 0 für ein 0 Hier läßt sich rauskürzen: 0 dies in einsetzen: 0
d. h.
wegen C
„ “:
Kern wegen C. und Kern Beweis zum Satz: klar. Sei . Durch Induktion nach Dim , Beginn für
a) Wahl des 1. Summanden...
' 1 ' ein ' für das
Sei 1 ' ' ' Grad Grad
Sei
und
Ist
Wegen B ist
maximal wird.
, dann sind wir fertig. Andernfalls:
Teiler von
.
ist zyklisch mit der Basis
&'' ,
XVI.4 Das Normalformenproblem
197
b) Zerlegung eines algebraischen Komplementes
9' Dim und 1
Sei
.
1
..
..
.
..
. .
Für
.. .. .
'
.
1 von
.
nach 1.7 auf Seite 181
,
.. .. .
.
, d. h.
&' '
Dabei ist das linke obere Kästchen die Matrix
sei die Parallelprojektion von auf längs . Sei Wir ergänzen durch eine Basis . Dann hat eine Matrix der Form:
in zyklische Untervektorräume
ein algebraisches Komplement zu
definiert durch zu einer Basis von
von
'
' ' .
ist die Voraussetzung des Satzes erfüllt. Induktiv folgt:
&& '
zyklisch bei ,
c) Einige technische Formeln
Denn für
; ' . ' da und daher (Induktion nach ) gilt:
(4)
Denn ist
/'
dann folgt:
(5)
(6)
XVI Eigenvektor-Theorie und Normalformen
198
Distributives Gesetz Distributives Gesetz
-erzeugender Vektor von . Dann gilt:
d) Sei
'
teilt
'
'
(wegen B)
denn:
(wegen a).
;
e) Übergang von zyklischen Untervektorräumen bezüglich
zu solchen bezüglich
XVI.4 Das Normalformenproblem
1
f)
1 1 1
"'
1) da
ist ein Teiler von
da
ist ein Teiler von
&& Grad Grad ' '' ' '' ' 1
Sei
Kern ' wegen (4) und (5) Kern nach dem Hilfssatz, angewendet auf: ' mit ' ' minus ' mit 1
denn:
da
Kern
"'
199
und
bilden eine Basis von bilden eine Basis von
-invariant
XVI Eigenvektor-Theorie und Normalformen
200
Die letzte Gleichung zeigt, daß die zusammen mit den eine Basis von bilden, in der sukzessive die durch die ausgetauscht werden können, so daß die und die zusammen eine Basis von bilden. Daraus folgt f). Zur Verdeutlichung:
4.11.1 Satz über die Normalform Es gibt eine Basis von , bezüglich der die Matrix von
folgende Normalform hat:
8
..
.
' ' '
ist Begleitmatrix einer Hierbei stehen außerhalb der Kästchen Nullen und jedes gewissen Potenz eines irreduziblen Faktors des Minimalpolynoms von .
1 1
ist zyklisch bei mit erzeugendem Vektor und
4.11.2 Hilfssatz Ist zyklisch bei mit erzeugendem Vektor und , , . Es folgt:
1 ,
, irreduzibel, dann sei
.
4.11.3 Satz über die die Feinstruktur der Normalform für den Fall Wir vertauschen die Kästchen so, daß zuerst alle Begleitmatrizen zu kommen, dann die zu , . Diese bezeichnen wir mit usw. Es gebe in der Normalform Begleitmatrizen zu , . Dem Vertauschen von Kästchen entspricht eine Vertauschung der Basisvektoren,
' '
8
XVI.4 Das Normalformenproblem
201
so daß wir bezüglich der vertauschten Basisvektoren folgende Normalform bekommen:
..
.
..
.
..
.
..
.
Zu dieser Normalform gehört eine direkte Summen-Zerlegung von
Hierbei wird über alle Daß
1
und
Grad
ist, bedeutet:
gilt: Die Für Gleichungssystems:
mit
Begleitmatrix zu
mit
(7)
..
.
:
und alle
' '
summiert.
(8)
sind die eindeutig bestimmten Lösungen des folgenden linearen
Rang
Rang
- 8 & && Grad 9 & && Grad
ausführlich:
(9)
Rang Rang Rang Rang Rang
.. .
Grad
' ' ' ' Rang
.. .
Rang Grad
(10)
XVI Eigenvektor-Theorie und Normalformen
202
4.11.4 Folgerung über die Zahl Vorbemerkung: Die Zahl ist per Definition der Exponent, mit dem im Minimalpolynom von vorkommt. Damit haben wir aber noch keine Möglichkeit, zu berechnen. Eine Berechnungmöglichkeit läßt sich jedoch leicht finden:
Rang Kern
oder & & 4.11.5 Satz zur Feinstruktur im allgemeinen Fall: ' Es gilt: mit Kern und Kern Kern Wir können die Ergebnisse des Spezialfalles auf anwenden: Statt einem irreduziblen Poly ' ' , statt einer Zahl haben wir die nom haben wir irreduzible Polynome ' Zahlen ' ' ' . Alle bekommen noch den zweiten Index ' ' und ' ' erhalten wir ein lineares Gleichungssystem, das die '
' ' für jedes
Min Min
Rang Kern
eindeutig bestimmt:
Rang ' ' ' (11) Rang ' vielmehr gilt: Rang Dim und daher Rang Rang Die Normalform ist dann eine Matrix, die sich aus diagonalen Blöcken und sonst Nullen Grad Es gilt jedoch nicht Rang Rang Rang Rang
Rang
zusammensetzt, wobei jeder Block eine Matrix wie im Spezialfall ist.
4.11.6 Satz von Frobenius über die irreduziblen Faktoren von und und haben die gleichen irreduziblen normierten Faktoren . Insbesondere haben sie die gleichen irreduziblen Faktoren vom Grade 1 und damit die gleichen Nullstellen. Sie unterscheiden sich nur durch die Vielfachheiten, mit der die irreduziblen Faktoren in der Primfaktor-Zerlegung vorkommen. Ist
&&
' '
' '
das charakteristische Polynom von , so ist die Vielfachheit , Minimalpolynom
vorkommt, bestimmt durch:
Min Min
&&
Rang Kern
Rang Kern
oder
, mit der
im
XVI.4 Das Normalformenproblem
203
4.11.7 Präzisierung des Normalformenproblems Es soll eine Liste von Matrizen aufgestellt werden, so daß jedem End eine Matrix der ist bezüglich einer geeigneten Basis Liste eindeutig zugeordnet ist, für die von . Jede Matrix der Liste heißt eine Matrix in Normalform oder kurz eine Normalform. Eine Lösung des Normalformenproblems besteht in der Aufstellung einer solchen Liste und der Angabe einer solchen eindeutigen Zuordnung.
' '
Mit den Normalformen im Sinne von 4.4.2 wird das Normalformenproblem gelöst. Wir müssen nur noch darauf achten, von jeder Menge von Matrizen, die Normalformen im Sinne von 4.4.2 sind und die sich nur um die Reihenfolge der Kästchen unterscheiden, nur eine Matrix in die Liste aufzunehmen. Dann gilt:
4.11.8 Satz über die Eindeutigkeit der Normalform Die Normalform von ist eindeutig bestimmt. 4.11.9 Satz über die Klassifikation von Endomorphismen Vorbemerkung: Ein Ziel der Aufstellung von Normalformen war ja, Endomorphismen bis auf Konjugation (mit einem Isomorphismus ) zu charakterisieren. Dieses ist durch eine solche Liste erreicht.
+'
End überein.
!
sind zueinander konjugiert
Die Normalformen von
('
und
stimmen
Erläuterung: Daß zwei Endomorphismen konjugiert sind können wir uns auch so vorstellen, daß sie den gleichen Typ haben; denn bei Wahl geeigneter Basen –im allgemeinen für eine andere als für – haben sie ja die gleiche Matrix. Der Satz sagt aus, daß der Typ eindeutig durch die Normalform bestimmt wird.
4.11.10 Satz und Definition der Normalform einer Matrix Zu gibt genau eine ähnliche Matrix in Normalform. Diese heißt Normalform von
4.11.11 Satz über Ähnlichkeit von Matrizen Vorbemerkung: Mit Satz 4.4.10 ist auch die äquivalente Frage gelöst: „Wann sind zwei Matrizen ähnlich ?“
'
sind ähnlich zueinander
!
.
-
Ihre Normalformen sind gleich.
4.11.12 Haupträume Wegen ihrer Bedeutung hat der oben aufgetretene Raum Kern Kern
einen besonderen Namen bekommen, er wird Hauptraum zu genannt. ist der Hauptraum zu nichts anderes als der verallgemeinerter Für lineares Eigenraum zum Eigenwert : 1 Kern Kern
1