Lineare Algebra

  • November 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Lineare Algebra as PDF for free.

More details

  • Words: 66,727
  • Pages: 208
Lineare Algebra Adolf Riede

I

II

Inhaltsverzeichnis I

Einleitung

1

I.1

Zur Bedeutung der Linearen Algebra . . . . . . . . . . . . . . . . . . . . . . .

1

I.2

Einige Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

II

Lineare Gleichungssysteme

6

II.1

Lösen einfacher Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

II.2

Zusammenfassung der gefundenen Einsichten . . . . . . . . . . . . . . . . . .

8

II.3

Präzisierung und Kennzeichnung der Begriffe . . . . . . . . . . . . . . . . . .

8

II.4

Eliminationsverfahren mit System . . . . . . . . . . . . . . . . . . . . . . . . 10

II.5

Hinweise auf numerische Probleme . . . . . . . . . . . . . . . . . . . . . . . . 14

III

Gruppen, Vektorräume, Körper

III.1

Von der algebraischen Struktur der Menge der -tupel reeller Zahlen . . . . . . 15

III.2

Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

III.3

Permutationsgruppen und etwas Mengenlehre . . . . . . . . . . . . . . . . . . 17

III.4

Folgerungen aus den Gruppenaxiomen . . . . . . . . . . . . . . . . . . . . . . 19

III.5

Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

III.6

Anschauliche Geometrie und geometrisch anschaulicher Vektorraum . . . . . . 22

IV

Lineare Abhängigkeit

IV.1

Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

IV.2

Erzeugendensystem, Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

IV.3

Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

IV.4

Äquivalenzrelationen und Quotientenräume . . . . . . . . . . . . . . . . . . . 36

V

Lineare Abbildungen und Matrizen

V.1

Beispiele und Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

V.2

Weitere Eigenschaften linearer Abbildungen . . . . . . . . . . . . . . . . . . . 42

V.3

Basis- und Koordinaten-Transformationen . . . . . . . . . . . . . . . . . . . . 44

V.4

Die Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . 45

V.5

Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

15

31

40

III V.6

Der Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

V.7

Die Allgemeine Lineare Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . 52

V.8

Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 54

V.9

Berechnung der inversen Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 55

VI

Metrische Größen im Anschauungsraum

VI.1

Länge, Winkel und Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . 57

VI.2

Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

VI.3

Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

VII

Determinanten

VII.1

Determinantenform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

VII.2

Das Signum einer Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . 62

VII.3

Die Frage nach Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 64

VII.4

Anwendung auf lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 64

VII.5

Determinante einer

VII.6

Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 66

VII.7

Anwendung auf den Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

VII.8

Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 68

VII.9

Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

VIII

Vektorräume mit Skalarprodukt 1

57

62

  -Matrix . . . . . . . . . . . . . . . . . . . . . . . .

65

69

VIII.2

 Das Standard-Skalarprodukt im  

VIII.3

Allgemeines Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

VIII.4

Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

VIII.5

Die orthogonale und unitäre Gruppe . . . . . . . . . . . . . . . . . . . . . . . 76

IX

Eigenvektoren und Eigenwerte

IX.1

Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

IX.2

Bestimmung von Eigenwerten und Eigenvektoren . . . . . . . . . . . . . . . . 81

IX.3

Hauptachsen selbstadjungierter Abbildungen . . . . . . . . . . . . . . . . . . . 83

VIII.1

Das Standard-Skalarprodukt im

. . . . . . . . . . . . . . . . . . . . . . . . 69 . . . . . . . . . . . . . . . . . . . . . . . . 70

81

IV IX.4

Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

IX.5

Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

IX.6

Anwendung auf Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . 97

IX.7

Die gedämpfte und die harmonische Schwingung . . . . . . . . . . . . . . . . 101

IX.8

Eigenwerte des Integraloperators . . . . . . . . . . . . . . . . . . . . . . . . . 104

X

Ringe und Algebren

X.1

Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

X.2

Die Ringe und Algebren End

X.3

Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

X.4

Beweis der Existenz einer Determinantenform . . . . . . . . . . . . . . . . . . 109

X.5

Polynomring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

XI

Bilineare und damit verwandte Formen

XI.1

Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

XI.2

Sesquilinearform und geometrische Begriffe . . . . . . . . . . . . . . . . . . . 131

XI.3

Semi-quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

XII

Vektorräume mit Skalarprodukt 2

XII.1

Bezug zu Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

XII.2

Zur Winkel- und Volumenmessung . . . . . . . . . . . . . . . . . . . . . . . . 142

XII.3

Beziehungen zwischen Vektorräumen über

XII.4

Normalform unitärer und orthogonaler Abbildungen . . . . . . . . . . . . . . . 149

XII.5

Hauptachsen semi-symmetrischer Sesquilinearformen . . . . . . . . . . . . . . 151

XII.6

Ausblick auf physikalische Anwendungen . . . . . . . . . . . . . . . . . . . . 153

XIII

Grundbegriffe der affinen Geometrie

XIII.1

Analytische versus Synthetische Geometrie . . . . . . . . . . . . . . . . . . . 155

XIII.2

Affiner Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

XIII.3

Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

XIII.4

Parallelität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

XIII.5

Affine Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

106 



und 



. . . . . . . . . . . . . . . . . . . . 107



118



141

und



. . . . . . . . . . . . . . . 145

155

V XIV

Aspekte der euklidischen Geometrie

166

XIV.1

Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

XIV.2

Kurven zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

XIV.3

Flächen zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

XV

Der Minkowski-Raum

XV.1

Modell der räumlich-zeitlichen Welt . . . . . . . . . . . . . . . . . . . . . . . 174

XV.2

Lorentztransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

XVI

Eigenvektor-Theorie und Normalformen

XVI.1

Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

XVI.2

Eigenvektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

XVI.3

Satz von Caley-Hamilton und Minimalpolynom . . . . . . . . . . . . . . . . . 187

XVI.4

Das Normalformenproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

174

178

I.2 Einige Anwendungsbeispiele

1

I Einleitung I.1

Zur Bedeutung der Linearen Algebra

1. Für viele Probleme lassen sich lineare mathematische Modelle aufstellen. 2. Lineare mathematische Modelle lassen sich relativ einfach berechnen. 3. Nicht lineare mathematische Modelle lassen sich durch lineare Modelle approximieren, so daß die Lösung der linearen Approximierung eine Näherungslösung an das nicht lineare Modell liefert. Z. B. ist die Tangente an eine Kurve eine lineare Näherung an die Kurve in der Nähe des Berührpunktes.

I.2

Einige Anwendungsbeispiele

2.1

Vertikale Schwingung einer Feder (Stoßdämpfer)

  Schwerkraft  =   Masse,  Erdbeschleunigung Rückstellkraft  =    Federkonstante Dämpfungskraft  =   Reibungskonstante  =   Gesamtkraft  =  Newtongesetz:   !"##$%&(' )'*+',-', positive Konstante  Dies ist eine sogenannte lineare Gleichung, die eine Beziehung zwischen .'/ und

Bei Fehlen jeglicher Kräfte hat die Feder eine Ruhelage. Wir bezeichnen mit die Auslenkung aus Ruhelage (nach unten), mit die Geschwindigkeit, mit die Beschleunigung.

festen Zeitpunkt modelliert.

.', und  Funktionen von 0 . 0  ' 1 32!1 !4 4 0 ' 576!1 494 8 0  6  2 :;$<

Weiteres Problem: Zeitliche Änderung beschreiben

0

Bezeichne die Zeit, dann sind

1

A. Riede: Lineare Algebra 1, WS 99/00

zu einem

I Einleitung

2

Dies ist eine sogenannte lineare Differentialgleichung mit konstanten Koeffizienten, die Differentialgleichung der gedämpften Schwingung. Für die systematische Bestimmung der Lösungsfunktionen einer linearen Differentialgleichung liefert die Lineare Algebra die wesentlichen Hilfmittel.

2.2

Gleichstromschaltkreise

Auf einer Verbindung zwischen zwei Knoten (Stromverzweigungen) fließt ein Strom der Stärke . Die Verbindung wird willkürlich mit einer Richtung versehen. Stimmt die physikalische Stromrichtung mit der Verbindungsrichtung überein, so ist mit dem positiven, andernfalls negativen Vorzeichen zu versehen. Die Ströme werden aus den Kirchhoffschen Gesetzen bestimmt, wenn die Batteriespannungen und die Stärken der Ohmschen Widerstände bekannt sind.



1. Kirchhoffsches Gesetz: Die Summe der Ströme in jedem Knoten ist null; dabei geht ein auf den Knoten zufließender Strom mit dem Faktor +1, ein wegfließender mit dem Faktor -1 ein. 2. Kirchhoffsches Gesetz: Die Summe der Spannungsabfälle in jeder Schleife ist null. Eine Schleife ist eine geschlossene Verbindung mit festgelegtem Durchlaufungssinn.









Für den Spannungsabfall an einem Widerstand wird das Ohmsche Gesetz angesetzt. Wir erhalten lineare Gleichungen für die unbekannten Ströme. Deshalb wird eine elektrische Schaltung mit nur Ohmschen Widerständen auch ein linearer Schaltkreis genannt. Die Batteriespannungen und die Stärken der Ohmschen Widerstände gehen als Konstante in die Gleichungen ein. Wir erhalten an dem (hier nicht wiedergegebenen) Beispiel für 3 Knoten und 3 Schleifen 6 Gleichungen für die 6 Ströme, die die Ströme bestimmen „sollten“. Jedoch lassen sich durch Betrachtung eines weiteren Knotens oder durch die Betrachtung weiterer Schleifen weitere Gleichungen gewinnen. Aus physikalischen Gründen kann jedoch der Schaltkreis nicht „überbestimmt“ sein, erfahrunggemäß stellen sich ganz bestimmte Ströme in den Knoten-Verbindungen ein. Die weiteren Gleichungen müssen also wohl Konsequenzen aus den anderen sein.

2.3

Leontief-Modell eines Wirtschaftsbereiches

2.3.1 Problemstellung Es soll ein mathematisches Modell für einen Wirtschaftsbereich aufgestellt werden, in welchem der Bedarf und die Produktion der einzelnen Fabriken, der Bedarf der Konsumenten und der Exportbedarf in einen Zusammenhang gebracht werden. Das Modell ist nach dem Nobelpreisträger von 1973 für Ökonomie, Wassily Leontief benannt. 2.3.2 Zielfrage

Welches sind die Bedingungen dafür, daß die Produktion den Bedarf deckt ?

I.2 Einige Anwendungsbeispiele

3

2.3.3 Aufstellung quantitativer Größen für das Modell Anzahl der Betriebe: 1. Annahme: Der Einfachheit halber nehmen wir zunächst an, daß es Y, Z gibt.



Fabriken X,

Anzahl der verschiedenen Waren, die jede Fabrik herstellt. 2. Annahme: Wir nehmen an, daß jede Fabrik nur eine einzige Ware herstellt, sagen wir, die Fabrik X die Ware A, die Fabrik Y die Ware B, die Fabrik Z die Ware C. Jahresproduktion

.'+'

Sei die Jahresproduktion der Ware A, B, C durch die Fabrik X, Y, Z, gemessen in einer dem Produkt angemessenen Einheit, z. B. Kohle in Tonnen, Strom in kWh. Außerindustrieller Bedarf pro Jahr







Konsumbedarf und Exportbedarf an der Ware A, B, C fassen wir zum außerindustriellen Bedarf bzw. bzw. zusammen. Industrieller Bedarf Zur Herstellung einer Einheit benötigt X benötigt Y benötigt Z von A Einheiten Einheiten Einheiten von B Einheiten Einheiten Einheiten von C Einheiten Einheiten Einheiten

4 













Eine diesem spezifischen Bedarf entsprechende Tabelle für den Jahresbedarf läßt sich in ähnlicher Weise aufstellen. Wir benötigen jedoch die entsprechenden Bezeichnungen für die Jahresgrößen nicht und gehen gleich über zum nächsten Punkt der Modellbildung.

2.3.4 Aufstellung von Beziehungen zwischen diesen Größen Jahresbedarf: Pro Jahr benötigt X Y Z von A von B von C

4  +

Industrieller Jahresbedarf

   4 ;      ;       +;  

Außerindustrieller Jahresbedarf

 

4 ;$  ;    +      Gesamtbedarf

I Einleitung

4 2.3.5 Antwort auf die Zielfrage Bedarfsdeckung:

Der Bedarf wird dann genau gedeckt, wenn die Produktion gleich dem Gesamtbedarf ist. Für die drei Produkte ergeben sich drei lineare Gleichungen:

 

4 $      ;    +     

(1)

Daß das Datenmaterial in Tabellenform angegeben werden kann, zeigt daß es eine gewisse Struktur hat. Wir können diese Struktur dazu benutzen systematischere Bezeichnungen einzuführen. Was wir mit den Buchstaben etc. bezeichnet haben, brauchen wir dann nicht mehr oben nachsehen, sondern ergibt sich aus der Systematik:

 ''



 für  ' '  bezeichne die Jahresproduktion der -ten Fabrik, also:  51 .' 8 1 +' 1  . außerindustrielle Bedarf an der Ware der -ten Fabrik, also:  5sei1 der   ' 8 1  '  1  .   sei der spezifische Bedarf der  -ten Fabrik an der Ware der -ten Fabrik. (Spezifisch heißt, um eine Einheit der Ware der  -ten Fabrik herzustellen). Es ist also:   1 4 '   8 1 +'  1  '  8 1  usw. Dann lauten die drei linearen Gleichungen:     -   8 8  *   (2) 8  8 -- 8 8 8 8   **  8 8 8 Wir bringen diese Gleichungen noch in eine Standardform durch Zusammenfassen der Terme mit gleicher Unbekannten:

 $    3   8 8       8    $  8 8 8    8    3  8 8  $   

   8

(3)

Ein Hauptteil der Linearen Algebra besteht im Rechnen mit solchen einfach und doppelt indizierten Größen. Eine Tabelle doppelt indizierter Größen heißt eine Matrix. Um ein Modell für alle denkbaren Wirtschaftsysteme aufzustellen, müssen wir die Anzahl der Betriebe variabel halten. Für die Wirtschaft eines Staates ist sehr groß. Wir schreiben sie für beliebiges in einer in der Mathematik üblichen Weise wie folgt an:

      3   8 8  & &        8   .  $  8 8 8  & &  8  ..    3   8 8  &&           $      



  8 

(4)

I.2 Einige Anwendungsbeispiele

5

2.3.6 Anzahl der Unbekannten in der Praxis Mit diesem Beispiel sehen wir, daß für Probleme aus der realen Welt lineare Gleichungssysteme mit Unbekannten auftreten können und sehr groß werden kann. Dieses kann als eine Dimension interpretiert werden. Reale Probleme erfordern also die Betrachtung des -dimensionalen Falles. Es genügt nicht, sich auf den 1, 2 oder 3-dimensionalen Fall zu beschränken. Der niedrigdimensionale Fall wird aber zum Ideen finden und zur Veranschaulichung herangezogen. Auch der -dimensionale Fall wird durch die Beschäftigung mit ihm mit der Zeit immer vertrauter.

II Lineare Gleichungssysteme

6

II Lineare Gleichungssysteme II.1

Lösen einfacher Beispiele

    



in die erste Gleichung einsetzen:

1. Beispiel

           





 

'  



 



  1 

.'  

Damit ist folgendes gezeigt: Wenn das Zahlenpaar eine Lösung ist, so gilt ; d. h. insbesondere, daß es höchstens eine Lösung gibt. Unsere Umformungen zeigen also die Eindeutigkeit der Lösung.

' 



Daß tatsächlich eine Lösung ist, erweist sich dadurch, daß wir in das Gleichungssystem einsetzen. Dadurch ist die Existenz einer Lösung bewiesen.



2. Beispiel

        :    





Hier ist die letzte Gleichung das negative der ersten, also automatisch erfüllt, wenn die erste erfüllt ist. Subtraktion und Addition der ersten zwei Gleichungen liefert:

    







 



2



 

A. Riede:Lineare Algebra 1, WS 99/00





   1

II.2 Zusammenfassung der gefundenen Einsichten

7

  ' '  



Ein Lösungstripel muß also von der Form sein. Durch Einsetzen in das Ausgangssystem stellen wir fest, daß jedes Tripel dieser Form (also für eine beliebige Zahl ) eine Lösung ist.



Wir sagen dafür: Die Lösungen bilden eine einparametrige Schar mit als Parameter. 3. Beispiel

1

1

1

           





Wir behalten die erste Gleichung bei, subtrahieren von der zweiten die erste und subtrahieren von der dritten ebenfalls die erste.





1     " 1       " 1      







Wir behalten die erste und zweite Gleichung bei, addieren zu der dritten das zweifache der zweiten.



 

+1     +1         (1    



  





Dieses System hat keine Lösung, da die dritte Gleichung keine Lösung hat. 4. Beispiel

1

1

1



             







 #1 #1     #1    





  '   '

  An diesem vereinfachten System lesen wir ab, daß eine Lösung des umgeformten Systems ist. Die zweite Gleichung des Ausgangssystems ist jedoch für diese Zahlenwerte nicht erfüllt. Bei dieser Art von Umformungen, die wir durchgeführt haben, ist klar, daß eine Lösung des Ausgangssystems auch eine Lösung des umgeformten Systems ist. Dann kann das Ausgangssystem nicht durch solche Umformungen aus dem umgeformten System zurück  gewonnen werden; sonst müßte auch eine Lösung des Ausgangsystems sein. Die obigen Umformungen können also nicht umkehrbar sein.

 ' 

  ' 



II Lineare Gleichungssysteme

8

II.2

Zusammenfassung der gefundenen Einsichten

1. Manche lineare Gleichungssysteme sind eindeutig lösbar, oder mit anderen Worten, es gibt eine Lösung, und diese ist durch das Gleichungssystem eindeutig bestimmt. 2. Manche lineare Gleichungssysteme, auch solche mit z. B. 3 Gleichungen und 3 Unbekannten haben mehrere Lösungen, nämlich eine einparametrige Schar. 3. Manche haben gar keine Lösungen, auch wenn nicht mehr Gleichungen als die Zahl der Unbekannten zu erfüllen sind. 4. Die prinzipielle Idee zur Lösung eines linearen Gleichungssystems ist, ein lineares Gleichungssystems in ein einfacheres umzuformen, aus dem die Lösungen leicht ablesbar sind. Dann sollten die Umformungen umkehrbar sein, damit die Lösungen des umgeformten Systems auch die Lösungen des Ausgangsystems sind.

II.3

Präzisierung und Kennzeichnung der Begriffe

Wir schreiben eine lineare Gleichung mit (LG)

Unbekannten meist in der Standardform:

  - 8 8 < &&&    ,

  ' 8 ' '   ' 



bei der die Summanden, die die Unbekannten enthalten, links und das konstante Glied rechts stehen. ist eine feste natürliche Zahl. Die festen Zahlen heißen die Koeffizi enten der linearen Gleichung. Bei Zahlen denken wir an reelle Zahlen, wenn gleich auch andere Zahlenbereiche in Frage kommen, die später besprochen werden. Die Symbole  heißen die Unbekannten, sie werden auch Unbestimmte genannt. Das konstante Glied heißt auch der inhomogene Koeffizient oder der inhomogene Bestandteil. Eine lineare Gleichung heißt homogen, falls ist. Ein System von ( eine natürliche Zahl) linearen Gleichungen schreiben wir in der Form



 

(LGS)



 

       8 8  & &       8   .   8 8 8  & &   8   ..        8 8  &&      

Unter Verwendung des Summenzeichens:

  8



' 8'  ' 



<  '  ' ' ' 

   Der erste Index von   und der Index von  beziehen sich also auf die -te Gleichung. Der 

  

zweite Index ist der Summationsindex.

II.4 Eliminationsverfahren mit System

9

    $   

      . Eine Lösung besteht aus Zahlenwerten für die Symbole  ' 8 ' ' , sodaß beim Ein setzen dieser Zahlenwerte in das Gleichungssystem  (gültige) Gleichungen zwischen Zahlen entstehen. Dabei kommt es offenbar auf die Reihenfolge der Zahlenwerte an. Zahlenwerte   '  8 '#' '  in einer bestimmten Reihenfolge heißen ein -tupel von Zahlen. Ein  -tupel von Zahlen wird mit   ': 8 '' '   bezeichnet, also durch runde Klammern. Ana log: Ein -tupel von Unbekannten  '5 8 ' '5  . Zwei -tupel sind gleich, wenn das -te  Element des einen -tupels gleich dem -ten Element des anderen -tupels ist für alle ; z. B.  '5 8 '  '   1   ' 8 ' ' '    bedeutet: Es wird  1   ' ':  1   gesetzt. Spezialfälle: ;1   '  8  2-tupel = (geordnetes) Paar 1   '  8 '    3-tupel = (geordnetes) Tripel Ein lineares Gleichungssystem ist eindeutig gekennzeichnet durch die Tabelle  der Koeffizien ten und durch die inhomogene Spalte : Z. B. ist beim Leontief-Modell











  8 & &  8 8 & &   8 &&

     .. 8 .   

und für

   8

  



 

So eine Tabelle wird in der Mathematik eine Matrix mit eine -Matrix.  ist also die Koeffizienten-Matrix. Die

      -Matrix

51

  

     .. 8 .   

  8 & &  8 8 & &   8 &&



5



   8

  

  .. 8 .   

Zeilen und

  8 



Spalten genannt, kurz



heißt erweiterte Matrix des linearen Gleichungssystems.

  '   8 '*&&-'    '    





Den Umformungen des linearen Gleichungssystems entsprechen Umformungen der erweiterten Matrix; z. B. der Multiplikation der -ten Gleichung mit einer Zahl die Multiplikation der -ten Zeile mit . Wir sparen viel Schreibarbeit, wenn wir statt des Gleichungssystems nur noch  hinschreiben!

II Lineare Gleichungssysteme

10

II.4 4.1

Eliminationsverfahren mit System



Definition elementarer Umformungen





Mit bezeichnen wir die -te Zeile von   , mit  die -te Spalte von  . Eine elementare ZeilenTransformation (einer Matrix) ist eine Transformation eines der folgenden Typen, wobei wir eine Zeile der umgeformten Matrix mit einem Strich versehen:







   '  ZII. Addition eines Vielfachen  einer (etwa der -ten) Zeile zu einer anderen Zeile (etwa der  -ten).      '   Symbolisch: 

ZIII. Vertauschen zweier Zeilen, etwa der -ten und der  -ten. Symbolisch:    '    oder     .

ZI. Ersetzen einer (etwa der -ten) Zeile durch ihr -faches, für eine Zahl Symbolisch:

Dabei bleiben jeweils die übrigen Zeilen ungeändert. Beachte: Zeilenumformungen von 



und Gleichungsumformungen entsprechen einander !

Analog können auch Spaltenumformungen definiert werden. 4.2

Umkehrbarkeit elementarer Umformungen

Elementare Umformungen sind durch elementare Umformungen umkehrbar und ändern folglich die Lösungsmenge nicht.

        Zu ZII: 

    Zu ZIII: Nochmals   und  vertauschen macht die Vertauschung rückgängig.

Denn:

Zu ZI:

4.3

Die Auswirkung einer Spaltenvertauschung





Der Übersichtlichkeit halber verwenden wir auch eine elementare Spaltenumformung, nämlich die Vertauschung zweier Spalten der Koeffizientenmatrix, sagen wir der -ten und der -ten.



Symbolisch:  





Wohlgemerkt, nur Spalten der Koeffizientenmatrix werden vertauscht; auf keinen Fall wird die inhomogene Spalte mit einer Spalte der Koeffizientenmatrix vertauscht.

II.4 Eliminationsverfahren mit System

11





Dabei ändert sich die Lösungsmenge, jedoch in kontrollierter Weise und zwar so, daß die -te und die -te Unbekannte vertauscht werden. Sind die Lösungen des transformierten Systems gefunden, erhalten wir die Lösungen des Ausgangssystems, indem wir alle Variablenvertauschungen in umgekehrter Reihenfolge rückgängig machen. 4.4 Gauß-Verfahren 4.4.1 Erster Eliminationsschritt 1. Unbekannte eliminiert. Genauer:

Aus allen Gleichungen bis auf die 1. Gleichung wird die

1. Sind alle Koeffizienten null, haben wir bereits eine einfache Gestalt und formen nicht weiter um. 2. Besteht die erste Spalte nur aus Nullen, so vertauschen wir die erste Spalte mit einer Spalte von  (nicht mit der inhomogenen Spalte), die nicht aus lauter Nullen besteht. 3. Durch eine Zeilenvertauschung erreichen wir, daß der (1,1)-Koeffizient (der Koeffizient in der 1. Zeile und 1. Spalte) ungleich null ist. 4. Wir führen nacheinander die folgenden elementaren Umformungen durch:  insbesondere:   insbesondere: 

 8  8  8 .  ' 8 %1  8        * .  ' % 1     

 8   8 - 8       8 .     -         .

    

.. .

        '  51        insb.:      *         *

 

           

Dies wird Ausräumen der ersten Spalte unterhalb des (1,1)-Koeffizienten genannt; denn dort stehen nach diesen Umformungen Nullen, d. h. die erste Unbekannte kommt in der 2. bis -ten Gleichung nicht mehr vor.



4.4.2 Zweiter Eliminationsschritt Jetzt überlegen wir uns, welche der dem 1. Schritt entsprechenden elementaren Umformungen nötig sind, um in der Teilmatrix

  

 88  .. 8 .   8

 8   8       

 8  & &    & &    &&





die Koeffizienten unterhalb des (2,2)-Koeffizienten auszuräumen. Wir führen die dazu nötigen Umformungen jedoch mit der ganzen Matrix   durch. Da die erste Spalte schon ausgeräumt war und wir nur Spalten und Zeilen von Index umformen, ändert sich dabei nichts an den Nullen unterhalb des (1,1)-Koeffizienten.



II Lineare Gleichungssysteme

12

4.4.3 Die weiteren Schritte In entsprechender Weise können wir so lange fortfahren, bis die dann zu betrachtende, nicht erweiterte Untermatrix nur aus Nullen besteht oder keine Untermatrix mehr übrig bleibt, weil wir in der letzten Zeile oder Spalte von  schon angekommen waren. Damit haben wir folgendes Ergebnis bekommen. 4.4.4 Satz über die Gauß-Elimination Durch elementare Umformungen vom Typ ZI, ZII, ZIII und SIII kann die erweiterte Matrix eines linearen Gleichungssystems in eine sogenannte Stufenmatrix umgeformt werden, d. h. in eine Matrix der Form



  8 &. &   . 8 8 ...  .. . . . .  ...  . . &&  .. .. &&   für  ' ' ' und Dabei ist 

    .  & & .. .. .. . . &&    && . . && .. .. && Min '  

   .

















 .   .



   . .  .. ..  





.. .. .

.. .. .









Diese Transformation heißt Gauß-Elimination.





/ ' '  5  '   ''  1 Beweis: Die -te Gleichung lautet für

,- 8 <&&&  1. Gibt es eine Lösung   '  8 ' '   , so erhalten wir für

5  '   ''  durch  Einsetzen die Zahlengleichung,      8  &&     ' die nur bestehen kann, wenn ist.  2. Ist umgekehrt für alle   ' '  , so sind die letzten 7  Gleichungen

4.4.5 Satz über die rekursive Auflösung bei Stufenform Das lineare Gleichungssystem (LGS) ist dann und nur dann lösbar, wenn alle inhomogenen Bestandteile  sind für   . Alle Lösungen finden wir durch rekursive Auflösung wie unten im 2. Teil des Beweises geschildert wird. 



















die „Nullgleichungen“, also immer erfüllt. Es bleiben die ersten  Gleichungen und diese sind äquivalent mit:



 









  



.. .











8









8



 

































  



 

















II.5 Hinweise auf numerische Probleme

13



Hierbei sind die Unbekannten mit bezeichnet, weil sie mit den ursprünglichen nur noch bis auf Vertauschungen übereinstimmen.

  ' '  

 



Setzen wir auf den rechten Seiten    mit beliebigen Zahlen   , so stehen auf der rechten Seite der  -ten Gleichung keine Unbestimmten mehr und es läßt sich aus der  -ten Gleichung eindeutig berechnen:

  ' '          3   &  &            Indem wir den für  berechneten Wert in die   -te Gleichung einsetzen, können wir  mit der   -ten Gleichung analog verfahren. So fahren wir fort mit der    -ten Gleichung bis zur 1. Gleichung. Dabei berechnen wir also die  ''   rekursiv d. h. nacheinander, mit anderen Worten, wir lösen die Gleichungen von unten nach oben auf. Wir erhalten eine   -parametrige Schar von Lösungen mit   beliebigen Parametern   ' '   . 



















4.5

Gauß-Jordan-Verfahren

 ' '



   

 

Bei diesem Verfahren wird die Stufenmatrix noch weiter umgeformt. Zunächst multiplizieren wir die -te Zeile für   mit  und erreichen, daß an Stelle von  eine 1 steht. Anschließend räumen wir die 2. bis  -te Spalte auch oberhalb der Einsen mit Hilfe von Zeilenoperationen vom Typ ZII aus. Wir erhalten eine Matrix der Form

 

 &&   . .  .. . . ... .... .. .. . . . . ...   . . && . . .. .. .. .. &&





   







 & & &&  && && &&

 .   .



   . .  .. ..  



.. .. .



.. .. .





Diese Transformation heißt Gauß-Jordan-Verfahren. Dafür, daß beim Gauß-Jordan-Verfahren mehr elementare Transformationen durchgeführt werden müssen, ist dann die rekursive Auflösung wesentlich einfacher. Im wichtigen Spezialfall von Gleichungen und Unbekannten und  erhalten wir als erweiterte Matrix und als eindeutig bestimmte Lösung:







 &&   . .. . . .. . . ... .... .. .. . . ..   && 











  .8 .



.







 =





  ..8 . 





II Lineare Gleichungssysteme

14

II.5 5.1

Hinweise auf numerische Probleme Auswirkung von Datenfehlern





In praktischen Beispielen stammmen oft die Koeffizienten  und aus Messungen und sind daher mit einem Meßfehler behaftet. Ein relativ kleiner Fehler in den Meßdaten kann bei manchen Koeffizientenmatrizen  einen relativ großen Fehler bei den Lösungen eines linearen Gleichungssystems verursachen. Matrizen, bei denen dies nicht auftritt, heißen gut konditioniert. Tatsächlich kann die Kondition einer Matrix quantitativ erfaßt werden, wie uns die Numerische Mathematik lehrt. Mit den Kenntnissen von Linearer Algebra 1 kann dies z. B. nachgelesen werden bei Stoer: (4.4.12) S. 204 und (4.4.15) S. 205. 5.2

Auswirkung von Rundungsfehlern

Wenn wir bei jedem Eliminationsschritt gegebenenfalls Zeilen und Spalten vertauschen, haben wir die Wahl, mit welcher Zeile bzw. Spalte wir die erste Zeile bzw. Spalte vertauschen wollen. Dreh- und Angelpunkt (engl. pivot) der Eliminationsverfahren sind die Koeffizienten, die wir durch Zeilen- bzw. Spaltenvertauschungen in die obere linke Ecke der Teilmatrix bringen. Diese Koeffizienten heißen Pivotelemente oder kurz Pivots. Sie spielen eine Rolle, wenn Rundungsfehler klein gehalten werden sollen. Dies gelingt häufig dadurch, daß ein betragsmäßig größtes Element in der betreffenden Zeile bzw. Spalte als Pivot gewählt wird (Stoer 4.5, S. 208). Unter Zeilenpivotierung verstehen wir dabei, daß die Pivots nur zeilenweise gesucht werden, bei Totalpivotisierung werden sie in der ganzen in Frage kommenden Teilmatrix betragsmäßig möglichst groß gesucht. Wird immer –so weit möglich– weder eine Zeilen- noch eine Spaltenvertauschung durchgeführt, d. h. mit anderen Worten, wird stets das schon in der linken oberen Ecke stehende Element als Pivot genommen, so sagen wir, daß wir ohne Pivotisierung arbeiten. Wenig Probleme entstehen in diesem Zusammenhang, wenn die Matrix equilibriert ist oder in einer bestimmten Weise in eine equilibrierte Matrix umgeformt werden kann. Dabei bedeutet equilibriert, daß die Summe der Beträge der Elemente für jede Zeile und jede Spalte der Größenordnung nach etwa gleich sind (Stoer S. 208ff).

III.1 Von der algebraischen Struktur der Menge der -tupel reeller Zahlen

15

III Gruppen, Vektorräume, Körper

III.1

Von der algebraischen Struktur der Menge der -tupel reeller Zahlen

In Kapitel II haben wir intuitiv Gleichungen addiert. Die Erklärung der Addition von linearen Gleichungen und der Multiplikation einer linearen Gleichung mit einer reellen Zahl lautet folgendermaßen: 1.1

Definition

Lineare Gleichungen werden addiert, indem die entsprechenden Koeffizienten und die inhomogenen Bestandteile addiert werden. Eine lineare Gleichung wird mit einer reellen Zahl multipliziert, indem jeder Koeffizient und auch der inhomogene Bestandteil mit der Zahl multipliziert werden. Im folgenden haben wir diese Operationen mit linearen Gleichungen übertragen auf Operationen mit den Zeilen der erweiterten Matrix  . Dies führt auf folgenden Begriff von Operationen mit -tupeln reeller Zahlen. Im folgenden meinen wir mit einem -tupel stets ein -tupel reeller Zahlen und mit Zahl eine reelle Zahl. 1.2

Definition



Die Summe von zwei -tupeln und ist definiert durch: Die Multplikation eines -tupels mit einer Zahl ist definiert durch:



1.3

    

= = := = :=

 ' 8 ' '      '  8 ' '   -  ' 8  8 ' '      ' '  ' # 8 '   8 ' '    

Eigenschaften

  ' '   

.'  

Durch die Addition von -tupeln ist einem Paar von -tupeln ein eindeutig bestimmtes -tupel zugeordnet, das wir mit mit 

 ' '   ,     ''    und  ;    

1. Sind  Assoziatives Gesetz: 3

A. Riede: Lineare Algebra 1, WS 99/00

  ' '   

 ' '   und   bezeichnen . -tupel, so gilt das

III Gruppen, Vektorräume, Körper

16

' 

'

2. Es existiert ein neutrales -tupel, d. h. ein mit  . ist für alle -tupel , nämlich

bezeichnetes -tupel, so daß



 '  '   ein entgegengesetztes -tupel, d. h. ein mit :  : ist, nämlich  :  ' '   .   für alle -tupel und  . 4. Kommutatives Gesetz: ; 5. Assoziatives Gesetz der Multiplikation mit Zahlen: Für beliebiges -tupel und beliebige '  gilt: Zahlen -           6. Distributive Gesetze: #    #        #;  '. für beliebige -tupel .'  und beliebige Zahlen -  7.  für alle -tupel , wobei 1 die reelle Zahl 1 ist. 3. Es gibt zu jedem -tupel bezeichnetes -tupel, so daß

III.2 2.1

Gruppen Definition

+' '

+' 

 und eine Zuordnung, die jedem Paar Gegeben sei eine Menge  von Elementen von Elementen von  eindeutig ein weiteres Element von  zuordnet, das mit  bezeichnet werde. Eine solche Zuordnung wird eine Verknüpfung genannt.

+'



Eine Gruppe ist eine Menge  mit einer Verknüpfung, die folgende Eigenschaften hat:

        für alle +' '

 2. Existenz eines neutralen Elementes, d. h. eines Elementes    mit der Eigenschaft    für alle   .  3. Existenz eines entgegengesetzten Elementes zu jedem Element   , d. h. eines mit  bezeichneten Elementes, so daß

 /    ist. Diese drei Eigenschaften sind die Grundeigenschaften von Gruppen, die Gruppenaxiome. Eine Gruppe ist also ein Paar  '   , bestehend aus einer Menge  und einer Verknüpfung  , so daß 1. Assoziativität:

die Gruppenaxiome gelten. In der Bezeichnung wird oft die Verknüpfung nicht erwähnt und eine Gruppe einfach mit  bezeichnet, also dem selben Symbol wie die Menge  ! Gilt zusätzlich:

 /

1. Kommutativität: 

für alle

+'   '

so heißt die Gruppe kommutativ, additiv oder abelsch.

III.3 Permutationsgruppen und etwas Mengenlehre 2.2

17

Beispiele

'   '  '  '  '   sind abelsche Gruppen.  '  '  ' 



sind keine Gruppen ! Die Menge der -tupel mit der in 1.2 auf Seite 15 definierten Addition von -tupeln ist eine abelsche Gruppe.



III.3 3.1

Permutationsgruppen und etwas Mengenlehre Mengen

Der Begriff der Menge4 wird nicht weiter erklärt sondern als ein Grundbegriff genommen, der eine Gesamtheit von Dingen bezeichnet, die man die Elemente der Menge nennt. Ist ein Element einer Menge , so schreiben wir dafür:  .



 Das kartesische Produkt zweier Mengen  ' ist die Menge:    1 )'    '  , und von endlich vielen Mengen   ' 8 ' '  :     8   &&      1    '  8 ''         '  ' ' '    1   &&  -mal der Faktor  , 

z.B.

3.2

1     &&  



-mal der Faktor .

Abbildungen





Auch der Begriff Abbildung einer Menge nach einer Menge wird als ein nicht weiter zu erklärender Grundbegriff genommen und als eine Zuordnung verstanden, die jedem Element eindeutig ein Element zuordnet. bedeutet „ ist eine Abbildung von nach “. Ist und so bedeutet , daß in abbildet, anders ausgedrückt , daß das Bild oder der Wert von bei der Abbildung ist, oder, daß die Anwendung von auf das ergibt.

  

       

)1   51   





 1     bei definiert

Beispiel: Eine Verknüpfung auf einer Menge  ist nichts anderes als eine Abbildung  . Für eine Teilmenge  von durch

 , 

wird das Bild oder die Bildmenge von



  1             Urbild oder Urbildmenge von  bei . Ist  , so heißt    1 1    heißt oder eine Abbildung auf  1"! Zu jedem # gibt es ein  surjektiv    mit  . ([französisch] sur = auf !) Oder äquivalent:    besteht aus mindestens einem Element für alle  . 4

Mehr Details s. Rolf Walter, Anhang, S. 254ff.

III Gruppen, Vektorräume, Körper

18

1     heißt injektiv 1 !         oder äquivalent:   besteht aus höchstens einem Element für alle  . 1     heißt bijektiv 1 ! ist injektiv und surjektiv oder äquivalent:   besteht aus genau einem Element für alle  .   Ist bijektiv, dann ist durch die Festsetzung, daß jedem  das einzige Element  zugeordnet wird, eine Abbildung definiert; sie heißt die Umkehrabbildung von und wird mit   bezeichnet. Eine bijektive Selbstabbildung einer Menge, $1    , heißt eine Permutation von  oder   eine Vertauschung der Elemente von  . Eine Permutation  der Menge ' '  bezeichnen wir mit einer Werte-Tabelle:              Die Identität oder identische Selbstabbildung von  , Id Id  1    , ist diejenige, die jedem   als Wert wieder das  zuordnet. Sind  ' '  Mengen und Abbildungen 1    und 1    gegeben, so wird die Komposition (Hintereinanderausführung)

 1   von und  durch     1     definiert. Abb  '  bezeichne die Menge aller Abbildungen von  nach  . Der Kringel stellt eine Abbildung dar:



1 Abb  '  

Abb

<'  

Abb

 '  ' 1  '  3

Es gilt:

   *  für jede weitere Menge  2. Id  3.   Id    Id  für bijektives . 4. 

1.

und jede weitere Abbildung

1  

Aus diesen Punkten folgt: 3.3

Satz

Die Menge der Permutationen einer Menge zusammen mit der Hintereinanderausführung als Verknüpfung bildet eine im allgemeinen nicht abelsche Gruppe.

III.5 Vektorräume

III.4

19

Folgerungen aus den Gruppenaxiomen

Für eine Gruppe  gilt:



             2. Entsprechend ist ein rechts-neutrales Element stets auch links-neutral, d. h. aus    . folgt  

1. Genauer sollte in der Definition einer Gruppe ein Element rechts-Inverses genannt werden; jedoch folgt aus den Gruppenaxiomen, daß ein rechts-Inverses immer auch links-Inverses ist (und umgekehrt), d. h. , daß mit stets auch gilt.

3. Es gibt nur ein neutrales Element. 4. Zu jedem





gibt es nur ein inverses Element.

 '8' '     / 8     %  /1   % 8 && /        : Das Produkt mit einem Faktor  ist das Element  Induktionsbeginn etwa bei

5. Aus dem axiomatisch gegebenen Produkt von Paaren erhalten wir durch induktive Definition das Produkt eines -tupels von Gruppenelementen   für  .

 ' ' '





selbst.

Es gilt dann ein verallgemeinertes Assoziativ-Gesetz, das besagt, daß in dem Produkt von -tupeln nach Belieben Klammern gesetzt werden können. Zwischenbemerkung: Entsprechend sind andere „Pünktchen-Objekte“ induktiv definiert ! 6.

III.5 5.1

    

für jedes





.

Vektorräume Definition

Ein reeller Vektorraum besteht aus 1. einer Menge 2. einer Verknüpfung auf

, die Vektor-Addition genannt wird, und

3. einer zweiten eindeutigen Zuordnung, genannt Skalarenmultiplikation,

 

 ' -'     &

.'  

für

 

 

Erläuterung: Der Abbildung eines Paares ist mit Multiplikation ansehen.

  ' 

.

haben wir keinen Namen gegeben. Das Bild bezeichnet worden, weil wir die Zuordnung als eine Art

III Gruppen, Vektorräume, Körper

20 Es müssen folgende Vektorraumaxiome gelten: Für die Addition die Axiome einer abelschen Gruppe.

Für die Skalarenmultiplikation die Assoziativität (Eigenschaft 5 in III.1 auf Seite 15) und die Neutralität der Multiplikation mit der Eins des Körpers (Eigenschaft 7 in III.1 auf Seite 15).



Die distributiven Gesetze 6 wie in III.1 auf Seite 15 bei -tupeln. Die Elemente von 5.2

heißen Vektoren von

.

Beispiele

Einen Vektorraum bilden: 1. Die -tupel reeller Zahlen 2. Lineare Gleichungen in

Unbekannten.

3. Lösungen homogener linearer Gleichungsysteme 4. Geometrische Vektoren der Ebene oder des Raumes 5. Folgen reeller Zahlen 6. Lösungen homogener linearer Differentialgleichungen 7. Reelle Funktionen 8. Polynome 5.3

Folgerungen aus den Vektorraumaxiomen

Sei

ein Vektorraum über  . Dann gilt:

  für alle  , wobei links das Nullelement des Körpers Nullvektor, das neutrale Element der Vektor-Addition, steht. für  und den Nullvektor 0 2.   3.   &    #    für  '*  1.



und rechts der





5.4

Vektorraum über einem Körper 

Allgemeiner können wir statt der reellen Zahlen einen anderen Körper  als Skalarenkörper verwenden und erhalten den Begriff eines Vektorraumes über dem Körper  .

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 5.5

21

Definition



Eine Menge  zusammen mit zwei Kompositionen, genannt Addition und Multiplikation und mit + und bezeichnet, heißt ein Körper, falls gilt: 1. Bezüglich der Addition ist  eine abelsche Gruppe. 2. Bezüglich der Multiplikation gilt:

#    #    für alle -' und b) Existenz eine neutralen Elementes 1 bezüglich der Multiplikation, genannt Einsele  für alle  ment oder Eins des Körpers: #  bezeichnetes sogenanntes inverses gibt es ein mit   c) Zu jedem  mit    Element von  mit der Eigenschaft #      für alle  und  d) Kommutatives Gesetz: #  Insbesondere ist   eine abelsche Gruppe. a) Assoziatives Gesetz:











3. Folgende beide Verknüpfungen betreffende Axiome gelten:

    #   für alle -' und b) Das neutrale Element der Addition 0 und das neutrale Element der Multiplikation 1  sind voneinander verschieden: a) Distributives Gesetz:

5.6



Aus der Analysis bekannte Beispiele

   Ganze Zahlen bilden keinen Körper; nur 1 und 

Reelle Zahlen, , rationale Zahlen,  , komplexe Zahlen,



bilden einen Körper.

haben ein Inverses, jedoch sind alle anderen

Axiome erfüllt. 5.7

Folgerungen aus den Körperaxiomen

'  für alle  2.   3.    #           oder  4.   

1. Es gelten alle Folgerungen aus den Axiomen einer abelschen Gruppe für (vgl. III.4). 

5

A. Riede: Lineare Algebra , SS 98/99 bis WS 01/02

'   und 



III Gruppen, Vektorräume, Körper

22

III.6

Anschauliche Geometrie und geometrisch anschaulicher Vektorraum

In diesem Abschnitt begeben wir uns auf die erste Etappe einer Rundwanderung von der ebenen Geometrie zum anschaulichen Vektorbegriff und wieder zurück zu einem anderen, dem analytischen Modell der Ebene. Die zweite Etappe von den Vektorräumen zurück zur analytischen Geometrie werden wir in Kapitel XIII auf Seite 155 zurücklegen. Es wird hier der Begriff einer Äuivalenzrelation an Beispielen betrachtet; eine systematische Behandlung steht in Abschnitt IV.4 auf Seite 36. 6.1 Die Anschaungsebene als affine Ebene 6.1.1 Punkte und Geraden Die Anschauungsebene besteht aus einer Menge von Punkten. Außerdem gibt es Geraden, das sind gewisse Teilmengen von Punkten. bezeichne die Menge aller Geraden.



+'    bedeute, daß  parallel

1! ist;   , daß 

6.1.2 Definition der Parallelität von Geraden Zwei Geraden  heißen parallel Entweder ist



nicht parallel zu

oder



  .

is.

Nach unserer Erfahrung hat die Anschauungsebene folgende Eigenschaften:

5' 

:'  bezeichnet.



(A1) Existenz einer eindeutigen Verbindungsgeraden  . Für  ist eindeutig und wird dann mit 







+'  '   

6.1.3 Folgerung Schnittpunkt von und .







mit

besteht aus genau einem Punkt, dem

(A2) Dimension einer Geraden Jede Gerade besteht aus mehr als einem Punkt. Dies bedeutet, daß, wenn wir die Punkte als die nulldimensionalen Bausteine ansehen, eine Gerade mindestens eindimensional ist. (A3) Dimension der Ebene Die Ebene besteht aus mehr als einer Geraden. Dies bedeutet, daß, wenn wir die Geraden als die eindimensionalen Bausteine ansehen, die Ebene mindestens zweidimensional ist. (A4) Parallelität ist eine Äquivalenzrelation

D. h., es gelten die Bedingungen:

Reflexivität: Jede Gerade ist zu sich selbst parallel. Symmetrie: Ist







parallel zu , so auch

Transitivität: Ist parallel zu (A5) Parallelenaxiom

 



und

und



zu  .



parallel zu , so auch

+ 

genau ein

 zu .

 

mit 





und

  .

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum

23

Zur Formulierung der letzten Eigenschaft benötigen wir folgende Begriffe:

' 8' 

 '  '    '      ' '    '- 8 '.8    '      '  ' 

6.1.4 Definition von paraller und perspektivischer Lage Zwei Dreiecke mit den   und Ecken  sind in paralleler Lage zueinander, wenn es drei verschie für dene parallele Geraden gibt mit  . Sie sind in perspektifischer Lage, wenn es drei verschiedene Geraden gibt, die sich in einem sogenannten Zentrum schneiden, so daß wieder  . für (A6) Parallelitätseigenschaft von Desargues Wenn bei zwei Dreiecken in paralleler oder perspektifischer Lage zwei entsprechende Seitenpaare parallel sind, so sind es auch die dritten Seitenpaare. Mit den Bezeichnungen von 6.1 auf der vorherigen Seite.4:

 

8     8 und        



 8

   8 . B3

A3

g3

g2

B2

A2

B1

A1

g1

Abbildung 1: Die Desargues’sche Parallelitätseigenschaft

8 



Diese Eigenschaft kann als eine Schließungseigenschaft angesehen werden: Wenn wir vorgehen wie in der Zeichnung und als letztes die Parallele zu   durch ziehen, dann schließt sich die Figur im Punkt .

8



6.1.5 Definition einer affinen Ebene Eine Menge von Punkten und eine Menge von Geraden wie in 6.1 auf der vorherigen Seite.1 mit diesen sechs Eigenschaften (A1) bis (A6) heißt eine affine Ebene. 6.1.6 Bemerkung In der Tat kommt man mit zwei Axiomen weniger aus; denn (A2) und (A4) folgen aus den übrigen Axiomen. 6.1.7 Bemerkung Nach unserer Erfahrung ist die Anschauungsebene eine affine Ebene. Mit einer affinen Ebene haben wir also ein mathematisches Modell für die Anschauungsebene aufgestellt. Es ist ein einfaches Modell, weil es auf nur sechs Grundeigenschaften (Axiomen) fußt. Um Zeichnungen anzufertigen benötigen wir nur ein Lineal ohne eine Skala und einen beliebigen Winkel, auf dessen Winkelmaß es nicht ankommt. Es lassen sich aus diesem Modell nicht alle Eigenschaften ableiten, welche die Anschauungsebene sonst noch hat, aber es beschreibt genügend Eigenschaften, daß wir daraus den geometrisch anschaulichen Vektorraum herleiten können. Das ist im folgenden unser Ziel.

III Gruppen, Vektorräume, Körper

24

Abbildung 2: Zeichnerische Konstruktion der Parallelen

:' 

6.2 Die additive Gruppe der geometrischen Vektoren 6.2.1 Definition einer gerichteten Strecke Ein geordnetes Punktepaar  nennen wir eine gerichtete Strecke. „Geordnet“ bedeutet, daß festgelegt ist, welches der erste Punkt oder der Anfangspunkt und welches der zweite Punkt oder der Endpunkt ist. Hier ist also  der Anfangspunkt und der Endpunkt. Wir lassen auch den Fall zu, daß  ist; hier ist die Strecke zu einem Punkt zusammengeschrumpft.







Wir veranschaulichen uns eine gerichtete Strecke durch die Punkte zwischen  und inklusive  und . Unter gerichtet stellen wir uns vor, daß ein Durchlaufungssinn der Strecke gegeben ist —hier von  nach . Dieser Durchlaufungssinn wird in einer Zeichnung angedeutet, indem wir am Endpunkt eine Pfeilspitze anbringen. Kurz, wir veranschaulichen uns eine gerichtete Strecke durch einen Pfeil, und weil wir uns eine gerichtete Strecke durch einen Pfeil veranschaulichen können, wollen wir für eine gerichtete Strecke auch die Bezeichnung Pfeil verwenden. Wir vermerken jedoch, daß für keine Argumentation der Begriff „zwischen“ verwendet werden muß, er dient nur der Veranschaulichung.





' 

6.2.2 Definition von parallelen Pfeilen Sei   ein Pfeil und    parallele Pfeil  mit Anfangspunkt  wird wie folgt definiert:

' 

ein Punkt. Der zu

 und 5'  5'  der parallele Pfeil . Für  und     ziehen wir die Parallele zu  1   durch  ziehen wir die Parallele zu    durch  und setzen 1  . (Daß 

1. Für  2.

5' 





sei



1

einem Punkt besteht, folgt aus den vorstehenden Eigenschaften!)



. Außerdem aus genau

   und    wählen wir einen Hilfspunkt    1   . Dann sei  ' der gemäß vorhergehendem Fall definierte zu '  parallele Pfeil mit Anfangspunkt  . :  '  sei dann der zu  '  parallele Pfeil mit Anfangspunkt  .

3. Für

Diese Konstruktion von

:' 

ist unabhängig von der Wahl des Punktes 

.

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum

25

Abbildung 3: Paralleler Pfeil

Abbildung 4: Die Wohldefiniertheit des parallelen Pfeiles durch

6.2.3 Satz



Parallelität von Pfeilen ist eine Äquivalenzrelation in der Menge aller Pfeile.

6.2.4 Definition und Repräsentierung eines geometrischen Vektors Eine Äquivalenzklasse paralleler Pfeile heißt ein geometrischer Vektor. Geometrische Vektoren bezeichnen

(' ' ' etc. Die Äquivalenzklasse eines Pfeiles 5'  wird mit  bezeichnet. Ein Pfeil 5'  aus einer Äquivalenzklasse  wird ein Repräsentant von  genannt. Zu jedem geometrischen Vektor  und jedem Punkt  gibt es genau einen Repräsentanten 5'  von  mit Anfangspunkt  . Diesen Repräsentanten : '  von  bezeichnen wir mit  oder kurz, wenn aus dem Zusammenhang oder einer Zeichnung klar ist, was gemeint ist, mit dem gleichen Zeichen  , mit dem wir auch den Vektor bezeichnen. Wir sagen, der Pfeil 5 '  ist der vom Punkt  aus abgetragene Vektor  ; ist also der Endpunkt des von  aus abgetragenen Vektors . 6.2.5 Definition der Addition von Vektoren Seien (' zwei geometrische Vektoren. Wir wählen einen Repräsentanten 5 '  von  und von den Repräsentanten mit Anfangspunkt

wir mit









III Gruppen, Vektorräume, Körper

26

Abbildung 5: Transitivität







5' 



. Wenn wir den Endpunkt des letzteren mit bezeichnen, so ist also von . Dann sei die Äquivalenzklasse von  .

 1   

für

 

und



'   ein Repräsentant



Abbildung 6: Die Addition von Vektoren

Die Definition ist unabhängig von der Wahl von

5' 

.

Abbildung 7: Die Unabhängigkeit von der Wahl von

6.2.6 Satz

5' 

Mit dieser Definition der Addition bilden die Vektoren eine additive Gruppe.

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum

27

6.3 Skalare und Skalarenmultiplikation 6.3.1 Definition Wir wählen eine Gerade und zwei verschiedene Punkte  fest aus. wird uns als Zahlengerade (Skalarengerade) dienen mit den Punkten  als Nullpunkt und dem Punkt als Einselement einer noch zu definierenden Addition und Multiplikation der Skalaren. Wie bisher bezeichnen wir die Skalaren mit griechischen Buchstaben und definieren das -fache eines Vektors wie folgt:









  #'  #'

#&

' 







  von der in  beginnt, liegt nicht in : Sei die 1. Fall: Der Repräsentant  (eine) Gerade, in der   liegt, die Parallele zur Geraden  durch den Skalar und . Dann ist die Klasse von Pfeilen, die durch  repräsentiert wird.



1 

#' 



Abbildung 8: Skalarenmultiplikation





    #' 

ist dann 2. Fall:  liegt in . Wir wählen einen Hilfsvektor , so daß  nicht in liegt. nach dem 1. Fall bereits definiert. Sei der Endpunkt von  und der Endpunkt von durch und . Dann ist  ein Repräsentant  . Sei die Parallele zu  von . Diese Definition hängt nicht von der Wahl des Hilfsvektors ab, wie mit der Desargues’schen Parallelitätseigenschaft bei perspektivischer Lage gezeigt werden kann.

   

 Trage #  







$1 %

6.3.2 Definition der Multiplikation von Skalaren von  aus ab; der Endpunkt ist

.



.' 

miteinander

6.3.3 Strahlensatz der Affinen Geometrie und seien zwei verschiedene Geraden, die sich in einem Punkt schneiden. Wir nehmen an, daß  ist, andernfalls gehen wir zu einer parallelen Figur über. Seien   , und   . Sei ferner:

5'  '  

 1    '   1   '  1 

 1 ' 1  '  1 

  Dann ist  das gleiche Vielfache von  wie von und wie  von  .    6.3.4 Erstes Distributives Gesetz Es gilt: (

III Gruppen, Vektorräume, Körper

28

Abbildung 9: Zum Strahlensatz

Abbildung 10: Zum ersten Distributiv-Gesetz



6.3.5 Definition der Addition von Skalaren



 

 . Trage den Vektor   vom Punkt aus ab; der Endpunkt des abgetragenen Vektors ist Anders ausgedrückt: Bilde zum Pfeil   den parallelen Pfeil mit Anfangspunkt . Dann ist  .

 1 

#'

6.3.6 Neutralität von Es gilt: Multiplikation von Skalaren miteinander,



-' 

9   . Außerdem ist .

6.3.7 Assoziativität der Skalarenmultiplikation

Es gilt:





auch das Einselement der

      

III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum

29

Abbildung 11: Zum Assoziativgesetz der Multiplikation von Skalaren mit Vektoren

   

6.3.8 Assoziativität der Multiplikation von Skalaren miteinander  Es gilt: 

Abbildung 12: Assoziativität der Multiplikation von Skalaren miteinander

6.3.9 Das Inverse struiert.

Das zu



inverse Element

   wird wie in folgender Zeichnung kon-

Abbildung 13: Konstruktion des Inversen

6.3.10 Zweites Distributives Gesetz

Es gilt:

       

III Gruppen, Vektorräume, Körper

30

Abbildung 14: Zum zweiten Distributiv-Gesetz

6.3.11 Das Kommutativgesetz Das Kommutativgesetz der Multiplikation von Skalaren miteinander kann aus den bisherigen Axiomen nicht bewiesen werden; denn es gibt affine Ebenen, bei denen es verletzt ist. Z. B. , wenn der von William Rowan Hamilton 1843 entdeckte und nach ihm benannte nicht kommutative Körper der Quaternionen ist, dann kann als eine affine Ebene aufgefaßt werden (s. Abschnitt XIII.5 auf Seite 161). Der wie oben geometrisch konstruierte Körper ist wieder , also nicht kommutativ. Die Kommutativität kann geometrisch charakterisiert werden, und zwar folgendermaßen:

8

+' zwei verschiedene Geraden, die sich  ' 8 '   '   ' 8 '  seien jeweils paarweise und        und  8     8     8   8  

(A7) Parallelitätseigenschaft von Pappos Seien   in einem Punkt treffen.  von verschiedene Punkte. Dann gilt:



B3

g

B2 B1 Z

A3

A2

A1

h

Abbildung 15: Parallelitätseigenschaft von Pappos und Kommutativität

6.3.12 Abschließende Bemerkung Die gegebene Definition einer affinen Ebene ist die sogenannte synthetische Definition. Die Ableitung eines Körpers und eines Vektorraumes über diesem Körper heißt Algebraisierung, der konstruierte Körper der Algebraisierungskörper. In Kapitel XIII auf Seite 155 wird zu einem Vektorraum über einem Körper ein affiner Raum definiert. Diese analytische Definition eines affinen Raumes führt zur Analytischen Geometrie.

IV.1 Linearkombinationen

31

IV Lineare Abhängigkeit Im folgenden ist

IV.1 1.1

stets ein Vektorraum über einem festen Körper  .

Linearkombinationen Definition







 . Dabei sei irgendeine Sei ein System (oder eine Familie) von Vektoren Menge, genannt Indexmenge des Systems. Jedem Element, d. h. Index, ist also eindeutig ein Vektor zugeordnet.







Ein Ausdruck der Art

   



mit

heißt eine Linearkombination des Systems. Für einen Vektor

    







mit











heißt die Gleichung 



 ' ' ' 

eine lineare Darstellung von durch das Systems. Ein heißt linear darstellbar durch das System, wenn eine lineare Darstellung existiert. Das wichtigste Beispiel ist  . Dann ist ein System nichts anderes als ein -tupel von Vektoren. In das allgemeine Konzept kann auch der Fall eingebaut werden, daß eine unendliche Menge ist; es muß nur zusätzlich verlangt werden, daß nur endlich viele in einer Linearkombination verschieden von null sein dürfen, damit die Summe einen Sinn macht.



1.2

Definition







 Ein System wie oben heißt linear abhängig, wenn der Nullvektor eine lineare Darstellung durch das System besitzt, in der nicht alle sind, eine sogenannte nicht triviale lineare Darstellung des Nullvektors.

  







Andernfalls heißt das System linear unabhängig; in anderen Worten, wenn stets aus   folgt für alle . Oder äquivalent: Der Nullvektor ist nur auf eine Weise (die triviale Weise, die es immer gibt) durch das System linear darstellbar.

1.3



Kriterium 

ist linear abhängig.

!

Ein





läßt sich durch die anderen

 linear darstellen.

IV Lineare Abhängigkeit

32 1.4

Beispiele

 , so ist das System linear abhängig. 2. Zwei Vektoren  ' 8  (= Vektorraum der 1-tupel) sind immer linear abhängig. 3. Sind zwei der  gleich, so ist das System linear abhängig. 1. Ist ein

4. Ist ein Teilsystem linear abhängig, so auch das ganze System.

! .  ' 8 0  1   0 '  0  1 0/ 0  6. Die Funktionen  ' 8 '  mit  0  1 unabhängig im Vektorraum der Funktionen )1    .

5. Ein einzelner Vektor ist linear abhängig

IV.2 2.1

sind linear

Erzeugendensystem, Basis Definition

Können wir jedes von .







durch

linear darstellen, so heißt





ein Erzeugendensystem

Gibt es ein endliches Erzeugendensystem, d. h. eines mit endlicher Indexmenge , dann heißt endlich erzeugt. Ein linear unabhängiges Erzeugendensystem von 2.2

Satz

Ist

endlich erzeugt, so gibt es eine Basis von

2.3

Beispiel

 

aus 

.

.

  '  '     für  ' ' '  , der Vektorraum der -tupel von Skalaren 8  , hat die Basis:  '  8 ' '    1  ' ' '  ' '  ' ' '  ' ' ' ' ' '    

Sie heißt kanonische Basis von  2.4

heißt eine Basis von

.

1. Basiskriterium







Sei .  Ein Erzeugendensystem von Jeder Vektor ist eindeutig durch



Basis !   linear  ist eine darstellbar. 

IV.3 Unterräume 2.5

33

Definition





       ' ' '  .  ' ' ' '

  Sei eine Basis von und , Dann heißen die eindeutig bestimmten Vektoren und die Skalaren  die Koordinaten von

2.6

  '  ' ' '





die Komponenten von  bezüglich der Basis .

2. Basiskriterium





!

 Ein System ist eine Basis  ist ein maximales System von linear unabhängigen Vektoren von . „Maximal“ heißt: Nach Hinzunahme irgendeines weiteren Vektors wird das System linear abhängig.

2.7

Austauschsatz von Steinitz

 ' ' '  

 ' '   eine Basis von . Sei        Sei  für  ''   ' +'  ' '  ebenfalls eine Basis von . Es ist

sei endlich erzeugt und  ein  . Dann ist dabei „  durch ausgetauscht.“

2.8







 

Verschärfter Austauschsatz von Steinitz

 ''   sei eine Basis von und   ' '   linear unabhängige Vektoren von . Dann ist  und es gibt   der Vektoren  '' , die mit   ''   bezeichnet   seien, so daß   '  '  '   '  '    eine Basis von ist. Es lassen sich also  geeignete   durch   ' '   austauschen, so daß das System eine Basis bleibt. 

2.9

Basisergänzungssatz

In einem endlich erzeugten Vektorraum zu einer Basis ergänzen.

2.10

läßt sich jedes System linear unabhängiger Vektoren

Satz und Definition

Für einen endlich erzeugten Vektorrraum

gilt:

Alle Basen haben die gleiche Anzahl von Vektoren. Unter Dim( ), der Dimension eines endlich erzeugten Vektorraumes Vektoren einer Basis verstanden.

, wird die Anzahl der

IV Gruppen, Vektorräume, Körper

34 2.11

Konvention: Dim(

IV.3

Unterräume

3.1

 

Definition

Ein Vektorraum



über  heißt ein Untervektorraum von

1. Jeder Vektor von



ist auch Vektor von



, d. h.

 

1 ! und

2. die Summe von Vektoren von und das Produkt von Skalaren mit Vektoren von Vektorraum dasselbe wie im Vektorraum .







ist im



Gilt , so wird ein echter Unteraum von genannt. Wenn keine Verwechslungen entstehen können sprechen wir auch kurz von einem Unterraum. 3.2



Satz und Definition

sei eine nicht leere Teilmenge von

.'   ;      2.  '

1.

 









mit folgenden Eigenschaften:





Dann ist zusammen mit der Vektoraddition und Skalarenmultiplikation von auf Elemente von angewendet werden, ein Untervektorraum von .



Die beiden Bedingungen werden Abgeschlossenheit der Teilmenge und Skalarenmultiplikation von genannt. 3.3



Definition und Satz

, die aber nur

bezüglich der Addition

   von Vektoren  von . Dann wird   1        ' alle   bis auf endlich viele Ausnahmen      bezeichnet. die lineare Hülle von    genannt und mit       erfüllt die Bedingungen 3.2 und ist deswegen ein Untervektorraum von . 

Gegeben sei ein System











3.4

Bemerkung

     ist der kleinste Untervektorraum, der alle  ' 

enthält.

IV.3 Unterräume 3.5

35

Beispiel

   

3.6





, falls

ein Erzeugendensystem von

ist.

Satz



Sei ein Untervektorraum des endlich erzeugten Vektorraumes erzeugt.

3.7



Ist

. Dann ist auch



endlich

Satz Untervektorraum des endlich erzeugten Vektorraumes Dim

 



Das Gleichheitszeichen gilt dabei genau dann, wenn

3.8



Dim



, dann gilt:

ist.

Durchschnitt



 

Sind und Untervektorräume von , so bildet der Durchschnitt, , der aus allen Vektoren besteht, die sowohl zu als auch zu gehören, einen Untervektorraum von . 3.9





Verbindungsraum oder Summe

*

    /  '  

3.10

Direkte Summe

Sind und und , Vereinigung, 







 ' 

        

 '  8   8   ', wenn    ' 8  8 8    8 .

von Ein Unteraum von heißt direkte Summe der Unterräume und jeder Vektor  eine eindeutige Darstellung der Form    hat. Ist direkte Summe von , so bezeichnet man auch mit



3.11





Untervektorräume von , so heißt die lineare Hülle der Vereinigung von , der Verbindungsraum oder die Summe von und ; dabei besteht die , aus allen Vektoren, die zu oder zu gehören. Es ist . Daher der Name „Summe“ und die Bezeichnung .



 ' 



8

Satz

ist direkte Summe von



und

8 ! 

 . 

8

und

    8  .





IV Gruppen, Vektorräume, Körper

36 3.12

Dimensionsformel



und es gilt :

Dim 3.13

  Dim $   Dim   

seien endlich erzeugte Unterräume von

 



Dim

. Dann ist auch

endlich erzeugt und

Beispiele

1. Alle Polynome bilden einen Untervektorraum des Vektorraumes aller Funktionen





2. Polynome vom Grade ( feste natürliche Zahl) bilden einen Untervektorraum des Vektorraumes aller Funktionen mit der Basis  ist für 

IV.4

 



1 

   -dimensionalen &'  ' '  , wobei

' ' Der Vektorraum der Polynome ist nicht endlich erzeugt, erst recht nicht der Vektorraum aller Funktionen 1   . 





Äquivalenzrelationen und Quotientenräume

Wer keine Schwierigkeiten mit der mehr intuitiven Verwendung von Äquivalenzklassen in Abschnitt III.6 auf Seite 22 hatte, kann diesen Abschnitt erst einmal überspringen. In Beispiel 3.2 auf Seite 72 und in Abschnitt IX.8 auf Seite 104 wird erklärt, wozu der Begriff eines Quotientenraumes nütze ist und wo er vorkommt. 4.1 Äquivalenzrelationen 4.1.1 Der Begriff einer Relation besteht eine bestimmte Beziehung oder Relation, wenn beide Zwischen zwei Elementen Elemente zusammen eine gewisse Eigenschaft erfüllen. Zum Beispiel besteht eine geschäftliche Beziehung zwischen zwei Personen, wenn Sie miteinander beruflich zusammenarbeiten. Dies ist also keine Eigenschaft eines Partners allein, sondern von beiden zusammen, von der Gesamtheit beider.

.' 





Daß Vater von ist, läuft auch wieder auf eine Eigenschaft beider hinaus. Wir sehen an diesem Beispiel, daß es auf die Reihenfolge von und ankommen kann. Um eine solche Beziehung einzubeziehen, müssen wir als die Gesamtheit von und nicht die Menge ansehen, sondern das (geordnete) Paar .

.'  

6

A. Riede: Lineare Algebra, WS 98/99 bis WS 01/02



.'  

IV.4 Äquivalenzrelationen und Quotientenräume



.' 

37

Um eine Relation genau zu erklären, kommt es außerdem darauf an, anzugeben, aus welcher Menge die Dinge etc. genommen werden.

.'  

  

Dann ist aber eine Beziehung zwischen zwei Dingen nicht anderes als eine Eigenschaft von Elementen des kartesischen Produktes . Der Begriff „Eigenschaft“ wird dabei als ein Grundbegriff genommen und nicht weiter erklärt als dadurch, daß von jedem Element von eindeutig feststehen muß, daß die Eigenschaft entweder erfüllt ist oder nicht.

  

.'  

+ 



Dafür, daß die Eigenschaft besitzt, wird die Funktionsschreibweise Operatorschreibweise verwendet.

 .'  

.'  

oder die

4.1.2 Beispiele aus der Linearen Algebra

1. Isomorphie von Vektorräumen über einem festem Körper  .

 '  

und

für

'

'  , 

eine Menge von Vektorräumen

eines -dimensionalen reellen Vektorraumes. Zwei 2. Gleiche Orientiertheit von Basen Basen heißen gleich orientiert, wenn sie durch eine Basistransformation mit positiver Determinante auseinander hervorgehen.

  

'





3. Äquivalenz von Matrizen: Zwei -Matrizen     ( ein Körper) heißen äquivalent, wenn es eine reguläre Matrix   und eine reguläre Matrix     gibt mit



 





  

'





4. Ähnlichkeit von Matrizen: Zwei -Matrizen     ( ein Körper) heißen ähnlich oder konjugiert zueinander, wenn es eine reguläre Matrix   gibt mit



1!



 





5. Konjugiertheit von Endomorphismen (:= linearen Selbstabbildungen eines Vektorraumes ): konjugiert ein Automorphismus von (ein Isomorphismus von mit sich selbst), so daß gilt:

   

Diese Beispiele haben die folgenden Eigenschaften und sind daher Äquivalenzrelationen.



 +  +.'   +.'  '  

4.1.3 Eigenschaften von Relationen Eine Relation auf der Menge heißt reflexiv symmetrisch transitiv

1! 1!

1!

gilt gilt gilt

1 + 1 +      1 +  und    

+ 

IV Gruppen, Vektorräume, Körper

38





4.1.4 Definition von Äquivalenzrelation und Äquivalenzklasse Eine Relation auf einer Menge , die diese drei Eigenschaften hat, heißt eine Äquivalenzrelation. Bei einer Äquivalenzrelation schreiben wir anstelle von und sagen dafür ist bei der Relation äquivalent zu . Meist wird die Kurzform verwendet , lies: „ äquivalent “, wenn klar ist, welche Relation gemeint ist oder wenn in einem Zusammenhang nur eine Relation betrachtet wird.









 .'  











, dann heißt die Menge aller zu äquivalenten Elemente die Äquivalenzklasse Ist von bezüglich . Die Äquivalenzklassse von wird auch mit oder mit bezeichnet. Jedes Element einer Äquivalenzklasse heißt ein Repräsentant der Äquivalenzklasse.





 

4.1.5 Satz über die Äquivalenzklassen Für eine Äquivalenzrelation auf der Menge









gilt:



1. Äquivalente Elemente haben dieselbe Äquivalenzklasse, d. h.:



2. Zwei Äquivalenzklassen sind entweder disjunkt oder stimmen überein.



3. Jedes Element liegt in genau einer Äquivalenzklasse. Oder mit anderen Worten: ist die disjunkte Vereinigung der verschiedenen Äquivalenzklassen. Hierfür wird auch gesagt: Die verschiedenen Äquivalenzklassen bilden eine Zerlegung oder Partition von .





4.1.6 Definition der Quotientenmenge Die Menge, deren Elemente die Äquivalenzklassen bezüglich einer Äquivalenzrelation auf  einer Menge sind, heißt die Quotientenmenge von nach . Sie wird mit bezeichnet.







 

4.2 Quotientenräume 4.2.1 Gleichheit modulo einem Untervektorraum sei ein Vektorraum über einem festen Körper  , und ein Untervektorraum von durch



. Dann ist

 1 ! "  eine Äquivalenzrelation auf definiert. Andere Formulierung:  1 !   so daß   In Worten:  und sind gleich bis auf Addition eines Vektors aus  , wofür auch die Redeweise verwendet wird: „ modulo  “ Wir veranschaulichen uns dies in der Anschauungsebene (oder euklidischen Ebene), in der ein fester Punkt  als Nullpunkt und eine Gerade  durch  gewählt sind. Als geometrische Vektoren sehen wir die Pfeile an, die in  beginnen. sei der Vektorraum der geometrischen Vektoren der Anschauungsebene und  der Untervektorraum der Pfeile, die in  liegen. Dann ist  modulo  ! Die Endpunkte der Pfeile  und liegen auf einer zu  parallelen Geraden. 



IV.4 Äquivalenzrelationen und Quotientenräume

39





4.2.2 Äquivalenzklasse modulo einem Untervektorraum Die Äquivalenzklasse von , die auch Nebenklasse von modulo genannt wird, ist:



       1     Im obigen Anschauungsbeispiel   die Menge aller Pfeile, deren Spitze auf einer von  



ab-

hängigen parallelen Geraden liegt.





 und

4.2.3 Addition von Äquivalenzklassen modulo U Seien und zwei Äquivalenzklassen mod. , dann wählen wir Repräsentanten und definieren:

8



8

 8 1    

  

 

Diese Definition ist unabhängig von der Wahl der Repräsentanten! Dafür wird auch gesagt, die Addition von Äquivalenzklassen ist „wohldefiniert“. Da und , kann die Addition auch geschrieben werden in einer intuitiven Form, die allerdings nicht so deutlich macht, daß die Definition zunächst Repräsentanten benutzt:

   $       



oder

8



 

4.2.4 Skalarenmultiplikation von Äquivalenzklassen modulo U Für eine Äquivalenzklasse mod. wird definiert:







1     /' 

Repräsentant von

Diese Definition ist unabhängig von der Wahl des Repräsentanten, die Skalarenmultiplikation von Äquivalenzklassen ist „wohldefiniert“. Anders aufgeschrieben:

    (     

oder







( 

4.2.5 Definition und Satz über den Quotientenraum

 ' '  ein modulo  .   zuordnet. 2. Sei die Abbildung, die einem Vektor  seine Äquivalenzklasse    ist ein Vektorraum-Homomorphismus. Dann ist 1 3. Ist 1  eine lineare Abbildung mit      , dann ist 1    mit     1   ; durch diese Gleichung ist eindeutig eine wohldefinierte lineare Abbildung mit 

1. Ist die Äquivalenzrelation Kongruenz modulo U, dann ist Vektorraum über  , der Quotientenraum oder Faktorraum von

bestimmt.





1





V Lineare Abbildungen und Matrizen

40

V Lineare Abbildungen und Matrizen

1 

Wenn nichts anderes ausdrücklich gesagt wird, bezeichnen und in diesem Kapitel Vektorräume über  und eine lineare Abbildung. Ab jetzt verstehen wir unter  den Vektorraum der Spalten- -tupel. Auch eine Basis schreiben wir als eine Spalte von Vektoren. Eine Spalte schreiben wir aus drucktechnischen Gründen auch in der Form

  

V.1 1.1

  .. 8 . 





1  ''   



lies: „

 ''  

transponiert“

Beispiele und Definition Koordinatenzuordnung

 ' '  

1

eine Basis eines Vektorraumes über  . Ordnen wir jedem Vektor sein Sei  Koordinaten- -tupel bezüglich der Basis zu, so erhalten wir   eine Abbildung:

 ' '   

 ' '  

1   '  1   ''    ' wobei         ist.

hat folgende Eigenschaften: Für alle .'  gilt: 1.

      2.       d. h. ist eine surjektive Abbildung. 3.

4. 

    d. h. ist eine injektive Abbildung. 



1.2





Definition

'

1  1!           

Seien Vektorräume über  . ist eine lineare Abbildung oder ein Homomorphismus von Vektorräumen Die folgenden Axiome für eine lineare Abbildung sind erfüllt:





Additivität: Homogenität:

für alle

.' 

für alle 

und alle





V.1 Beispiele und Definition 1.3

41

Beispiele

1. Die Nullabbildung

1 

1





für alle

.

2. Obige Koordinatenzuordnung . 3. Sei

der Vektorraum der homogenen linearen Gleichungen



1

  

  in Unbekannten. Die Zuordnung 1    ' '    ist eine lineare Abbildung 1   4. Sei beliebig und , und sei   '  Dann heißt 1  mit  1 + für alle  eine Streckung um den Faktor  . ist linear.  ' 1  '   1 .' falls   '   und 5. Sei ist eine 











lineare Abbildung; sie heißt Parallelprojektion von





auf



längs

.

Für ein weiteres Beispiel benötigen wir: 1.4

Definition und Satz

     ' '    aus   

            



 . 8 8 8     .. ..   .      

8 . . 8 8 8  .  .. ... .     8       8 8  Der -te Koeffizient von   ist also:      Eigenschaften des Matrizenproduktes:  Additivität:           für alle .'    und alle  für alle   Homogenität:        

Das Produkt einer -Matrix  mit einer Spalte ergibt per Definition das folgende Spalten- -tupel  :





































































 









Koeffizienten

    







1.5

Beispiel

Sei  eine für alle

   -Matrix. Wir definieren eine Abbildung $1   . Dann ist linear wegen obiger Eigenschaften. 







durch



 1 < 

V Lineare Abbildungen und Matrizen

42 1.6

Folgerungen aus den Axiomen

   2. :      <&&    3.  . &&&       ''   linear abhängig 4.  ' '  linear abhängig 5. Ist  '  '  eine Basis von , so ist eine lineare Abbildung 1   durch die Bilder der Basis   ''    bestimmt. Sind   ' '   Vektoren von , so gibt es (genau) eine lineare Abbildung 1    '  ' ' .

1.

V.2 2.1

eindeutig irgendwelche mit



Weitere Eigenschaften linearer Abbildungen Definition: Sei

1  ein Homomorphismus von Vektorräumen.   Kern  1    Bild  1 

2.2

Satz





1. Kern( ) und Bild( ) sind Unterräume von 2. 3.

2.3 Sei



ist injektiv

!

injektiv und

  ' '



 ' ' 



linear unabhängig

Dimensionsformel

1 

.



linear unabhängig.

linear und

 endlich erzeugt und es gilt:  Dim Kern    Dim Bild  

endlich erzeugt. Dann ist auch

Dim 2.4



Kern( ) =

bzw.



Rang einer linearen Abbildung



1



Der Rang einer linearen Abbildung ist definiert durch: Rg Dim Bild setzen in obige Dimensionsformel erhalten wir die sogenannte Rangformel: Dim





Dim Kern

 

Rg



  Durch Ein-

V.3 Basis- und Koordinaten-Transformationen 2.5

Satz über die Inverse einer bijektiven linearen Abbildungen

1 

Ist

2.6

eine bijektive lineare Abbildung, so ist auch

1 

2.7

und  1    1   linear.

Vektorräume und Bezeichnungen:

1  

1 

also Vektorräume über  ,

bedeutet:

heißt isomorph oder ein Isomorphismus von Vektorräumen, wenn

heißen isomorph, wenn es einen Isomorphismus von

bedeutet:



ist ein Isomorphismus von

und

nach

nach

gibt.

.

sind isomorph zueinander.

  isomorph  /' +'  isomorph  

 isomorph 



' '

lineare Abbildungen,

Definition und Satz

Eine Abbildung von nach sie linear und bijektiv ist.



  linear.

Satz über die Komposition linearer Abbildungen

Sind dann ist auch

Id

43

ist ein Isomorphismus.





2.8

Beispiel

Die Koordinatenzuordnung

2.9

isomorph

1   

ist ein Isomorphismus (vgl. 1.1 auf Seite 40).

Bemerkung

1 

  ' '   genau dann linear unab 1     sind   ''   genau dann Insbesondere für die Koordinatenzuordnung linear unabhängig, wenn ihre Koordinaten- -tupel   '  '    es sind.

Ist hängig, wenn

 '

'   

ein Isomorphismus, so sind Vektoren es sind.  





2.10

Satz

Sind

und

endlich erzeugt, dann gilt:

!

Dim





Dim



V Lineare Abbildungen und Matrizen

44

V.3

Basis- und Koordinaten-Transformationen

sei ein -dimensionaler Vektorraum über  ,

3.1

Definition



.

:  ' '   ' '     ' '     ' '     ' '   ' '  

  Der Übergang von einer Basis zu einer Basis heißt eine Ba  sistransformation. Der Übergang von den Koordinaten bezüglich zu   den Koordinaten bezüglich heißt eine Koordinatentransformation. 3.2

Definition und Satz

Eine Basistransformation wird beschrieben durch

     '  ''    









Dabei hat die hierdurch definierte Matrix

 

 

  8 & &  8 8 & &   8 &&

     .. 8 . 

   8





den Rang , wobei Rang( ):=Maximalzahl linear unabhängiger Zeilen. Sie heißt die Matrix der Basistransformation. Zu jeder -Matrix  vom Rang gehört eine Basistransformation, deren Transformationsmatrix  ist. Eine Basistransformation kann in Verallgemeinerung von V. 1.4 auf Seite 41 auch in Matrizenform geschrieben werden:

 

  

.. .



8

Kurz:

3.3













     .. 8 . 

  8 & &  8 8 & &   8 & &

Satz und Definition

Zur Basistransformation

        8  .8 1

 .. 



   







   -  8   - 8 8 .. 8 .    -  8

8 <<&&&&      8 8  8 <&&     

    gehört die Koordinatentransformation:





V.4 Die Matrix einer linearen Abbildung

 

  .. 8 .  











Die Koordinatentransformation von schrieben:

45

 8  & &          8 8 & &   8  . 8

 ..  8  & &        nach   wird durch die transponierte Matrix      .. 8 .  



      mit den Koeffizient     die zu    





 

be-



    Dabei heißt die Matrix transponierte Matrix. Die Transponierte  von  kann auch als die Matrix beschrieben werden, deren -te  Zeile die -te Spalte von  ist. Offensichtlich gilt:  



V.4

Die Matrix einer linearen Abbildung

Im folgenden sind über  . 4.1 Sei



  ' '   

und



 ' '   

Basen des Vektorraumes

bzw.

Definition

1 

linear. Dann sei

 



   ' '   . Die daraus gebildete Matrix die lineare Darstellung von    durch die Basis  wird die (Abbildungs-) Matrix  von bezüglich und genannt:  "1  1             (5) Anders ausgedrückt, besagt diese Definition, daß die -te Spalte von  das Koordinaten- -tupel des Bildes des -ten Basisvektors ist. Die obige Definitionsgleichung 5 der   schreibt sich in 

 























Matrizenform durch:

       ausführlich:    ''        ' '   Bei einer Selbstabbildung 1  wird in der Regel für Quelle und Ziel von die gleiche gewählt und wir erhalten die Matrix der Selbstabbildung bezüglich der Basis Basis von   ' '    durch die Definitionsgleichung:       











V Lineare Abbildungen und Matrizen

46 4.2



Bemerkung





  





Halten wir und fest, so ist die lineare Abbildung eindeutig durch ihre Abbildungsmatrix bestimmt und zu jeder -Matrix  gibt es (genau) eine lineare Abbildung , deren Abbildungsmatrix gleich  ist. Wie sich ändert bei Benutzung anderer Basen, können wir genau erst in 7.6 auf Seite 53 formulieren.





4.3

Beispiele

1.



 1







 .

 



.

..

.

 ..

..

..

..



.





.



.

..

, die



-Einheitsmatrix.

 bezeichnet und können so beschrieben werden:     für  für    als  auftreten, 2. Die Einheitsmatrix kann bei jedem Isomorphismus 1      . nämlich bei der Wahl von  die Abbildung     1     . Dann ist 3. Sei  eine    -Matrix und )1  die Matrix von bezüglich der kanonischen Basen gerade die Matrix  . Ihre Koeffizienten werden mit











4.4



Definition

'  := Menge aller Abbildungen von nach .  '  1   linear  ;1     -Matrizen mit Koeffizienten in  Die Summe von Abbildungen ('*  Abb '  und die Multiplikation eines Skalars  mit  einer Abbildung  Abb ' wird wertweise definiert: $    1       #    1        '        und die Multiplikation eines Die Summe von zwei Matrizen    wird koeffizientenweise definiert: Skalars  mit einer Matrix    1       #  1     Abb











































V.4 Die Matrix einer linearen Abbildung 4.5

47

Satz

 ' 

' 

'   1 '  







und  1

Mit den soeben definierten Zuordnungen sind Abb und   Vektorräume über ist ein Unterraum von Abb . Bei fest gewählten Basen und ist durch   definiert.  ein Isomorphismus





4.6

Satz

 

  ' '    und   ' '  beschrieben durch:      

Eine lineare Abbildung wird durch die Koordinaten von  bezüglich  die Koordinaten   von bezüglich



 

 

  



wobei 









oder in Matrizenschreibweise durch

4.7







 

  '

ist.

Beispiele

)1 

Wir geben i. f. lineare Abbildungen angeben. 1. Für





,



und

 '  ' '     



an, indem wir die Bilder einer Basis

  ''   

setzen wir: := :=

 für   .



Dadurch ist ein Isomorphismus definiert, da eine Abbildung desselben Typs aber mit anstelle von die Umkehrabbildung ist. hat die Matrix



 

..

 



. 





..

.



V Lineare Abbildungen und Matrizen

48

' 





Nicht bezeichnete Koeffizienten sollen dabei null sein. Das ist der -te Koeffizient. Durch Koordinaten ausgedrückt, besteht diese Abbildung darin, daß die -te Koordinate mit multipliziert wird und die anderen Koordinaten beibehalten werden.





2. Für



,

'   '  ' ' 

 setzen wir:    :=   für  :=   ( .

und  







Wieder wird hierdurch ein Isomorphismus definiert; denn die lineare Abbildung vom selben Typ, aber mit anstelle von ist die Umkehrabbildung. hat die Matrix: Für 









 

..



 

.

  

.. .

..

  





.





..



.

 -te Koeffizient ist  '     sein.



Nicht bezeichnete Koeffizienten sollen dabei wieder null sein. Der das . Denn die -te Spalte muß das Koordinaten- -tupel von Durch Koordinaten ausgedrückt, erhalten wir:

     .    ..        ..     .   ...  

..

. .. .

..

.



..

.











   für   und 

 ' ' '  und  3. Für '  D. h..: 



            





 + 

     ..   .       ..     .   ..  . 

.. . 





 

 

  



.. . 

.. . 





  

setzen wir:

      

:= := :=

 für und    

Die Matrix des hierdurch definierten Isomorphismus entsteht aus der Einheitsmatrix durch Vertauschung der -ten und -ten Spalte.





In Koordinaten ausgedrückt ist dieser Isomorphismus natürlich die Vertauschung der -ten und -ten Koordinate unter Beibehaltung der anderen Koordinaten.

V.5 Der Dualraum

49

Diese Abbildungen heißen die Elementar-Abbildungen und ihre Abbildungsmatrizen ElementarMatrizen. 4.8

Definition

  sei eine    -Matrix,     eine    -Matrix. Dann ist das Matrizenprodukt    von  mit  definiert als eine   -Matrix    mit     1      für  ' ' und   ' '    <   4.9 Satz: Es gilt für eine    -Matrix  : 

















4.10

Satz

1  '  1   lineare Abbildungen von Vektorräumen über ,   ' '    '  '  '   '  ''  Basen von bzw. bzw.  . Dann gilt für die Abbil-

Sind









dungsmatrizen bezüglich dieser Basen:

 V.5 5.1 

5.2

 

  





Der Dualraum Definition

1  '  heißt der Dualraum von 



, seine Vektoren heißen Linearformen von

Bemerkung



.

   ' '   

 Ordnen wir einer Linearform ihre Abbildungsmatrix bezüglich einer Basis von und  zu, so erhalten wir einen Isomorphismus  der kanonischen Basis (1) von     , auf den Raum der Zeilen- -tupel. es ist also Dim .  

 '  

Wir zeigen jetzt, wie wir aus einer Basis von

5.3 Ist

eine Basis von

Definition

  ''    eine Basis von



, dann sei die Linearform 



finden können.

 definiert durch:

V Lineare Abbildungen und Matrizen

50



 1 



 ' 8 '  '  

5.4

















für für





ist eine Basis des Dualraumes; sie heißt die zu

  ''    duale Basis.

Definition

Die von einer linearen Abbildung durch:

1 

induzierte Abbildung der Dualräume ist definiert

1 Wenn wir untersuchen, wie die Matrix der dualen Abbildung 1 







'    1 



 





oder







(' 



bezüglich der dualen Basis aussieht, so stoßen wir wieder auf die von der Koordinatentransformation bekannte MatrizenOperation, auf das Transponieren: 5.5

V.6

Satz:





ist eine lineare Abbildung und

 







   





Der Rang

Der Begriff Rang trat zweimal auf.



1 

Einmal als Rang einer linearen Abbildung , wobei endlich erzeugt sein muß. Er gibt an wie viele Dimensionen bei erhalten bleiben; den kleinsten Rang hat die Nullabbildung

: Rg( ) = 0, den größten eine injektive lineare Abbildung : Rg( ) = Dim( ). Im allgemeinen   liegt der Rang zwischen diesen beiden Werten: Rg Dim .









Ein zweites Mal trat der Rang als Rang einer Matrix auf; genauer wird definiert: 6.1

Definition

Spaltenrang einer Matrix  := Maximalzahl linear unabhängiger Spalten von  . Zeilenrang einer Matrix  := Maximalzahl linear unabhängiger Zeilen von  .

Die Abbildungsmatrix liefert uns einen Zusammenhang zwischen linearen Abbildungen und Matrizen, wodurch sich auch eine Verbindung zwischen beiden Rang-Begriffen wird herstellen lassen. 6.2



Hilfssatz: Rg( ) = Spaltenrang von

Beweis:

 

V.6 Der Rang



51

   '    sei eine Basis von ,  '   '   eine von . Dann ist '    ''     ein Erzeugendensystem von Bild  . Ein maximales linear unabhängiges 

Teilsystem eines Erzeugendensystems ist eine Basis (vgl. den Beweis zu IV. 2.2 auf Seite 32); folglich gilt:



   ' '     .

Rg( ) = Maximalzahl linear unabhängiger Vektoren des Systems







Da die Koordinatenzuordnung ein Isomorphismus ist, folgt: Rg( ) = Maximalzahl linear unabhängiger Koordinaten- -tupel dieser Vektoren bezüglich .







Da diese Koordinaten- -tupel die Spalten der Matrix von .





sind, erhalten wir Rg( ) = Spaltenrang







Im folgenden ist unser Ziel, zu zeigen, daß der Spaltenrang gleich dem Zeilenrang ist. Dann können wir kurz vom Rang einer Matrix sprechen und es gilt: Rg( ) = Rg( ) 6.3



Hilfssatz

Bei elementaren Zeilenumformungen ändert sich der Spaltenrang nicht. Beweis:





'   '  ' '  







1. Die Multiplikation der -ten Zeile mit bedeutet in jeder Spalte den -ten Koeffizienten mit zu multiplizieren. D. h. die Spalten werden mit dem Isomorphismus aus dem 1. Beispiel von 4.7 auf Seite 47 abgebildet. Da ein Isomorphismus die Maximalzahl linear unabhängiger Vektoren nicht ändert, bleibt bei einer Zeilenumformung vom Typ I der Spaltenrang erhalten.







 2. Sei  , und . Der Addition des -fachen der -ten Zeile zur -ten entpricht in jeder Spalte der Addition des -fachen des -ten Koeffizienten zum -ten. D. h. die Spalten werden mit dem Isomorphismus aus dem 2. Beispiel von 4.7 auf Seite 47 abgebildet. Wieder folgt, da ein Isomorphismus die Maximalzahl linear unabhängiger Vektoren nicht ändert, daß bei einer Zeilenumformung vom Typ II der Spaltenrang erhalten bleibt.





'  ' ' ' 









 3. Sei . Die Vertauschung der -ten und -ten Zeile bedeutet für die Spalten die Vertauschung des -ten und -ten Koeffizienten, d. h. der Anwendung des Isomorphismus aus dem 3. Beispiel von 4.7 auf Seite 47. Wie oben folgt, daß bei einer Zeilenumformung vom Typ III der Spaltenrang erhalten. 6.4





Hilfssatz

Bei elementaren Spaltenumformungen ändert sich der Spaltenrang nicht. Beweis:

V Lineare Abbildungen und Matrizen

52





Dies liegt daran, daß ein linear unabhängiges System von Vektoren linear unabhängig bleibt, wenn ein Vektor durch sein -faches mit ersetzt wird oder zu einem Vektor ein Vielfaches eines anderen Vektors des Systems addiert wird oder zwei Vektoren des Systems vertauscht werden. 6.5

Hilfssatz

Bei elementaren Spalten- und Zeilenumformungen ändert sich der Zeilenrang nicht. Beweis: Entsprechend wie für den Spaltenrang.

   -Stufenmatrix:      8 &. &     .  &&  .. ..   ... . . . . . . . . . ... &&     && .. .  . . && . . && .. ..  .. .. && && Min '  

Wir betrachten eine







Dabei ist 6.6













. 



.. .. .

 . ..



Hilfssatz

Eine Stufenmatrix hat gleichen Zeilen- und Spaltenrang, nämlich  . 6.7

Satz und Definition

1. Rg( ) ändert sich nicht bei elementaren Umformungen. 2. Zeilenrang und Spaltenrang einer Matrix stimmen überein. Wir definieren daher den Rang einer Matrix  durch: Rg( ) := Zeilenrang( ) = Spaltenrang( )



3. Rg( ) = Rg(

V.7





) für eine lineare Abbildung



und ihre Abbildungmatrix





.

Die Allgemeine Lineare Gruppe

Im folgenden sind über  .

   ''   und  

 ''   Basen des Vektorraumes 

bzw.

V.7 Die Allgemeine Lineare Gruppe 7.1

53

Definition

Eine

  -Matrix 

7.2

Satz:

1 

1. Eine

heißt regulär, wenn Rg



Für

 

ist, andernfalls heißt sie singulär.

gilt:

  -Matrix 

ist regulär dann und nur dann, wenn sie einen Isomorphismus definiert (vgl. 4.2 auf Seite 46).

2. Für einen Isomorphismus

)1 

gilt:



  

 





3. Genau die regulären Matrizen haben bezüglich des Matrizenproduktes eine Inverse. 7.3

Definitionen

1. Ein Isomorphismus von .

<1 

eines Vektorraumes auf sich heißt ein Automorphismus

1 

2. Eine Abbildung    von einer Gruppe  nach einer Gruppe  heißt homomorph    für alle  oder ein (Gruppen-)Homomorphismus, falls    . 

 

 

'

3. Ein bijektiver Gruppen-Homomorphismus heißt isomorph oder ein (Gruppen)Isomorphismus.  (Gruppen)-Isomorphismus

7.4

Bemerkung:

7.5

Satz und Definition



 

  (Gruppen)-Isomorphismus

Die Automorphismen von bilden bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe G , die Lineare Gruppe von . Das gleiche gilt für die regulären Matrizen bezüglich des Matrizenproduktes; die von ihnen gebildete Gruppe Gl  heißt Allgemeine Lineare Gruppe zur Dimension und zum Körper  . Die Zuordnung definiert einen  Gl  . Gruppenisomorphismus G



'



' 

 



Nachdem wir jetzt die Inverse einer regulären Matrix zur Verfügung haben, können wir genau beschreiben, wie sich die Abbildungsmatrix transformiert, wenn wir in und in die Koordinaten transformieren. Außerdem können wir damit die zu einer Basistransformation gehörige Koordinatentransformation besser als früher ( 3.3 auf Seite 44) beschreiben. 7.6 Sei

Satz

1 

linear,

V Lineare Abbildungen und Matrizen

54

 ''   sei eine Koordinatentransformation in ,  '    '   '  '  sei eine Koordinatentransformation in ,   sei die Matrix von bezüglich der Basen    und  ,  sei die Matrix von bezüglich der    und 

 die Matrizen der zugehörigen KoordinatentransBasen   und  ,  formationen. Dann gilt:        

 



  





























7.7

Satz









Die zur Basistransformation  gehörige Koordinatentransformation (s. 3.3 auf Seite 44) können wir jetzt besser in der nach aufgelösten Form schreiben: 

 

V.8

  

 



       

Anwendung auf lineare Gleichungssysteme

Ein lineares Gleichungssystem

  

        & &         8   .   8 88 88  & &   8    8 .. 

        8 8  & &       schreiben wir in Matrizenform mit Koeffizientenmatrix     und inhomogener Spalte  :      Das Produkt     wurde bereits in 3.2 auf Seite 44 definiert.     heißt das zugehörige homogene Gleichungssystem.  '    1      , d. h. Zur Matrix  betrachten wir die lineare Abbildung 1   diejenige mit   bezüglich der kanonischen Basen. 









8.1

Der Lösungsraum eines homogenen Systems









, ist der Lösungsraum gleich Kern( ) und hat nach der Rangformel Im homogenen Fall, die Dimension  , wobei  = Rg( ) = Rg(  ). 7

A. Riede: Lineare Algebra 1, SS 98

V.9 Berechnung der inversen Matrix

55



Sind weniger Gleichungen gegeben als Unbekannte vorhanden, d. h. für homogenes System also mindestens eine nicht triviale Lösung.

, dann hat ein

Sind mindestens so viele Gleichungen gegeben als Unbekannte vorhanden sind, d. h. für dann gilt:

!

Das homogene System ist eindeutig (durch den Nullvektor) lösbar. 8.2

 

,

Rg( ) =

Lösungsmenge eines inhomogenen Systems



      .. Das inhomogene lineare

1. Die Lösungsmenge inhom des inhomogenen Systems ist Gleichungssystem ist also genau dann lösbar, wenn Bild 2. Es gibt eine Lösung des inhomogenen Systems.

 

!

Rg( ) = Rg(

  1          

)



3. Sei eine feste Lösung des inhomogenen Systems, dann gilt, wenn hom den Lösungs, bezeichnet: raum des zugehörigen homogenen Systems, 



V.9

inhom

   



hom

hom



Berechnung der inversen Matrix

Sind mehrere lineare Gleichungssysteme mit der gleichen Koeffizientenmatrix zu lösen, so erweitern wir einfach die Koeffizientenmatrix um alle inhomogenen Bestandteile und erhalten eine erweiterte Matrix  . Dann wenden wir das Gauß oder das Gauß-Jordan-Verfahren auf  sinngemäß an. Bei der rekursiven Auflösung müssen wir dann jeweils die erste, zweite ... Erweiterungsspalte verwenden, um die Lösung des ersten, des zweiten ... Gleichungssystems zu bekommen.







 einer regulären   -Matrix    oder ausführlich:  '  '  '  '  '  '

In dieser Situation befinden wir uns, wenn wir die Inverse berechnen wollen. ist festgelegt durch die Gleichung   



     

     8 ..

      .

 8









Dies sind lineare Gleichungssysteme mit  als Koeffizientenmatrix. Im ersten sind die Koeffizienten der ersten Spalte von die Unbekannten, im zweiten die Koeffizienten der zweiten Spalte, im letzten die Koeffizienten der letzten Spalte von . Die inhomogene Spalte des -ten Gleichungssystems ist die -te Spalte der Einheitsmatrix .











Wir wenden das Gauß-Jordan-Verfahren an und nehmen an, daß  den Rang hat. (Genau dann gibt es ja die Inverse.) Als Stufenform erhalten wir durch elementare Umformungen, wobei wegen der Rangbedingung keine Spaltenvertauschungen nötig sind und deshalb auch nicht verwendet werden:

V Lineare Abbildungen und Matrizen

56





 .

 





. ..

 ..

..

.



..

.

..

.



.  . 



..

.. .. .



 

 . 

 

.. .. . 



Die Auflösung des Stufensystems ergibt, daß die auftretende Matrix ist.

 . .. .. .





   gerade die Inverse 

VI.1 Länge, Winkel und Skalarprodukt

57

VI Metrische Größen im Anschauungsraum VI.1

Länge, Winkel und Skalarprodukt

In den Vektorraum-Axiomen sind nicht alle Eigenschaften enthalten, die die geometrischen Vektoren des Anschauungsraumes tatsächlich haben. Z. B. kann die Länge eines Vektors und zwischen zwei geometrischen Vektoren der Winkel gemessen werden. In der Tat brauchen wir diese Begriffe auch nicht, um den Begriff eines Vektorraumes zu begründen; umgekehrt können diese Begriffe auch nicht aus den Vektorraum-Axiomen abgeleitet werden! Vielmehr ist es so, daß, wenn in einem Vektorraum diese Begriffe einen Sinn machen, der Vektorraum eine weiterreichende Struktur hat als nur die Struktur eines Vektorraumes. Zunächst betrachten wir die Anschauungsebene.

1.1

Die Länge eines Vektors







 

Die Länge eines Vektors , die auch Betrag von genannt und mit bezeichnet wird, berechnet sich nach dem aus der Schule bekannten Satz des Pythagoras. Dieser begründet sich aus der Elementargeometrie, die auf ganz anderen Axiomen aufgebaut wird als den Vektorraumaxiomen, z. B. gehören dazu die Kongruenzaxiome.

 ' 8     (8  88

das Koordinatenpaar von Seien stems, dann gilt:



bezüglich eines festen kartesischen Koordinatensy-

Das Quadrat der Länge ist gegeben durch:

     8  8   88

1.2

Der Winkel



Zwei von 0 verschiedene Vektoren und der Anschauungsebene bilden zwei Winkel miteinander, von denen wir den kleineren im folgenden betrachten. Er ist nur, wenn die Vektoren zueinander entgegengesetzt sind, nicht eindeutig bestimmt; in diesem Falle haben jedoch beide Winkel das gleiche Maß  , so daß diese Zweideutigkeit für die Winkelmessung keine Bedeutung hat. Wir verwenden ein kartesisches -Koordinatensystem mit der -Achse als horizontaler Achse und der -Achse als vertikaler Achse.



8

A. Riede: Lineare Algebra 1, SS 98

.'  

VI Metrische Größen im Anschauungsraum

58







Wir schauen uns im Detail nur den Fall an, daß und in den 1. Quadranten zeigen und daß für die Winkel und  , die bzw. mit der -Achse bilden, gilt:  . Es genügt den     Winkel zwischen Einheitsvektoren, solchen mit Betrag 1, zu betrachten. Sei also .  und nach dem Additionstheorem für Für den Winkel zwischen und gilt dann







   







      







 









     8  8 Dabei seien  '  8  die Koordinaten von  ,   '  8  die von . Mit der rechten Seite von    sind wir auf einen Ausdruck gestoßen, der einen eindeutigen Sinn hat für ein beliebiges Paar von Vektoren ('  . Für  besteht seine geometrische Bedeutung darin, daß er nach   die Länge zum Quadrat von  angibt. Der Ausdruck definiert eine Abbildung: 1    ' ('        8  8 1  ('  Der Ausdruck hat Ähnlichkeit mit einer Linearform auf dem  8 , 1  8   .      '  8         - 8  8 8 8       variabel sind, bei einer  Der Unterschied besteht nur darin, daß in   und    8  8 Linearform jedoch   und  8 fest sind. Wir sehen also: Bei festem  ist  linear in der Variablen und bei festem ist  linear in der Variablen  .  (' $   ('   ('  '  +'   + ('    $ '   ('    '  '  (('  + ('  Es wird daher  eine bilineare Abbildung oder eine Bilinearform genannt. Die Bilinearität ist Anlaß dafür, daß wir  ('  als eine Art Produkt von  und ansehen können; denn, wenn wir  ('  mit # bezeichnen, so schreiben sich die Bedingungen der Bilinearität folgendermaßen:   $  " $" ' "            $$  "'         für alle Vektoren (' "'   ' und alle Skalare   . Die Additivität in jeder Variablen ist also dasselbe wie ein Distributivitätsgesetz für das Produkt. Berücksichtigen wir noch, daß  (' eine reelle Zahl, also einen Skalar, als Wert hat, so leuchtet ein, warum  ('  als Skalarprodukt von  und bezeichnet wird. den Kosinus:















































Das Skalarprodukt hat eine weitere „Produkt-Eigenschaft“, es ist kommutativ.

 ('   '   Im Sinne der Abbildung  wird diese Eigenschaft Symmetrie (in  und 

&

oder



) genannt.

VI.2 Das Vektorprodukt

59

  '   '  für alle (' . Denn   ( '  ('   ('   / + '  . Als dritte Eigenschaft notieren wir:  ('   und  ('   nur für  . Diese Eigenschaft Denn die Länge eines Vektors  zum Quadrat ist und nur für  von  heißt positive Definitheit. 

Bei einer bilinearen Abbildung ist 





Wir sahen, daß mehrere Bezeichnungsweisen für das Skalarprodukt sich anbieten. Ab jetzt werden wir die Schreibweise

(' 1  ('  



verwenden. 1.3

Bemerkung

   folgt  für     und : ('    . Dabei ist

Aus



1.4

der Winkel zwischen



und .

Anwendung: Strömung einer Flüssigkeit durch eine Fläche



Die Fläche sei ein Rechteck, das von einer Flüssigkeit mit zeitlich und räumlich konstanter Geschwindigkeit durchströmt wird. Unter dem Flächenvektor verstehen wir den auf der Fläche senkrecht stehenden Vektor, dessen Länge gleich dem Flächeninhalt von ist und der nach der Seite von zeigen soll, in die die Flüssigkeit fließt. sei die Flüssigkeitsmenge, die in der Zeit durch die Fläche fließt. Dann gilt: 





0









VI.2



Das Vektorprodukt

In diesem Abschnitt sei 2.1

0 +'

der Vektorraum der geometrischen Vektoren des Anschauungsraumes.

Definition

  '  8 '   8





8



Eine Basis von heißt positiv orientiert, falls den Fortschreitungssinn einer Rechtsschraube angibt, wenn wir in der von und aufgespannten Ebene um den kleineren Winkel in hineindrehen. Wir sagen dafür auch, daß den Schraubungssinn einer Rechtsschraube darstellen.

('

  '  8 '  

(vgl. 1.4) des von  und (' '  positiv orientiert ist, das

Seien  linear unabhängig. Dann heißt der Flächenvektor aufgespannten Parallelogramms, der so gerichtet wird, daß 





VI Metrische Größen im Anschauungsraum

60

(' 

(' 

Vektorprodukt von  , weil das Ergebnis des Multiplizierens ein Vektor ist. Es wird mit bezeichnet und auch das Kreuzprodukt des Paares  genannt.





ist also der Vektor mit folgenden Eigenschaften: 1. Er steht auf



und

senkrecht;

    =        = Flächeninhalt des von  und aufgespannten Parallelogramms ( ' ); (  stellen den Schraubungssinn einer Rechtsschraube dar. 3. (' '   Für linear abhängige (' wird definiert   1 . 2.









2.2

Koordinatendarstellung





In einem kartesischen Koordinatensystem, bei dem die zugehörige Basis bungssinn einer Rechtsschraube darstellt, hat die Koordinaten

 8      8 '       %',   8  8    ' falls  die Koordinaten  '  8 '    und die Koordinaten   '  8 '  

  '  8 '    den Schrau-



2.3

hat.

Eigenschaften

1. Das Vektorprodukt ist bilinear.

    . 3. Für eine positiv orientierte Orthonormalbasis   '  8 '    gilt:    8  &'  8     '      8 4.   "'   ( ('  + ' (  (' ( '  ( Lagrange-Identität   (' " '   Graßmann-Identität 5.            6.   Jacobi-Identität 2. Das Vektorprodukt ist schiefsymmetrisch, d. h.









VI.3









Volumen

.' ('

In diesem Abschnitt sei wieder der Vektorraum der geometrischen Vektoren des Anschau spannen ein Parallelflach oder ein Spat ungsraumes. Drei linear unabhängige Vektoren  auf. Sein Volumen wird definiert durch Grundfläche des von und aufgespannten Parallelogramms mal Höhe .





VII.0 Volumen

Um







61



zu beschreiben, betrachten wir einen auf



Dann gilt:



.' 



und

senkrechten Einheitsvektor

     



3.1

.



(vgl. VI.1 ?? auf Seite ??)

         .'          





Schließlich erhalten wir:





Formel für das Volumen:

.'   

' 









Der Ausdruck auf der rechten Seite dieser Formel ohne die Betragsstriche ist mit den Methoden der linearen Algebra besonders zugänglich und Ausgangspunkt und Motivation für das Kapitel VII auf der nächsten Seite. 3.2

Definition

1 .'   heißt das orientierte Volumen des von .' ('  aufgespannten orientierten Parallelflachs oder das Spatprodukt von .' ('  , wobei wir ein Parallelflach als orientiert ansehen, wenn für die aufspannenden Vektoren eine bestimmte Reihenfolge festgelegt ist. Sind .' (' linear abhängig,  so wird .' ('  1 definiert. 













3.3





Bemerkung

' +' 

Das orientierte Volumen ist abhängig von der Reihenfolge der Vektoren. Es ist positiv, genau  wenn  linear unabhängig und positiv orientiert sind. 3.4

Koordinatenbeschreibung

 .' (' 

  8 *  8     8  8     '  8 '   und ' 8' 

für  9

 ' 8 '   '  







A. Riede: Lineare Algebra 1, SS 98

















-    8     8   



VII Determinanten

62

VII Determinanten bezeichne im ganzen Kapitel einen -dimensionalen Vektorraum über  mit

VII.1 1.1

.

Determinantenform

Definition

 

&&      '    ' '   ' '     ' '       ' '     ' ('    ' '   1  2. Für heißt wie oben eine -fache Linearform, kurz eine -Form. 3. Eine Abbildung  1   heißt Determinantenfunktion oder Determinantenform von 1

1. Eine Abbildung des  -fachen kartesischen Produktes nach einem Vektorraum über  heißt  -fach linear, kurz multilinear, wenn bei beliebigem die   und beliebigen aber festen Vektoren     Zuordnung    ein lineare Abbildung ist; d. h., wenn in jeder Variablen linear ist. 







, falls sie folgende Eigenschaften hat: a) b) c)

1.2

 

ist multilinear. ist alternierend, d. h.



   ' '   

für alle linear abhängigen

Nullabbildung.

Folgerungen:

Für eine Determinantenform



   ' '     '     '    ' '       ' '   

gilt:

1. Scherungsinvarianz:



2.

VII.2



  ' '   .

für

 '  '   ' '  

   ' '   ' '  ''       ' '  ''   ' '   



ist schiefsymmetrisch; d. h.:

Das Signum einer Permutation

für







Wir wollen die 2. Formel aus 1.2 auf beliebige Permutationen  der verallgemeinern. Das dabei auftretende Vorzeichen heißt das Signum von  . Eine Vertauschung der können wir auch als Vertauschung der Indizes aufschreiben. Die genaue Definition kann folgendermaßen gegeben werden:





VII.2 Das Signum einer Permutation 2.1 Sei

63

Definition

1  

das Polynom in



Variablen mit

 8 $                     8     8  &&     8   ' '    1     $                  sich von Für  $ := Permutationsgruppe von ' '  '  unterscheidet   '  '     ''    nur um das Vorzeichen; dieses heißt das Signum der Permutation  , es wird mit sgn( ) bezeichnet. Die Definitionsgleichung für das Signum lautet also:   ' '    sgn     ' '    



 











2.2 Für













heißt

 '  











Charakterisierung durch Inversionen

  



eine Inversion von 



  , wenn      ist.

   die Anzahl der Inversionen von  , dann gilt:  sgn( ) =   2.3 Definition:   heißt gerade, falls sgn( ) = 1 ist, sonst ungerade.  2.4 Satz: sgn( ) = sgn( )  sgn( ) für alle ,'  .  Sei





2.5







Folgerungen

1. Die Komposition zweier gerader Permutationen ist gerade. 2. Die Komposition zweier ungerader Permutationen ist gerade. 3. Die Komposition einer geraden Permutation und einer ungeraden ist ungerade. 4. Die geraden Permutationen bilden zusammen mit der Komposition eine Gruppe; sie heißt die Alternierende Gruppe. 2.6

Charakterisierung durch Transpositionen

'   '  ' '  mit  vertauscht und die ' # bezeichnet wird.

Ein Permutation, die genau zwei Elemente anderen fest läßt, heißt eine Transposition, die mit

) 

Jedes  läßt sich als Komposition einer Anzahl von Transpositionen darstellen. Die Anzahl der Transpositionen bei jeder solchen Darstellung von  ist immer gerade oder ungerade, je nachdem, ob  gerade oder ungerade ist. Es gilt also

VII Determinanten

64

 

sgn( ) = wenn

2.7





,

die Anzahl der Transpositionen bei einer solchen Darstellung ist.

Satz: Für eine Determinantenform

   ' '   

  '

'



gilt:

' '

sgn  für alle   Diese Bedingung ist äquivalent zur schiefen Symmetrie.





VII.3 3.1









Die Frage nach Existenz und Eindeutigkeit

Satz



(





Eine Determinantenform ist nicht eindeutig, da mit  und wieder eine Determinantenform ist. Jedoch ist dies die einzige Unbestimmtheit. Es gibt bis auf ein skalares genau eine Determinantenform von . Vielfaches

 

     die lineare Darstellung der VektoSei  ''  eine feste Basis von und    ren   ''  durch die Basis. Dann gilt: (vgl. X.4 auf Seite 109)  1. Für eine beliebige Determinantenform  ist    '  '     sgn       8 8  && &   &  ' '   .  2. Die Funktion     '  8 '  '   1 sgn         8 8  &&     ist eine Deter  und      = kanonische Basis bezeichnen wir diese Deminantenform. Für terminantenform mit  ; sie heißt kanonische Determinantenform von  . Mit dieser Be  zeichnung schrebt sich die 1. Formel als:    ' '        '  '     ' '  

























































VII.4 4.1

Anwendung auf lineare Abbildungen

Satz

und seien -dimensionale Vektorräume über  . eine Determinantenform für . Dann ist

1 

  ''         '  '    

entweder eine Determinantenform für

oder die Nullabbildung.

eine lineare Abbildung und



VII.6 Berechnung der Determinante 4.2

65

Definition



1. Ist zusätzlich zu den Voraussetzungen des Satzes 4.1 auf der vorherigen Seite eine Determinantenform für , so gilt wegen VII.3 auf der vorherigen Seite und dem Satz 4.1 auf der vorherigen Seite

    '  '     #   ''    für einen Skalar  .  heißt die Determinante von bezüglich  und  , kurz  Det .  und nennen den Skalar  in der Gleichung 2. Ist , so wählen wir      ' '          ' '    die Determinante von , kurz Det( ); sie hängt nicht von der Wahl von  ab. 







4.3

Satz

!



1. Det( )

ist ein Isomorphismus.

2. Det(

  ) = Det( )  Det( )

3. Ist

ein Isomorphismus, dann gilt: Det(

VII.5 5.1



Determinante einer

Definition

 

 

 

Zu gegebener -Matrix   für eine Wahl einer Basis von









5.2

Satz:

5.3

Satz

Det

1. Det( )



 

2. Det 3. Det



4. Det



  

 





! 



Det Det Det









 sgn

-Matrix

wählen wir eine lineare Abbildung und setzen:

Det Det( ) hängt nicht von der Wahl von

  ) = Det    





1

und der Basis von



ab.

     8 8  &&     













invertierbar.

 Det       , falls 



Det

invertierbar ist.











1 

mit

VII Determinanten

66

VII.6

Berechnung der Determinante



   sei eine   -Matrix mit Koeffizienten in

6.1

Verhalten der Determinante bei elementaren Umformungen



.



1. Bei Multiplikation einer Zeile (Typ ZI) oder Spalte (Typ SI) mit einem Skalar ziert sich die Determinante mit .



multipli-

2. Bei Addition einer mit einem Skalar multiplizierten Zeile (Typ ZII) bzw. Spalte (Typ SII) zu einer anderen Zeile bzw. Spalte ändert sich die Determinante nicht.



3. Bei Vertauschung zweier Zeilen (Typ ZIII) oder Spalten (Typ SIII) multipliziert sich die . Determinante mit

6.2

Stufenform

1. Sei  St eine Stufenform, in die  durch elementare Umformungen vom Typ ZII, ZIII, SII übergeführt worden sei (vgl. Gaußverfahren). Dann gilt:





   '

 Det  Det  St wenn -mal zwei verschiedene Zeilen und  -mal zwei verschiedene Spalten vertauscht wurden (vgl. den 3. Punkt von 6.1). 



2. Eine Stufenmatrix ist ein Spezialfall einer oberen Dreiecksmatrix, wobei die Sterne irgendwelche Koeffizienten bezeichnen:

   . ..

 



8 8.

 ..

.

..

.

. ..



      für  .  

D. h. in einer Dreiecksmatrix ist per Definition 

<      &&   3. Die Determinante einer oberen Dreiecksmatrix ist: Det  88  



..





6.3



Definition



 

  ' '

Für eine weitere Berechnungsmöglichkeit benötigen wir folgende Begriffe.

1

Sei  Det  ,  nische Basis von  . 



  ' '   

seien die Spalten von  für sei die kano und  sei die kanonische Determinantenform (s. 3.1 auf Seite 64). Dann wird

VII.8 Anwendung auf lineare Gleichungssysteme

67

 von   definiert durch:              ..     .   



                                                            ...                        Die Determinante der Matrix   , die aus  dadurch entsteht, daß die -te Zeile und die  -te Spalte weggelassen wird, heißt '   -te Streichungsdeterminante. das algebraische Komplement 











































































Hilfssatz:

6.5

Laplace´ scher Entwicklungssatz



1. Die Entwicklung nach der -ten Zeile lautet:





2. Die Entwicklung nach der -ten Spalte lautet:

7.1











      

6.4

VII.7























 

 





    

  

    

 

Anwendung auf den Rang

Definition

  

   

  

 Zeilen und  Spalten heraus, so heißt die Streichen wir in einer -Matrix   -Matrix eine  -reihige Unterdeterminante von  . Determinante der so entstehenden 

7.2 Für 

Satz



 





ist Rg( ) = 

!



Es gibt eine von null verschiedene  -reihige Unterdeterminante, aber keine von null verschiedene  -reihige Unterdeterminante mit   .

VII Determinanten

68

VII.8

Anwendung auf lineare Gleichungssysteme

Cramersche Regel





       '   und Rg( ) = . Dann  berechnet sich nach der Formel:

 Sei  ein lineares Gleichungssystem mit  ist das Gleichungssystem eindeutig lösbar und die Lösung







          8  8  <&&&    

           . . . . . .    . . .             

 





VII.9 9.1



       .  ..   







 







 .   ..      

Orientierung

Satz



Sei eine Determinantenfunktion für einen reellen Vektorraum . Dann gibt es unabhängig von der Wahl der Determinantenfunktion zwei nicht leere Klassen von Basen

  ' '      ''      ' '       ''      

Es gehören zwei Basen genau dann der gleichen Klasse an, wenn die Matrix der Basistransformation positive Determinante hat. 9.2

Definition

Eine Orientierung eines reellen Vektorraumes besteht darin, eine der beiden Klassen auszuzeichnen und Klasse der positiv orientierten Basen zu nennen.

VIII.1 Das Standard-Skalarprodukt im



69

VIII Vektorräume mit Skalarprodukt 1 Dieses Thema wird in Kapitel XII auf Seite 141 fortgesetzt.

VIII.1 1.1

Das Standard-Skalarprodukt im



Bemerkung

In Kapitel VI haben wir Vektoren der Anschauungsebene betrachtet. Die Beziehung des Satzes von Pythagoras, des Längen- und Winkelbegriffs der Elementargeometrie zum Skalarprodukt läßt erwarten, daß umgekehrt der , mit dem Skalarprodukt

+' 1      8  8 



8

für





 8

 

8



und





8



 

8

ein geeignetes Modell für die Anschauungsebene oder für die euklidische Ebene liefert. Die darauf begründete Geometrie wird Analytische (euklidische) Geometrie genannt im Gegensatz zur Synthetischen (euklidischen) Geometrie, die auf Begriffen wie z. B. der Kongruenz beruht (s. E. Kunz: Elementargeometrie, vieweg). Dies gilt entsprechend für den Anschauungsraum und wird uns ganz allgemein zum Begriff eines -dimensionalen euklidischen Raumes führen. 1.2

Definition

Das Standard-Skalarprodukt im

(' 1          

1.3

 ,   f"ur

, ist definiert durch:

  ''    '

' '   

  

Eigenschaften

Das Standard-Skalarprodukt hat folgende Eigenschaften:

    

' ('   (' 7 D. h. bei festem  ist es linear in der Variablen  : (' $ ('  (' ' ('   +'  $ ' ('   ' '  ('  +' 

1. Bilinearität der Abbildung: linear in der Variablen und bei festem 



10









A. Riede: Lineare Algebra 1, WS 99/00









ist es

VIII Vektorräume mit Skalarprodukt 1

70

"'  3. Positive Definitheit: (' # 2. Symmetrie:

(' 



(' 

und



nur für



.

Beweis: Die Bilinearität ergibt sich wieder durch Vergleich mit einer Linearform. Die Symmetrie ist natürlich eine Folgerung aus dem Kommutativitätsgesetz für die Multiplikation in . Die positive Definitheit folgt daraus, daß eine Summe von Quadraten reeller Zahlen ist und nur dann, wenn die reellen Zahlen selbst alle null sind.



1.4

Bemerkung zur Verwendung von







Es ist hier nicht etwa die Behandlung eines vertrauten Falles, warum wir den Körper der reellen Zahlen benutzt haben, sondern weil wir für die Formulierung der positiven Definitheit einen angeordneten Körper brauchen. 1.5

Definitionen

Wir haben in Anschauungsebene und Anschauungsraum gesehen, daß Begriffe wie Länge und Winkel aus dem Skalarprodukt abgeleitet werden können. Dementsprechend definieren wir im :

 

 1  (' # 2. Der Winkel ('  zwischen zwei Vektoren  und , gemessen im Intervall  '   , wird durch den Kosinus erklärt:   1  ('     oder äquivalent gilt:  Diese Definition macht nur Sinn, wenn             (' 

1. Die Länge oder der Betrag oder die euklidische Norm eines Vektors ist:  



















Diese Ungleichung heißt die Cauchy-Schwarzsche Ungleichung, die tatsächlich richtig ist, was in Abschnitt 3.5 auf Seite 73 bewiesen wird. 3. heißt senkrecht oder orthogonal zu : d. h.   .



VIII.2

 

! ('

Das Standard-Skalarprodukt im









Im folgenden bezeichne der Querstrich die konjugiert komplexe Zahl. Wir beachten:

  !

Allgemeines Skalarprodukt 2.1

71

Definition



Sei von



und

  ''   

' ' 

,



  

erklärt durch:

  . Dann ist das Standard-Skalarprodukt

(' 1            ' '     

  



 . ..





 

Dabei geben die letzten beiden Ausdrücke die Matrizenform des Standard-Skalarproduktes an.

2.2

Eigenschaften

Die Abbildung

 1    

mit

 ('  1 (' 



ist

1. linear in der ersten Variablen 2. additiv in der zweiten Variablen

 ('     +'  bzw. (' 

3. semi-homogen in der zweiten Variablen, d. h.

 +'





 "'    ( '  bzw. "'  (' Insbesondere gilt für  :  ('    ('   d. h.  ('    d. h. +'    5. positiv definit d. h. ('   ('  und genau für  . 4. semi-symmetrisch d. h. 





VIII.3 3.1

Allgemeines Skalarprodukt

Definition

ein -Vektorraum. Dann ist ein Skalarprodukt auf  1    odermit und den Eigenschaften 1 bis 5. Für  gilt:  = 

Sei









semi-homogen = semi-symmetrisch =

homogen symmetrisch

eine Abbildung

VIII Vektorräume mit Skalarprodukt 1

72 3.2

Beispiel

 '   '   ' 1 ) 1   '     stetig +'  ('  1  0   0  4 0

Seien

.

Hierdurch ist ein Skalarprodukt auf definiert, was aus der Linearität des Integrals, der Vertauschbarkeit von komplexer Konjugation und Integral und der Positivität des Integrals stetiger Funktionen folgt. In der Analysis sind verschiedene Funktionenräume interessant, die aus integrierbaren Funktionen bestehen. Da eine unstetige integrierbare Funktion ungleich null sein kann, obwohl ihr Integral verschwindet, kommt es vor, daß in diesen Räumen kein Skalarprodukt mehr liefert, da es nicht mehr positiv definit ist. Um doch einen Vektorraum mit Skalarprodukt zu erhalten, wird der Unterraum der Nullfunktionen betrachtet; das sind die  Funktionen, deren Integral 0 ist. Auf dem Quotientenraum der integrierbaren Funktionen modulo der Nullfunktionen besteht dann wieder ein Skalarprodukt.

 0 0 4 0



3.3



Definition



 1 +' 

Auch in einem allgemeinen Vektorraum mit Skalarprodukt wird die Norm (Betrag bzw. Länge)   eines Vektors definiert durch: 3.4



Eigenschaften



und 



 

1.



('





und



(               3.  

2.



gilt:





genau, wenn 

4. Satz der Pythagoras:



 



  8    8  



8

Beweis: 1. Positive Definitheit von

'

.

2. Leicht nachzurechnen 3.



  8

  "'  +'   ('  '   +'   ('  ('   +'    Re ('   





' ' ' 





, da

    Re  

Allgemeines Skalarprodukt  

  8    8 4.     8   8 







3.5



73

(' #   ( ' #      8          ' 

    ('          8   +'   

 "' , da Re       ' wegen 3.5  8 ( '   ' #  ' 





 









Satz: Cauchy-Schwarzsche Ungleichung 

('







  

=



('  linear abhängig !



Beweis:

- '  folgt: ( "' (   (' #    +'    "'     ' Für und  1 ' folgt nach Division durch  :  ('    +'   '     für Setzen wir  1  +' :  + '     '   (' ('  (' ('  (' ('   8  8     (' 8 ('  . Dies gilt auch für , da beide Seiten dann gleich . b) Ist ('  linear unabhängig, dann ist  '  und es gilt in der ersten Ungleichung von a) das -Zeichen, also auch in der Cauchy-Schwarzschen Ungleichung. Gleichheit kann also höchstens bei linear abhängigen ('  auftreten.  und c) Sei umgekehrt ('  linear abhängig. Dann ist etwa  ein Vielfaches von ,  es gilt für die linke Seite der Ungleichung:  ('    '    '      '       8 . Für die rechte kommt das gleiche heraus:    5      :       :      8 Bei linear abhängigen ('  gilt daher das Gleichheitszeichen.

a) Für



























































3.6

Definition





Ein euklidischer Vektorraum ist ein -Vektorraum mit Skalarprodukt und ein -Vektorraum mit Skalarprodukt heißt ein unitärer Vektorraum.

VIII Vektorräume mit Skalarprodukt 1

74 Im folgenden sei

3.7

stets ein Vektorraum mit Skalarprodukt.

Definition

  ' '    ' '

  1    '  

Ist eine Basis des Vektorraumes  mit den Koeffizienten  .

VIII.4 4.1



 '

 

mit Skalarprodukt , so heißt die -Matrix die Matrix des Skalarproduktes bezüglich

Orthonormalbasen

Definition

 ' '   

Es gibt in einem Vektorraum mit Skalarprodukt sogenannte Orthonormalbasen, das sind Basen  von mit:

'



 ' 

d. h.

  

für

 

und



 

'   ' '

für

 

Äquivalent mit dieser Bedingung ist, daß die Matrix des Skalarproduktes bezüglich einer Orthonormalbasis die -Einheitsmatrix ist, und damit wieder äquivalent ist, daß das Skalarprodukt die folgende Form hat:



(' 



   

für

       

und





    

Koordinaten bezüglich einer orthonormierten Basis heißen kartesische Koordinaten.

4.2

Bemerkung

 ' '   orthonormiert   ' '   linear unabhängig 



Beweis:

           '         '  





=



=



=









=



"'  '   ' ' 

VIII.4 Orthonormalbasen 4.3

75

Orthonormalisierungsverfahren von E. Schmidt

' ' 

Das im folgenden beschriebene Verfahren formt jede beliebige Basis von in eine  orthonormierte Basis von um, so daß folgende lineare Hüllen übereinstimmen: 

' '   ''     ''    für  ' '     .     1. Schritt: 1   Dann ist   und     2. Schritt: 8 1 8    für ein  Dann ist   ' 8    ' 8  . 3. Schritt: Wir suchen  so zu bestimmen, daß    8 wird; dazu muß gelten:  ' 8  ' 8    '   ' 8   Es folgt:    ' 8 .    ,     und   '    '   4. Schritt:  8 1  8  Dann ist    8 ,  8 8 8 8 So wird induktiv fortgefahren.  ' '



für Induktionsannahme: Seien   ''  gefunden mit   '   ' '  und   '  '     ' '    für  '   '

Induktionsschluß: Der Schritt von

auf  : 1. Schritt: %1 -        '  . Dann ist:   ' '     ' '  '    '  ' so zu bestimmen, daß    wird für alle 2. Schritt: Wir suchen   für   ' ' ; dazu muß gelten:  ' %  '  3   '   ' %  

Es folgt: 

  '  .  3. Schritt:  1       '  '   und  Dann ist     für und i,j=1,. . . ,k+1 ,   für   ' '     '    .













 





 



 



 



 

 

 

 

 

 

 

 

 

 

VIII Vektorräume mit Skalarprodukt 1

76 4.4

Folgerungen

Für endlich erzeugten Vektorraum

gilt:

1. Es gibt eine Orthonormalbasis.

 ''  Vektoren eines -dimensionalen Vektorraumes mit Skalarprodukt, so daß   '   für '   ' ' gilt. Dann lassen sie sich zu einer orthonormierten 

2. Sind



Basis ergänzen. Beweis:

endlich erzeugt

1.



  ' '  

Basis; orthonormalisiere diese.

  zu einer Basis, orthonormalisiere diese. Die Orthonormalisierung 2. Ergänze nach Schmidt läßt die ersten schon orthonormalen Vektoren ungeändert. VIII.5 5.1



Die orthogonale und unitäre Gruppe

Satz

Für ein kartesisches Koordinatensystem

Dabei bezeichnet

'

(' 



auf

gilt:

 ' 

('



wieder das Standard-Skalarprodukt auf 



.

Beweis:

 ('

      '

  

   

    '       

        '    '    

  

Das kartesische Koordinatensystem gehöre zur orthonormierten Basis     sei  . 

= = =

  ' '    von

und es

Die Koordinatenzuordnung ist also eine lineare Abbildung, bei der das Skalarprodukt zweier Vektoren gleich dem Skalarprodukt der Bildvektoren ist, kurz die das Skalarprodukt erhält. Solche Abbildungen heißen Isometrien, genauer wird definiert:

Die orthogonale und unitäre Gruppe 5.2

77

Definition

1 

Sei linear und seien Isometrie, falls gilt:



Im Falle  nach . 5.3

heißt



und 

-Vektorräume mit Skalarprodukt. Dann heißt f eine

  '  (' (' 

auch eine orthogonale im Falle







eine unitäre Abbildung von

Beispiele

1.

1   

aus 5.1 auf der vorherigen Seite.

2. Id , -Id = Spiegelung am Nullpunkt 



$1  4. Ist 1 

 1 #  1  

3. Sind und über  , dann ist auch

Isometrien zwischen Vektorräumen mit Skalarprodukt eine Isometrie.

eine bijektive Isometrie, dann ist auch

1 

eine Isometrie.

 1  8   8 um den Winkel :                      8 8 Der Name kommt daher, daß ('    ist für alle   8 .  Z. B. die Drehung um wird beschrieben durch:    8 '  8   . 6. Sei  eine Gerade eines dreidimensionalen euklidischen Vektorraumes durch , d. h. ein eindimensionaler Untervektorraum von . Wir wählen eine Orthonormalbasis, bei der die ersten beiden Vektoren auf  orthogonal sind und der dritte in  liegt. Dann heißt die lineare Abbildung, die in zugehörigen kartesischen Koordinaten durch                8          8     beschrieben wird, eine Drehung von mit der Drehachse  . 5. Die Drehung



5.4 Sei



Lemma

1 

Isometrie

Beweis:

!

linear und

-dimensional. Dann gilt:

  ''    

orthonormal, falls

  ' '   

orthonormal.

VIII Vektorräume mit Skalarprodukt 1

78 „



“: klar

          '      . ('  =           '              =     '       

  =         '       

=         

=        '     

=     '     = ('



“: Seien





5.5

Frage



Wie kann der Matrix  Basis angesehen werden, ob 5.6





eines Endomorphismus eine Isometrie ist?



von

bezüglich einer orthonormierten

Antwort und Definition

  ' '    1. Die Spalten   von  sind bezüglich des Standard-Skalarproduktes von  orthonormiert,   



d. h. ' '   '' 2. Die (transponierten) Zeilen   von  sind bezüglich des Standard-Skalarproduktes von 

 orthonormiert, d. h.  '   '   ''  3.     d. h.  ist invertierbar (d. h. invertierbar) und   

ist genau dann eine Isometrie, wenn seine Matrix  bezüglich einer orthonormierten Basis  eine der folgenden untereinander äquivalenten Bedingungen erfüllt: 













Eine Matrix, die diese Bedingungen erfüllt, heißt für eine unitäre Matrix. 



eine orthogonale im Falle 



Die orthogonale und unitäre Gruppe

79



ist also genau dann eine Isometrie, wenn seine Matrix bezüglich einer orthonormierten Basis im reellen Falle eine orthogonale bzw. im komplexen Falle eine unitäre Matrix ist.

     '     =  

wegen des Lemmas !

   '   =  wegen 5.1 auf Seite 76 ! ' = , weil die Koordinaten des Bildes des -ten Basisvektors die -te Spalte der Abbildungsmatrix bilden. Damit ist gezeigt, daß Isometrie mit der ersten Bedingung äquivalent ist. '  !      ! b) Matrizenform von ' (s. 2.1 auf Seite 71)     !    !     Also ist die erste mit der dritten Bedingung äquivalent.   !   c)     '  

 !      ! Beweis: a) Isometrie



!

  









Damit ist die Äquivalenz der zweiten und dritten Bedingung erwiesen. 5.7

Satz und Definition

Sei . Unter einer Isometrie von verstehen wir eine Isometrie von nach . Die Isometrien von bilden bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe. Sie heißt die Isometriegruppe von . Im Falle  wird sie auch Orthogonale Gruppe von   genannt und mit bezeichnet; im Falle wird sie auch Unitäre Gruppe von genannt  und mit bezeichnet.





Beweis:

+' 

Isometrien von









 

Isometrie von

(s. 5.3 auf Seite 77, 3. Beispiel)

Id ist eine Isometrie, also gibt es ein neutrales Element. 



Wegen 5.6 auf der vorherigen Seite ist jede Isometrie von auch ein Isomorphismus. Nach 5.3 auf Seite 77, 4. Beispiel ist die Umkehrabbildung ebenfalls eine Isometrie. Es gibt also zu jedem Element ein Inverses. 5.8

Satz und Definition

$  ' '    

  

Sei  eine orthonormierte Basis. Dann bildet die Zuordnung (=  Matrix von bezüglich ) die Menge der Isometrien von bijektiv auf die Menge der orthogonalen bzw. unitären Matrizen ab, wobei der Hintereinanderausführung das Matrizenprodukt entspricht. Daher bilden die orthogonalen Matrizen mit der Matrizenmultiplikation ein Gruppe,  die Orthogonale Gruppe zur Dimension .  ist ein von abhängiger  Gruppen-Isomorphismus. Entsprechend bilden im komplexen Falle die unitären Matrizen eine 



 '    



VIII Vektorräume mit Skalarprodukt 1

80









 zu isomorphe Gruppe, die Unitäre Gruppe zur Dimension . Da wir für bezüglich des Standard-Skalarprodukt eine kanonische orthonormierte Basis haben, gibt es einen  kanonischen (einen vor allen anderen ausgezeichneten) Isomorphismus  bzw. . Daher wird auch  bzw. Orthogonale bzw. Unitäre Gruppe zur Dimension genannt und ebenfalls mit  bzw. bezeichnet.

      

5.9

   

     

 



Satz und Definition

   1     Det        1    Det   

ist eine Gruppe, die Spezielle Orthogonale Gruppe. ist eine Gruppe, die Spezielle Unitäre Gruppe.

IX.2 Bestimmung von Eigenwerten und Eigenvektoren

81

IX Eigenvektoren und Eigenwerte

 

In diesem Kapitel wird ein Körper mit unendlich vielen Elementen wie etwa , zugrundegelegt, da für endliche Körper ein anderer Begriff eines Polynoms verwendet werden muß. (S. den Anfang von Kapitel! X auf Seite 106!)

IX.1 1.1

Diagonalisierbarkeit Problem

1  eines -dimensionalen Vektorraumes   ' '   von , so daß  besonders einfache Gestalt

Gegeben sei eine lineare Selbstabbildung  über dem Körper  . Gibt es eine Basis annimmt? Z. B. Diagonalgestalt?





  





. . 8 .. .

..

.

..

.



..



 Wenn es eine solche Basis gibt, so sagen wir, daß diagonalisierbar ist. Dies bedeutet, daß jeder  Basisvektor in ein Vielfaches von sich selber übergeht:    1.2



.



.



Definition



Ein heißt Eigenvektor zum Eigenwert Eigenvektor mit EV und Eigenwert mit EW ab.



heißt ein Eigenwert von

1!

  -Matrix 



1 !  

und

 . Wir kürzen

Es existiert ein Eigenvektor zum Eigenwert .

1   

Indem wir eine in Beziehung zur linearen Abbildung sehen,   deren Abbildungsmatrix bezüglich der kanonischen Basis  ist, sprechen wir auch von EV und EW einer Matrix  . 1.3



Notwendige und hinreichende Bedingung für Diagonalisierbarkeit

diagonalisierbar

IX.2

!

Bestimmung von Eigenwerten und Eigenvektoren

 '  '  Id   ! 

Sei

Es gibt eine Basis aus Eigenvektoren.





.







ist EV zum EW Kern Id

!   !   

!

IX Eigenvektoren und Eigenwerte

82 Es gibt zu Isomorphismus 2.1

Satz: Sei



 !





' '

ist EW von

Det(





Id) = 0.

! 

zum Eigenwert .

  ' '    eine Basis von   ' '   Det(  Id) = Det(   )=  .      *  .  8 .   8  . . . . ..  =  sgn    ... . . . . . .                                    <&&&    1  Det( ) = Det( ). (" setzen) 4. 







1



heißt das charakteristische Polynom von ,





 



 

Id).







Definition

chung von . 2.3









Kern(

   







und







und





Id ist kein

. 

3. Sei im folgenden  . Dann folgt: 

2.2



einen Eigenvektor Kern( Id) Det( Id) = 0. Wir erhalten folgenden Satz:

! 2.  ist ein EV von

1.

 !



! 





bezüglich 

  = 















die charakteristische Glei-

Feststellungen





1. Die Eigenwerte von sind die Nullstellen des charakteristischen Polynoms von . Zur Bestimmung der Eigenwerte müsssen also die Nullstellen des charakteristischen Polynoms berechnet werden.





2. Ist ein EW gefunden, so sind die Koordinaten der EV zum EW Lösungen des homogenen linearen Gleichungssystems  Id 2.4

Beispiele





8



'



'



die nicht trivialen .



 hat für  d. h. für 1. Die Drehung des um und Id und Id, keine Eigenvektoren. Der einzige EW von Id ist 1 und alle Vektoren sind Eigenvektoren zum EW 1. Der einzige EW von -Id ist -1 und alle Vektoren sind EV zum EW -1.







IX.3 Hauptachsen selbstadjungierter Abbildungen

83

         1 2. 1  8   8 sei definiert durch   8 8            8 . Daher ist " der einzige Eigenwert. Für "  folgt       8  . Um die Eigenvektoren zum EW 1 zu bekommen ist also die lineare    mit   sind die Eigenvektoren Gleichung 8 zu lösen. Die Vektoren   zum EW . Es gibt keine Basis aus Eigenvektoren! ist nicht diagonalisierbar!  1    beliebig oft differenzierbar  . 4 1  sei die Ableitung. Für 3. Sei 1 0  1  '  fest, 0  folgt: 4  0  0    0  ' d. h. 4  Die Funktion  ist also ein Eigenvektor von 4 zum Eigenwert ,  wird auch Eigen































funktion genannt.

         hat die Eigenwerte -1 und 1.   4. Die Matrix   8 '  '   ist      '  '  und  '  '   sind linear unabhängige ein Eigenvektor zum EW  .  8 Eigenvektoren zum Eigenwert 1.   '  8 '   ist eine Basis aus Eigenvektoren. Als Diagonalisierung erhalten wir die Matrix:       Dieses Beispiel ist der Schlüssel zur Anwendung der Eigenwerttheorie in der Analysis.



IX.3 3.1

Hauptachsen selbstadjungierter Abbildungen Bemerkungen

'   ' 

:'  

  ' '   

Wir betrachten einen -dimensionalen Vektorraum mit Skalarprodukt über  ; sei   Id  oder (kK= komplexe Konjugation). sei eine beliebige orthonormierte Basis. Zu einer orthonormierten Basis gehörige Koordinaten werden kartesische Koordinaten genannt. 1. Das Skalarprodukt lautet in einem beliebigen kartesischen Koordinatensystem wie folgt und kann als Matrizenprodukt geschrieben werden:

('            ' '       ' '    



für

        '





     

IX Eigenvektoren und Eigenwerte

84

   



(' 

2. Bei orthonormierter Basis erhalten wir die -te Koordinate larprodukt mit dem -ten Basisvektor:

 

eines Vektors als das Ska-

Beweis: 1. Dies folgt unmitelbar aus der Orthonormiertheit der Basis und der Definition des Matrizenproduktes.

(' 

2.

3.2

       ' 





       '  



 







Definition und Satz

Eine lineare Abbildung

1 

heißt semi-symmetrisch oder selbstadjungiert :

!

Eine der folgenden untereinander äquivalenten Bedingungen ist erfüllt:

  ' ( '  für alle (' . 2.   '   '   für alle  '  ' ' 3. Die Matrix    ist semi-symmetrisch d. h. per Definition   für alle  '

'' . 

1.











 



oder



Die Bezeichnung semi-symmetrisch ist klar, woher die Bezeichnung selbstadjungiert kommt, wird sich in dem Abschnitt 4.1 auf Seite 87 ergeben. Beweis:



1.

2.: Klar

 2.



1.: Indem beliebige Vektoren durch die Basis dargestellt werden und die Linearität des Skalarproduktes in der ersten Variablen und die Semilinearität in der zweiten ausgenutzt wird, ergibt sich die erste Bedingung aus der zweiten.

!

    

  '  '  

 

    ist also die 2 3.: Es gilt nach Definition der Abbildungsmatrix .  , die wir auch durch Bilden des Skalarproduktes mit mit -te Koordinate von erhalten können, also folgt:

   '

  ! 

3.3





 ' ! 







Definition

1 





 ' '   

    und  Sei linear und selbstadjungiert und  . Sei       orthonormiert.  sei diejenige lineare Abbildung, die bezüglich der kanonischen  Basis von die gleiche Matrix  hat wie bezüglich . Wir nennen  eine komplexe



1     



' '





IX.3 Hauptachsen selbstadjungierter Abbildungen

85



Erweiterung von . In Abschnitt XII.3 auf Seite 145 werden wir die komplexe Erweiterung systematisch behandeln. 3.4

Satz



Wir betrachten 1.



als unitären Raum bezüglich des Standardskalarproduktes. Dann gilt:

selbstadjungiert

2. Für 





ist ebenfalls selbstadjungiert.



sind die Eigenwerte einer selbstadjungierten Abbildung alle reell.



3. Damit hat auch für 

ein selbstadjungierte Abbildung (reelle) Eigenwerte.

Beweis:





1. Die erste Behauptung folgt einfach daraus, daß und  die gleiche Matrix haben bezüglich orthonormierter Basen und eine reell semi-symmetrische Matrix auch komplex semi-symmetrisch ist. 2. Sei ein Eigenwert und

 ' (' # (' #



ein zugehöriger Eigenvektor. Dann folgt:

('   wegen der Selbstadjungiertheit (' #  (' # 1 (' 





3. Da und  die gleiche Matrix haben bezüglich orthonormierter Basen, haben sie das gleiche charakteristische Polynom. Da das charakteristische Polynom von  vollständig in Linearfaktoren zerfällt mit lauter reellen Nullstellen, gilt dies auch für . 3.5



Satz und Definition



Eine selbstadjungierte Selbstabbildung von hat bezüglich einer geeigneten orthonormierten Basis Diagonalgestalt, d. h. sie ist eine Streckung in zueinander senkrechten Richtungen mit den Streckungsfaktoren , wobei die Eigenwerte von sind. Die von diesen Basisvektoren aufgespannten eindimensionalen Untervektorräume heißen Hauptachsen von . Die Transformation auf eine solche Basis heißt Hauptachsentransformation. Wenn keine verschiedene Id . Eigenwerte hat, sind die Hauptachsen nicht eindeutig bestimmt; z. B. für



 : Klar  sei  ein Eigenwert und  Für





Beweis: Induktion nach :

ein Eigenvektor dazu.









IX Eigenvektoren und Eigenwerte

86

Beachte: Auch jedes von null verschiedene Vielfache eines Eigenvektors mit dem gleichen Eigenwert.





ist ein Eigenvektor

%1     ist ebenfalls Eigenvektor zum Eigenwert  . Sei  '  ''   eine Ergänzung von    zu einer orthonormierten Basis von . Dann gilt: 8              ...  Die Nullen in der ersten Spalte kommen daher, daß   Eigenvektor ist, die Nullen in der ersten Zeile müssen dann wegen der Semisymmetrie der Matrix stehen. Wegen letzterem folgt für 1   8 '  '       für   '  ' d. h.   . Wir können einschränken auf und erhalten eine lineare Abbildung  1  ,    1    ist wieder ein Vektorraum mit Skalarprodukt, das Skalarprodukt von wird einfach auf  Vektoren von eingeschränkt und ist eine selbstadjungierte Abbildung.  Da Dim eine orthonormierte Basis  8 '  '     gibt es nach Induktionsannahme  von , bezüglich der die Matrix von  Diagonalgestalt hat:    8 ... 

























Dann hat



Diagonalgestalt bezüglich

 IX.4 Es sei 



  '  8 ''    :    8 ... 





Normale Endomorphismen



. Wir gehen folgenden Fragen nach.

1. Gilt im letzten Satz auch die Umkehrung?





diagonalisierbar bezüglich orthonormierter Basis

2. Woher kommt die Bezeichnung selbstadjungiert?

 



selbstadjungiert

IX.4 Normale Endomorphismen 4.1

87

Definition und Satz

  ' '    eine orthonormierte Basis, 1  1  , für die die folgenden unterein-

Sei ein Vektorraum mit Skalarprodukt und   linear. Dann gibt es genau eine lineare Abbildung ander äquivalenten Bedingungen gelten:

('   '  

  ' (' b)   '   '  '  '  bezüglich   ' '    c)  heißt die zu adjungierte Abbildung. ist selbstadjungiert. ! 

a)





















Beweis:

!

a)

b) wegen der Linearität von

(' in  

   und     . b) bedeutet so viel wie b’)   '    '   '  ' '   

Sei 

















und der Semilinearität in .







d. h.





Dies ist Bedingung c). Also ist b) äquivalent mit c). Wegen c) ist die Abbildungsmatrix von existiert.







eindeutig festgelegt, also auch



, wenn es überhaupt



Sei die lineare Abbildung mit der Matrix wie in c) verlangt. Dann gilt natürlich c). Also existiert auch eine lineare Abbildung mit Eigenschaft c). 4.2

Definition

1 

heißt normal :

4.2.1 Feststellung: 4.3 Sei

! 



Eine selbstadjungierte Abbildung ist normal.

Hauptachsentransformation normaler Abbildungen für 

1 



eine lineare Selbstabbildung eines unitären Raumes. Dann gilt:

1 ! ist normal. Beweis: „ “: Sei  ein Eigenwert und   ein normierter Eigenvektor zu  . Ergänze    zu einer orthonormierten Basis   ''   . Diesbezüglich hat eine Matrix folgender Form: 

ist bezüglich einer orthonormierten Basis diagonalisierbar

IX Eigenvektoren und Eigenwerte

88

 

 

    . 8  ..       8 

 





  8



 





.. .

!  

  



  8





 

 

.. .

  -  8   8 < &&&      &&         .

 .. 

  

  . 8 .  ..

 ..          8  8    8 8 <&&     8





  8

 











Jetzt schließen wir induktiv weiter wie beim Diagonalisierungssatz selbstadjungierter Abbildungen.







„ “: Sei diagonalisierbar bezüglich einer orthonormierten Basis. Bezüglich dieser hat dann wegen Bedingung c) auch Diagonalgestalt mit den konjugiert komplexen Zahlen in der Haupt    diagonalen. Dann zeigt einfaches Nachrechnen, daß also auch gilt, das heißt, daß normal ist.



IX.5 5.1

  

 











Jordansche Normalform Einführung







1

bezeichnen wir den Sei ein -dimensionaler Vektorraum über einem Körper  . Mit End  -Vektorraum der Endomorphismen von . Sei  End , Id Id . Wie wir gesehen haben, hat die lineare Abildung



)1  8   8 mit  8  1



 

 





 8 

bezüglich keiner Basis Diagonalform, weil keine Basis aus Eigenvektoren existiert. In solchen Fällen hat dann eine andere auch noch relativ einfache Normalform, die sogenannnte Jordansche Normalform (Camille Jordan, 1838-1922). Sie besteht aus sogenannten Jordankästchen,

IX.5 Jordansche Normalform d. h. 

89

   -Matrizen der folgenden Form: 

 











..

.

..

.



.

..



Dabei sind die auftretenden genau die Eigenwerte von . Eine gleichwertige Behandlung der Jordanschen Normalform versteht unter Jordankästchen Matrizen der Form:



 

..



.





..

.

..

.





Eine Jordansche Normalform existiert unter folgender 5.1.1 Voraussetzung

    && 

ist für  und -<&&  

  ' wobei .  ' '  sind also die paarweise verschiedenen Nullstellen von  bzw. die Eigenwerte von . Diese Bezeichnung wird im folgenden beibehalten. Wir nehmen ab jetzt an, daß diese Voraussetzung an erfüllt ist. Wegen des Funda

d. h.







Das charakteristische Polynom „zerfällt in Linearfaktoren“ 













mentalsatzes der Algebra ist für 

5.2

Normalformen für End

die Voraussetzung immer erfüllt.

  

 , wobei  ' 8     

Hier ist die „Liste“ aller Jordan-Normalformen für  und für ganz durchlaufen, wobei außerhalb der Jordankästchen Nullen stehen.



Ein EW:

Zwei EW:

Drei EW:



  1 



' 8  1 ' 8'   1













 





8

8 



 























8



 8

 ' 8 '  paarweise verschieden

und



IX Eigenvektoren und Eigenwerte

90 5.3 Verallgemeinerte Eigenräume 5.3.1 Definition

 1 Kern  Id heißt Eigenvektorraum zum Eigenwert . besteht aus allen Eigenvektoren zum Eigenwert und dem Nullvektor.  1   1 Kern  Id  heißt verallgemeinerter Eigenvektorraum zum Ei2.

1



1.

















genwert





.

5.3.2 Satz

  & &        '  '  2. 

1.



3. Dim







 

Beweis mit Hilfe der Teilbarkeitslehre von Polynomen (s. XVI. 3.6 auf Seite 191). 5.3.3 Folgerungen

 eingeschränkte Abbildung 1     1  '  1  + 2. Wir wählen Basen:    ' '    von    8  ' '  8  von 8 .. .    ' '    von   Dann ist   ''   1    ' '   '  8  ' '  8 '    ' '    eine Basis von  und hat diesbezüglich eine Matrix der Form:          

1. Wegen der 2. Behauptung von 5.3.2 gibt es die auf        . 





























..



   













8  8



.

 





 eine 

eine  ist eine  -Matrix, -Matrix usw.    Hierbei stehen oberhalb und unterhalb der Kästchen Nullen wegen 











    -Matrix.   





IX.5 Jordansche Normalform 5.4



Normalform auf

91





Im folgenden werden wir zeigen, daß die Hauptdiagonale herum besteht.





bezüglich geeigneter Basis aus Jordankästchen um



1!

5.4.1 Definition Sei ein Untervektorraum von ein algebraisches Komplement von in



' ' 

 

. Dann heißt ein Untervektorraum .

von

' '  ' '     . Also ist   .  '

5.4.2 Bemerkung Es existiert stets ein algebraisches Komplement, es ist nicht eindeutig; denn sei eine Basis von und eine Ergänzung zu einer     Basis von . Dann ist ein algebraisches Komplement von in .  



1   ' '          Beweis:          ; denn für    folgt:         wegen            wegen                    '  ' , da   eine Basis ist. Es folgt  .    ' '   fest. Wir setzen zur 5.4.3 Bezeichnungen und Definitionen Es sei  Abkürzung: Id  1  Id ' 1 , 1 ' 1 , und definieren:  1 Kern    ' Id ' , ' 1 ' . Dann gelten folgende Hilfssätze:       &&        &&   8   5.4.4 Hilfssatz (a)  



















 







Beweis: 1.

Kern

2.

Kern

 

 



Kern Id

Id

 

   .





    sind diejenigen, die bei    nach 0 abgebildet werden, sie werden        nach 0 abgebildet, liegen also auch in  . Also gilt:   

3. Die Vektoren von erst recht bei .



Kern





IX Eigenvektoren und Eigenwerte

92

      in die 0,     Beweis: Sei     , dann ist für ein . Jedes geht bei      dann bereits bei          in die null d. h.     . 5.4.6 Hilfssatz (c) Sei im folgenden  ein algebraisches Komplement von   in  , so    . Es folgt: daß also gilt   3   ist isomorph für +  d. h.   . Beweis: Surjektivität klar   Injektivität: Sei     Kern         wegen         Injektivität Kern  3     8   5.4.7 Hilfssatz (d)      8 , dann: Beweis: Sei    für ein     d. h.      d. h.   . 8       8 bedeutet:

        eine Basis von  , dann ist    ' '    linear 5.4.8 Hilfssatz (e) Ist  ' '   unabhängig und kann zu einer Basis eines algebraischen Komplementes   von  8 in   ergänzt werden. 

5.4.5 Hilfssatz (b)





















































































Beweis:

 ''   eine Basis von      ' '     Basis von    wegen (c) (5.4.6)  eine Basis von  . Sei  ' ' 8         8  8 wegen (d) ( 5.4.7)    ' '    '  ''  Basis von      8    ' '    '  '' '  ''   sei eine Ergänzung zu einer Basis von   .      ' '    '  ''   ist ein algebraisches Komplement   von  8 in     ' '   '  ' '  als Basis. 











 

































 





 



















5.4.9 Überblick und Zusammenfassung



Es bezeichnet gilt:

mit



 ein algebraisches Komplement von   in  , '  ' '   . Also   





IX.5 Jordansche Normalform

93



   8   &&

= = .. . =





 



&'  ''   bestimmen, ergeben alle zusam-



Wenn wir also sukzessive Basen von men eine Basis von .

 1  ' '  eines .    ist linear unabhängig und kann zu einer Basis Das Bildsystem   %1    ' '   1  '   '  ''  ' von einem  ergänzt werden.  Die Bilder bei  der Vektoren von  sind wieder linear unabhängig und können zu einer  Basis 8 von 8 ergänzt werden. etc.  ein Diagramm an. Wir geben zur Erläuterung der Schrittes von auf                    8     Basis von Basis von Ergänzug von       zu Basis eines   Als letztes erhalten wir eine Basis eines .  Die Vektoren  . aller Basen  &'   ' '    zusammen genommen ergeben eine Basis von 

Starte mit einer Basis



















5.4.10 Zusammenhang mit Jordankästchen  aufeinanderfolgende Basisvektoren    -Jordankästchen     liefern genau dann ein

 

 ' 8 ' '



wenn





 







..

.

..

.











..

     für  ''    und    



.

gilt.

'

IX Eigenvektoren und Eigenwerte

94 5.4.11 Konstruktion der Jordanbasis im Detail



  .  8 8 .. .. .        8





 

 

  

..

      8  

Basis von Basis von

 

 8 

Basis von





   :   

Eine Jordanbasis finden wir nun dadurch, daß wir die Vektoren dieser Tabelle in einer geeigneten Reihenfolge nehmen, nämlich so, daß wir sie den Spalten nach anordnen. Die Vektoren in der neuen Reihenfolge bezeichnen wir mit usw.:

          8. .

  8   8   8

 





 

 





 

. .. .



 '8'



 



  

..

  

Basis von Basis von





Basis von :                       8        8     8    8                                8 '   8   ' '       '    Dann gilt:      , usw. Insgesamt erhalten wir    '  8 '  '   liefert also ein Jordankästchen  ist. Weiter sehen wir, daß es  Dim    Dim  Jordankästchen, wobei Dim        -Jordankästchen gibt. Allgemein gilt: Dim   Dim   . Die Anzahl der        -Jordankästchen =

    erhalten wir die Matrix von aus der von  , indem wir die Nullen in Wegen  























der Hauptdiagonalen durch ersetzen.

Wir fassen zusammen:



IX.5 Jordansche Normalform

95







5.4.12 Satz und Definition Das obige konstruktive Verfahren liefert eine Jordan-Basis von   , bezüglich der  , d. h. eine Basis von die folgende Jordangestalt hat:

  







..





.

 







 



 







..

  

..







.



.



  





 

..



.

  



Außerhalb der Jordankästchen stehen Nullen.







Dim

  taucht dabei -mal auf mit:

  Dim    





Eine aus Jordanbasen der  zusammengesetzte Basis von heißt eine Jordanbasis von und  die aus den zusammengesetzte Matrix ein Jordan-Normalform von . 

IX Eigenvektoren und Eigenwerte

96

     

5.4.13 Beispiel

1   

 







1 

 

    

     



   Standard-Basis

1. Die Berechnung des charakteristischen Polynoms liefert: 

 

          :       : %         8 : %          8    Dabei wurden folgende Zeilenumformungen durchgeführt:    *  '      8 '            Basis von :   ' ' ' '  '  ' ' ' '  ' ' '  ' '   

2. Berechnung einer Basis von







Id











' &'  ' 8 :   8    8   Kern   Id 8   4. Basis von  :  '   8  ergänzt die gefundene Basis von zu einer Basis von     ist eine Basis von  1   '      '     '; 8  1 8 8  



3. Berechnung von Id







 8 

.



:        ' ' '  '  '    8   '  '  '  '  ' '  '   ' '          ' '   ist eine Jordan-Basis.

5. Basis von







6.



Id













und Matrix  der Basistransformation von

7. Jordansche Normalform









 







 



        

   auf   :    



IX.6 Anwendung auf Differentialgleichungen

IX.6

97

Anwendung auf Differentialgleichungen

Die mathematische Modellierung von mathematischen und außermathematischen Problemen läuft häufig darauf hinaus, ein System von Differentialgleichungen aufzustellen, dieses zu lösen und die mathematische Lösung mit der Wirklichkeit zu vergleichen. Es sei  oder .





6.1

Definition eines Systems von

2 . 2 ..

Ein System formaler Gleichungen



 

Differentialgleichungen 1. Ordnung

   -  8    -  8

8  & &    8  & &   



    

(6)

5   ' '         0  ' '  0   von differenzierbaren  heißt eine Ein -tupel 0  Funktionen  1 2    0 und 0 für die Unbestimmten Lösung von ( 6), wenn nach Einsetzen der Funktionen 2

heißt ein System von linearen Differentialgleichungen 1. Ordnung mit konstanten Koeffizienten. Die Koeffizienten  bilden die sogenannte Koeffizientenmatrix    und die inhomogenen Bestandteile  bilden die inhomogene Spalte . 









und



gültige Gleichungen von Funktionen entstehen.

2 <   ' 12 2 ' ' 2   5  Das System heißt homogen 1 ! 2 < heißt das zu. (6) bzw. (7) gehörige homogene System.

Matrixschreibweise für ( 6):









(7)





6.2



(8)

Struktur der Lösungsmenge

'  

1. Der Lösungsraum Łhom eines homogenen Systems ( 8) ist ein Untervektorraum des Vektorraumes   der -tupel von stetigen Funktionen von  nach  .

0  eine spezielle Lösung des inhomogenen Systems ( 6), dann gilt:  Łinhom 0  Łhom 1  0   0  0  hom  

2. Ist















Hierbei darf der inhomogene Bestandteil sogar aus beliebigen stetigen Funktionen

  0  bestehen.

Vom theoretischen Standpunkt aus, wird mit spezieller Lösung irgendeine Lösung bezeichnet. Vom praktischen Standpunkt aus wird versucht, eine Lösung als eine möglichst einfache Funktion, etwa eine konstante Funktion, zu bestimmen; insofern haftet ihr dann etwas spezielles, nämlich möglichst einfaches, an.

IX Eigenvektoren und Eigenwerte

98

Im Gegensatz dazu wird unter der allgemeinen Lösung nicht eine einzige Lösung verstanden, sondern eine Formel, die genau alle Lösungsfunktionen beschreibt. 6.3

Beispiel

22   '   8 8 8' 8 

22   8    '  8 

    Matrixschreibweise:   8 8       '  8  sind die Lösungen. Genau die Funktionenpaare  0 ' 8 0 (Beweis mit dem Hauptsatz der Differential- und Integralrechnung.) 6.4







Transformationsformel

  eine Koordinatentransformation in  und  0  1  0  Dann 2  ist   0  eine Lösung  von ( 6 auf der vorherigen Seite) !  0    , 2     2 . Daraus folgt:   Beweis: Es gilt 2    !     2       !  2         





Sei









ist eine Lösung von





















6.5











Anwendung

2

 

 Wenn möglich wird die Matrix  auf Jordansche Normalform transformiert . Dann braucht nur noch die allgemeine Lösung von gefunden werden. Durch Rücktransformation erhalten wir alle Lösungen des ursprünglichen Systems.

  



6.6





Beispiel

Das Differentialgleichungssystem hat bereits Jordan-Normalform. Lösung:

8

  



2  +' 2   8 8

ist nicht diagonalisierbar und

    '   

Die erste Gleichung hängt von gar nicht ab und und  kann getrennt von der zweiten Gleichung gelöst werden; ihre allgemeine Lösung ist:  . Dies setzen wir in die zweite Gleichung ein und erhalten:

2

8   Hier können wir   als einen (nicht konstanten) inhomogenen Bestandteil ansehen. Die zuge2 hörige homogene Gleichung lautet: 8 8 und hat die allgemeine Lösung: 8  8  '  8  

( )

8











IX.6 Anwendung auf Differentialgleichungen

99



8 8

8

Lösung des inhomogenen Differentialgleichungssystems ( ) mit der „Methode der Variation der   die Konstante Konstanten“: Wir ersetzen in der Funktion durch eine differenzierbare Funktion :

 0 

82 0  2 0   8 0 0    0   Dann gilt: 8 0 ist Lösung von ( ) ! 2    #     ! 2  !   0. 8 '  8    0  8   ist eine spezielle Lösung von ( ) und zugleich die allgemeine; denn wenn 8die allgemeine Lösung des homogenen Systems noch dazuaddiert wird, entsteht keine andere  



















Form der Lösung.



 8



     0-  8 







 

'   '* 8 

ist die allgemeine Lösung des Differentialgleichungssystems.

6.7



Die allgemeine Lösung von

   



 

   

 

.. .







ist:







   ;0     < &&&   .. .  0        < &&     

 











im homogenen Fall

.. .











..

2

 

    0- 8  



 8 . 

6.8



Satz über die Lösung für





Inhomogener Fall

2

 )  ' 





'   ' '   

 Die Lösung des inhomogenen Falles konstant gelingt mit der Methode der Variation der Konstanten: Ersetze die Konstanten  in der soeben gefundenen  Lösung durch Funktionen . Einsetzen in die inhomogene Differentialgleichung  liefert Differentialgleichungen für die , die leicht zu lösen sind. 

 0'

'  0   0 '





'  0 



 ' '  

IX Eigenvektoren und Eigenwerte

100 6.9

Definition einer Differentialgleichung -ter Ordnung

Eine explizite, lineare, gewöhnliche Differentialgleichung -ter Ordnung mit konstanten Koeffizienten ist eine Gleichung der Form:

   2 <&&        '  '   ' '  ' '   (9)  &' '    5heißen die (konstanten) Koeffizienten,  der inhomogene Bestandteil. (2) heißt homogen, falls ist. Die Gleichung     2  &&&     (10) 



















heißt die zu (2) gehörige homogene Differentialgleichung. Dabei bedeutet: explizit: nach höchster auftretender Ableitung aufgelöst

.' 2 ' '   

linear: bei der zugehörigen homogenen Differentialgleichung hängt die rechte Seite linear   von ab. 

0

gewöhnlich: Eine Lösungsfunktion hat eine Variable . Gegensatz: Partielle Differentialgleichung: Lösungsfunktion hat mehrere Variable und in der Differentialgleichung treten ihre partiellen Ableitungen auf. 



-te Ordnung: Die Differentialgleichung enthält    von für .

'

mit konstanten Koeffizienten:



 



, d. h. hängt von

 

ab, aber nicht

sind konstant.

Zur Terminologie: Wir werden uns nur mit expliziten, linearen, gewöhnlichen Differentialgleichungen mit konstanten Koeffizienten befassen und dafür kurz Differentialgleichung sagen.

.' 2 ' ' 

In ( 9) können wir als Unbestimmte und ganz ( 9) als einen formalen Ausdruck  ansehen. Eine Lösung von ( 9) ist eine -mal differenzierbare Funktion   , so daß, wenn     wir in ( 9) für die Unbestimmte die -te Ableitung  einsetzen, eine gültige Gleichung für Funktionen entsteht. Wenn wir betonen wollen, daß die Funktion gemeint ist, schreiben wir die Variable dazu. Der Buchstabe allein kann je nach Zusammenhang die Unbestimmte oder die Funktion bezeichnen. 





0

6.10

Sei

 0  ' '  1'  '



0

Beziehung zwischen einer Differentialgleichung -ter Ordnung und einem System von Differentialgleichungen 1. Ordnung

0



eine Lösung der Differentialgleichung: ( 9)

 

 



    



IX.7 Die gedämpfte und die harmonische Schwingung

101

 für ' '   . Es folgt:         2  , also   ) 1 2     0  '  ' 0   ist eine Lösung des Systems:    .2   8   ... . . . . . . . . . ... .. 2  .. .. .. mit der Matrix  (11) . .    .    

2     .                Umgekehrt ist für jede Lösung  0  '  '  0 von ( 11) 0 1  0 eine Lösung von ( 9 

Wir setzen  .













auf der vorherigen Seite).

IX.7 7.1

Die gedämpfte und die harmonische Schwingung Zwischenbemerkung

In den bisherigen Abschnitten sind alle Elemente zusammengetragen, um eine Differentialgleichung -ter Ordnung oder ein Differentialgleichungssystem 1. Ordnung zu lösen. Wir haben nicht die allgemeinsten Sätze aufgeführt, sondern die Bausteine zum Lösen des allgemeinen Falles behandelt und Beispiele vorgerechnet. Wir halten nochmals ein wesentliches Prinzip für  fest: die Lösung eines Differentialgleichungssystems

2





1. Wir transformieren zuerst die Koeffizientenmatrix  in Normalgestalt Jordan-Normalform).



(Diagonal- oder

2   , wobei       .  2 0      0  ist die allgemeine Lösung des Ausgangssystems, wenn  0  die allgemeine 



2. Dann lösen wir das transformierte System 

3.





Lösung des transformierten Systems ist.

Im diesem Abschnitt behandeln wir ein grundlegendes Beispiel. In einem Fall existiert im Reellen keine Jordan-Normalform, aber natürlich im Komplexen. Wir zeigen, wie die reelle allgemeine Lösung zu erhalten ist. Zur Lösung eines Differentialgleichungssystems 1. Ordnung ist sodann auch die zur Normalform gehörige Basis zu bestimmen. 7.2

Fallunterscheidung nach der Diskriminante

Die Differentialgleichung der gedämpften (harmonischen) Schwingung ist eine Differentialgleichung 2. Ordnung:

6

6

  

  2     2  

mit



   '      ' 5 

IX Eigenvektoren und Eigenwerte

102

  /   !  8 . Es hat die Nullstellen        8        8 8    ' 8  Je nach dem Vorzeichen der Diskriminante  8   8      8  Ihr charakteristisches Polynom ist 



 wir drei Fälle: unterscheiden

1. Fall:  2. Fall:  3. Fall:



„kleine Reibung“



„Reibungsgrenzfall“



„große Reibung“

Im folgenden betrachten wir die homogene Differentialgleichung. Für den inhomogenen Fall siehe 7.6 auf Seite 104. 7.3

Der Fall kleiner Reibung



# '

' 1  1 1        0        0 

 '

Im Falle haben wir zwei verschiedene, nicht reelle, sondern konjugiert komplexe Eigen       werte Re Im . Darum gehen wir derart ins Komplexe über, daß wir Funktionen betrachten und damit Vektorräume über erhalten. Eine Basis des komplexen Lösungsraumes ist:

 1  1 



































 

0    0

Daraus erhalten wir die folgende Basis des reellen Lösungsraumes:

  8       8

 

  



  

0



0



Allgemeine reelle Lösung:

0 

  '  8  0

     0    8  0   1       '       8 '       Polarkoordinaten   0  0 

     0      0  0    ' 0 1 





























IX.7 Die gedämpfte und die harmonische Schwingung

103

   d. h. . Die allgemeine Lösung ist eine periodische 0      0* 0   mit :1   Bis auf Skalierung und Verschiebung des Nullpunktes ist 0  ein Kosinus-Funktion bzw. Sinus        ). Diese Bewegung der Feder heißt eine harmonische Funktion (wegen  Schwingung, weil auch die Grundschwingungen einer Saite durch umskalierte Sinus-Funktionen  1 Kreisfrequenz, 1 die Frequenz und beschrieben werden.  heißt Amplitude,     die Schwingungsdauer. 0 heißt die Phasenverschiebung; sie hängt von der Festlegung des  7.3.1 Ohne Reibung Keine Reibung bedeutet Funktion:













Nullpunktes der Zeitrechnung ab und hat deshalb keine physikalische Bedeutung. Nur wenn zwei harmonische Schwingungen miteinander verglichen werden,

0

0  0   und 0      0* 0   , dann erhält die Phasendifferenz 0 , 0 zwischen den beiden Schwingungen eine von der Festle-

etwa

  







 



gung des Zeit-Nullpunktes unabhängige Bedeutung.

7.3.2 Mit kleiner von null verschiedener Reibung Unter kleiner Reibung soll verstanden werden



und



8     8 

.

Letzteres

 8  d. h.  8 9  d. h.           . Wir erhalten eine gedämpfte (harmonische) Schwingung. Ihre Es gilt:     8 . Kreisfrequenz ist   8 Wir sehen außerdem, daß eine Vergrößerung der Reibung eine Verringerung der Frequenz )1   bewirkt. Wir könnten das erwarten, weil größere Reibung die Bewegung verlangsamt.

bedeutet: 





Jedoch wird durch eine höhere Reibung auch die Amplitude verkleinert, so daß das mechanische System auch einen kleineren Weg zurücklegt bei einer Periode. Die Verringerung der Frequenz ist also nicht von vorneherein zu erwarten. Dabei ist zu beachten, daß die Lösung nicht mehr periodisch ist. Die Durchgänge durch die Ruhelage erfolgen aber noch periodisch. Die Zeitdifferenz zwischen zwei aufeinanderfolgenden Durchgängen durch die Ruhelage wird Periode genannt. 7.4

"

 Der aperiodische Grenzfall





  (

Im Grenzfall d. h. gibt es nur einen Eigenwert , der reell ist und zwar ist  . Es folgt  . Das zugehörige System von zwei Differentialgleichungen 1. Ordnung hat die nicht diagonalisierbare Matrix: 

  



IX Eigenvektoren und Eigenwerte

104

0    0- 8  

Daher lautet die Lösung:





0   8 , und bewegt sich für ab einem gewissen Zeitpunkt 0  monoton und sehr schnell (exponentiell) auf die Ruhelage zu. 

Die Feder passiert genau einmal die Ruhelage, nämlich für

7.5  Der Fall großer Reibung

7

    sein. Wir haben zwei reelle und zwar 8    8      8  0      8 

Für muß die Reibung groß nämlich negative Eigenwerte 

Die allgemeine Lösung lautet:

 

 

„Qualitativ“ verhält sich das System ähnlich wie im aperiodischen Grenzfall: Höchstens ein Durchgang durch die Ruhelage, ab einem bestimmten Zeitpunkt monotone Bewegung auf die erreicht wird. Ruhelage zu, die für

0

7.6

Die inhomogene Differentialgleichung

Hier ändert sich nicht viel gegenüber der zugehörigen homogenen Differentialgleichung, da als spezielle Lösung eine konstante Lösung genommen werden kann und sich die Lösungen nur um die Addition einer bestimmten Konstante ändern. Die Schwingung findet um diese Konstante herum statt, und in den letzteren Fällen bewegt sich das System statt auf die Null auf diese konstante Lage zu.

IX.8 8.1

Eigenwerte des Integraloperators Das Problem und seine Lösung







 ' 

Der Differentialoperator auf dem Vektorraum aller beliebig oft differenzierbaren Funktionen hat alle reellen Zahlen als Eigenwerte (vgl. 3. Beispiel in 2.4 auf Seite 82). Die Integration ist die Umkehrung der Differentiation und muß daher die inversen Eigenwerte haben; denn für einen Automorphismus eines Vektorraumes hat genau die inversen Eigenwerte wie . Das Problem ist hier, daß nur ein Isomorphismus ist, wenn wir von den konstanten Funktionen absehen können; denn diese bilden den Kern . ist also gar nicht definiert. Ein erster Versuch, den Integraloperator durch die Definition





 

1 





1 

0 4 0

    

IX.8 Eigenwerte des Integraloperators

105



 

eindeutig zu machen. Es stellt sich jedoch heraus, daß dieses keinen Eigenvektor besitzt. Ande rerseits ist Integral (,worunter wir ab jetzt eine Stammfunktion verstehen) von ; also ist doch irgendwie eine Eigenfunktion des Integraloperators zum Eigenwert ! Aber wie? Die Lösung besteht darin, sinnvoll zu verarbeiten, was es bedeutet, daß ein Integral nur bis auf Addition einer konstanten Funktion eindeutig bestimmt ist. Nämlich so: Das Integral ist eindeutig bestimmt modulo des Untervektorraumes der konstanten Funktionen und definiert eine lineare Abbildung:    (12)     Für und gilt:







1  '     '    1  '    '      





8.2

Differential und Integral, zueinander inverse Isomorphismen





(13)

ist also so etwas wie ein „Eigenvektor relativ “ von zum Eigenwert . Die gewöhnlichen Eigenvektoren und Eigenwerte sind im Sinne dieser allgemeineren Definition die Eigenvektoren und Werte relativ der Identität.

Beachtenswert ist noch, daß

und

11

 1   '    #  

'  

wie in Gleichung (1) zueinander inverse Isomorphismen sind.

A. Riede: Lineare Algebra 2, SS 00

X Ringe und Algebren

106

X Ringe und Algebren Wir wollen in einem späteren Kapitel die Eigenvektortheorie fortführen und dabei beliebige Körper betrachten. Dazu muß der Begriff eines Polynoms abgeändert werden. Was wir bisher als ein Polynom bezeichnet haben, nennen wir ab jetzt eine ganzrationale Funktion. Für unendliche Körper (Körper mit unendlich vielen Elementen) sind die beiden Begriffe äquivalent (s. 5.5 auf Seite 115). Dabei tritt der Begriff eines Ringes (mit Eins) auf, der ähnlich wie ein Körper definiert wird. (Freie) Moduln über einem Ring sind eine Verallgemeinerung eines Vektorraumes über einem Körper.

X.1

Ringe

1.1

Definition



1. Ein Ring (mit Eins) ist ähnlich wie ein Körper definiert (s. 5.5 auf Seite 21), jedoch das Kommutativ-Gesetz der Multiplikation, die Existenz eines Inversen und brauchen nicht zu gelten, aber zusätzlich muß das links-distributive Gesetz gelten:

    "   

' -' 

für alle



2. Gilt auch das Kommutativ-Gesetz der Multiplikation, so sprechen wir von einem abelschen oder kommutativen Ring.

1.2

Satz über die Reste bei Division durch





sei eine beliebige natürliche Zahl. Jede ganze Zahl werden in der Form und   mit  





kann bekanntlich eindeutig dargestellt

'    ' wobei 1    der Rest bei Division von  durch  genannt wird. Alle auftretenden Reste bilden die Menge  1  '  '  '    



 









Wir definieren für

Dann gilt:





eine Addition

  1

 

und eine Multiplikation : 

   ' 

"' ;'  ist ein kommutativer Ring (mit Eins) . "' ;'  ist ein Körper !  ist eine Primzahl. 







1

 

 

X.2 Die Ringe und Algebren End 1.3



und 



107



Definition

) 9 1    heißt ein Ringhomomorphismus, falls :            und   gilt.

Eine Abbildung zwischen Ringen  ,     



Folgender Abschnitt behandelt ein Beispiel eines Ringhomomorphismus aus der Linearen Algebra.

X.2 2.1

Die Ringe und Algebren End

 

und 

 

Definition



,  ein Körper und ein -dimensionaler Vektorraum über  . Eine lineare SelbstabSei bildung von wird auch ein Endomorphismus genannt. End 2.2



1  '  bezeichne die Menge aller Endomorphismen von 

.

Satz und Definition

1. Bezeichnet + die Summe und die Hintereinanderausführung von Endomorphismen bzw.  + die Addition von Matrizen und * das Matrizenprodukt, dann sind End und    (für nicht kommutative) Ringe mit Eins. Sie heißen Ring der Endomorphismen von bzw. Ring der -Matrizen mit Koeffizienten in  .

  '  ' 



' ' 

 

 '  '     ' ;' 

2.3



 

2. Ist eine Basis von fest gewählt, und bezeichnet bezüglich dieser Basis, dann ist die Zuordnung     . End



 1

die Matrix eines Endomorphismus ein Ringhomomorphismus 

Feststellung

 '  ' 

  '  ' 

   5  für alle ('  End  '  #     für alle "'   ' 

Früher hatten wir herausgefunden, daß, wenn die Multiplikation mit Skalaren bezeichnet,  End und   Vektorräume über  sind. Es gilt außerdem:

2.4

   5 #           #   







 

Definition

 ' ; '  zusammen mit einer Skalarenmultiplikation     , .'     '  ' ein  Vektorraum ist und #     #        für alle  und alle '  

1. Ein Ring sodaß



















,

X Ringe und Algebren

108



gilt, heißt eine 

Algebra.

2. Eine Abbildung zwischen Algebren, die sowohl Vektorraum- wie Ring-Homomorphismus ist, heißt ein Homomorphismus von Algebren. Ein Algebren-Isomorphismus ist ein bijektiver Algebren-Homomorphismus. 2.5 End

 1

X.3

Satz

 '  ' '  und   '  '  '  sind  Algebren und   '  '  '  ist ein Algebren-Isomorphismus. End  '  ' '  















Moduln

In diesem Abschnitt sei  ein Ring mit Eins. Moduln über einem Ring sind eine einfache Verallgemeinerung von Vektorräumen über einem Körper. Sie sind grundlegende algebraische Objekte. 3.1

Definition





Ein Modul über  ist eine Menge zusammen mit zwei Verknüpfungen, einer Addition + und einer Multiplikation mit Skalaren mit folgenden Grundeigenschaften: 1. Bezüglich der Addition ist



eine abelsche Gruppe.

2. Bezüglich der Skalarenmultiplikation gilt:

 b)

a) Das assoziative Gesetz:

-'



für alle 

   

für alle

.' 





und alle 

3. Bezüglich beider Verknüpfungen die Distributiven Gesetze: Für alle   gelten:

.'  # 

und alle

        b)       a)

Die Definition stimmt also mit derjenigen eines Vektorraumes überein, die Unterschiede betreffen nur den Skalarenbereich. Deshalb können für Moduln die gleichen Begriffe abgeleitet werden und die gleichen Sätze bewiesen werden wie für Vektorräume, insofern die Existenz der Inversen im Skalarenbereich und die Kommutativität der Multiplikation im Skalarenbereich nicht benötigt wird. Z. B. machen die Begriffe Untermodul, Linearkombination, lineare Hülle, Erzeugendensystem, Basis, lineare Abbildung, Kern, Bild,  , alternierende Multilinearform genauso einen Sinn.



X.4 Beweis der Existenz einer Determinantenform



109





 1



Der Satz von der Existenz einer Basis eines endlich erzeugten Moduls gilt jedoch nicht; es ist z.     , aber für B.  ein -Modul mit der Skalarenmultiplikation prim ist jedes einelementige System  ,    ein Erzeugendensystem, jedoch keine Basis, da z. B.    , also  nicht eindeutig in der Form   mit dargestellt werden kann.

  







'











kanonische Basis:  ' ' '  ' '  ' ' '  die ' ' ' ' ' '    Dabei darf eine Basis nicht als ein maximales linear unabhängiges System definiert werden.    über dem Ring Z. (2) ein maximales linear unabhängiges System des Moduls  , B.aberistkein Erzeugendensystem; es erzeugt nur die geraden Zahlen. Ich verwende folgende Manche Moduln haben jedoch eine Basis , z. B. 

Definitionen, die die entsprechenden Definitionen für den Fall eines Körpers verallgemeinern. 3.2

Verallgemeinerte Begriffe für freie Moduln

1.

  '  8 ' ' 



invertierbar ist.



sind linear abhängig :

! 

       , wobei mindestens ein  

2. Eine Basis eines endlich erzeugten Moduls ist ein System, durch das jedes Element des Moduls eindeutig linear dargestellt werden kann. 3. Ein Modul, der eine Basis besitzt, heißt ein freier Modul.





4. Eine Determinantenform auf einem -dimensionalen freien Modul ist eine -fache Linearform, die für linear abhängige Elemente verschwindet und einer (und damit jeder)  zuordnet (s. 4.2 auf Seite 112). Basis ein invertierbares Element 3.3



Bemerkungen

Die Definition einer Algebra über einem Körper kann unmittelbar auf den Begriff einer Algebra über einem Ring übertragen werden.



  

1



Für freie Moduln und kann die Theorie der linearen und multilinearen Abbildungen , insbesondere der Bezug zu Matrizen, verallgemeinert werden. Exemplarisch führen wir die Determinantentheorie in Abschnitt X.4 durch, die wir andererseits auch für die Fortführung der Eigenwert-Theorie benötigen werden.

X.4 4.1

Beweis der Existenz einer Determinantenform



Satz



 ' '  

Sei eine Determinantenform auf einem -dimensionalen freien Modul  tativen Ring  mit Eins. Sei eine feste Basis von und



   

über dem kommu die

X Ringe und Algebren

110

  ' '   . Dann gilt:   1.    ' '         ''   &  ''  mit     ''   1   sgn       8 8  &&    

lineare Darstellung der Elemente



























2. Eine Determinantenform ist bis auf einen invertierbaren Faktor

  ist eine Determinantenform.

3.

Leibniz-Formel



eindeutig.

 ' '   ein be 



4. Es gibt genau eine Determinantenform, die einer vorgegebenen Basis liebiges vorgegebenes invertierbares Element zuordnet, z. B. .

   '  8 ' '      







  siehe       '   '  '  8 





    





    '  '  '



 8

         





    '  '  '

  8

       & &      

    &&       8 &&     ' ' '    siehe   

      8 &&     ' ' '       8 8 &&      ' 8 ' '    sgn      8 8 &&    ' ' '   8   

Beweis: Zu 1:







































































































































































Wegen der Multilinearität kann für jede Variable eine Linearkombination aus gen werden, z. B. für die erste Variable:

   ' ' '



herausgezo-

8 ' '       ' 8 ''   '  ' '  '  '

   Hier braucht nur über paarweise verschiedene   '  8 ''    summiert zu werden, weil sonst der Summand null ist, da zwei Variablen von  gleich, alle Variablen also linear ab hängig sind. Dann bilden   '  8 '  '   eine Permutation  von ' ' '  :   '  8 ' '     





















X.4 Beweis der Existenz einer Determinantenform

111

   '    ' '    . Daher kann die Summe als eine Summe über alle Permutationen 

  invertierbar. Im folgenden schrei-

schrieben werden.

   ' '               tierbar sind.

Zu 2: Sei eine weitere Determinantenform. Dann ist ben wir die Variablen nicht an.  





 

 1   

mit



ge-



invertierbar, da 

   und   inver-

Zu 3: Multilinearität ist erfüllt wegen folgender Argumente: Die Koordinatenzuordnung ist linear. Ein Produkt ist in jedem Faktor additiv wegen des Distributivgesetzes. Ein Produkt ist in jedem Faktor homogen wegen des Assoziativgesetzes und wegen der Kommutativität. Eine Summe linearer Abbildungen ist wieder linear.

   ''    für linear abhängige   ''    : (a) Wir zeigen dies zunächst für den Spezialfall, daß zwei Vektoren gleich sind.

Sei         fürfür  alle , d. h.  '  ' . Wir spalten die Summe bei der Definition von   in eine Summe über die geraden und über die ungeraden Permutationen auf.      ' '   '  '  ' '    sgn              =       sgn                   und sgn    Wir setzen  mit  1 '  und 1  . Hier ist sgn   Durchläuft alle ungeraden Permutationen, so durchläuft  alle geraden.                                                            (Vertauschen von Faktoren)               (wegen  ) 







gerade



































































































































































































ungerade













    ' '   ' '  ' '     (b) Seien   ' '   linear abhängig, dann gibt es mit   

   

Die beiden Summen über die geraden und ungeraden Permutationen stimmen also bis auf    das Vorzeichen überein; folglich gilt:

X Ringe und Algebren

112

    ''                        -te -te  -te    ' 8 ' '    ; denn alle Faktoren in einem Produkt der Formel sind nur dann und   '     '   '   ist. Also hat   auf einer haben dann den Wert 1, wenn  Basis einen invertierbaren Wert, nämlich auf  '  '  den Wert 1. Zu 4:     ist die einzige Determinantenform mit Wert  für  '  '  .  



4.2

 





 

Bemerkung

   ''     invertierbar für eine Basis   ' '    , dann ist wegen der Multilinearität  %1   '  8 1  8 ' '   1   eine Basis mit    ''     . Sei jetzt  ' '    eine beliebige Basis. Dann besagt die 1. Behauptung von 4.1 auf Seite 109 für diese   ''   und  ' '   :    ''         ' '       ''   Also ist   '  '   invertierbar mit Inversem     ' '    . Ist

X.5

Polynomring

Dieser Abschnitt behandelt ein wichtiges Beispiel einer Algebra über einem Ring, das wir im Abschnitt XVI.1 auf Seite 178 bei der Behandlung des charakteristischen Polynoms benötigen werden. In diesem Abschnitt sei bis Punkt 5.3 auf Seite 115  ein kommutativer Ring mit Eins. 5.1

Definition



 



Sei ein Element, das nicht  angehört; historisch wird es eine Unbestimmte genannt. Dann besteht der Polynomring  in der Unbestimmten aus allen formalen Ausdrücken der Form:

 *  ! 8  8  &&&     nur eine andere Bezeichnung für  und   eine andere Wir vereinbaren bei    , daß  Bezeichnung für  sein soll:   1  und   1  Dann schreibt sich ein solcher formaler Ausdruck systematischer in der Form            &&             mit   für alle '  ' ' und mit  ' variabel. Lies: „  oben null plus    oben eins plus ...“. 





Diese formalen Ausdrücke können wir uns so vorstellen, wie aus einem Alphabet eine Sprache gebildet wird: Gewisse Buchstabenzusammenstellungen stellen ein Wort, ein Element, der Sprache dar. Statt von Buchstabenzusammenstellungen wird in der Mathematik und Informatik von

X.5 Polynomring

113



Zeichenketten (engl. strings) gesprochen. Als Zeichen werden an dieser Stelle die Elemente von  , das Symbol , das Zeichen + , die natürlichen Zahlen und 0 verwendet; sie bilden hier das Alphabet. Elemente des Polynomrings sollen genau die Zeichenketten der obigen Form sein. Sie werden Polynome genannt.

 



  1   

Die Elemente von werden hochgerückt, weil wir für  ja u. a. noch eine mit * bezeichnete Multiplikation einführen wollen. Verwenden wir die abkürzende Bezeichnung , dann wird die Multiplikation gerade so erklärt werden, daß gilt

        & &  

 



, wobei das Produkt auf der linken Seite Faktoren hat. Die linke Seite wird in der Mathematik gewöhnlich mit „ hoch “ bezeichnet. Das auf die Multiplikation bezogene „ hoch “ ist also gleich dem formalen „ oben “.

  &&   für , so werden die Ausdrücke        &&&    Ist      &&  ' als gleich angesehen. Es kann also bei der Betrachtung zweier und  

angenommen werden. Ausdrücke immer    auch weggelassen werden, oder , so kann beim Aufschreiben der Zeichenkette   Ist    umgekehrt, fehlt ein Teil der Kette der Form     , so soll dies dasselbe bedeuten wie wenn    an der passenden Stelle stünde. Z. B.   8          8      . Haben wir zwei Polynome 1       <&&    und 1         &&&     ' 

 

















dann gilt, weil im Polynomring außer der obigen Identifikation keine weiteren Identifikationen vorgenommen werden, wobei wir annehmen dürfen: 

!



 

für alle

'  ' '

Dies ist der Identitätssatz für Polynome. Er gilt hier also per Definition von Polynomen.

  heißen die Koeffizienten des Polynoms . Multiplikation  von Polynomen mit Skalaren  Die



und Addition + von Polynomen wird koeffizientenweise erklärt, das Produkt  zweier Polynome durch die entsprechende Formel, nach der ganzrationale Funktionen multipliziert werden: 

       <&&             -      <&&&         .      mit  1      mit   für ,  für #       ''    bezieht sich auf die Addition in und die Formel für  bezieht   sich auf das Produkt und die Summe in , während die übrigen Pluszeichen auf der rechten Seite   &&          zunächst formal sind; jedoch stellt sich heraus, daß das Polynom    auch die Summe der Polynome   '   '&&-'    bezüglich der Addition in   ist.   1 1 2.  3.  1    &'  . 1.

 



































X Ringe und Algebren

114

      . Die Summe von 

 



Mit diesen Verknüpfungen wird  zu einer kommutativen  -Algebra, wie wir durch Nachrechnen der Axiome überprüfen können. ist die Eins von  und es gilt .

  5 +   

Es ist 

  

     





 5    



       

und ist in  die selbe wie in  : . Das gleiche gilt für das Produkt. .  (Denn für lautet die Formel für  so: .)  ist eine Unteralgebra von  . (Unteralgebren, Unterringe bzw. Untermoduln einer Algebra, eines Ringes bzw. eines Moduls sind natürlich so definiert, daß sie Teilmengen des größeren Objektes sind und die betreffenden Verknüpfungen des größeren Objektes, wenn sie nur auf Elemente des Unterobjektes angewendet werden, mit den Verknüpfungen des Unterobjektes übereinstimmen.) 











 



 





 

Dafür, daß sich jedes Element von  eindeutig in der Form darstellen läßt, wird auch gesagt: Das System, das nur aus einem Element besteht ist eine  -Algebra-Basis von  . ist eine algebraische Darstellung von durch die Basis , während wir bei einem Vektorraum lineare Darstellungen durch die Basis betrachten.  ist also eine eindimensionale freie Algebra über  . Auch bezüglich Algebrahomomorphismen von  nach einer anderen Algebra  über  gibt es eine Analogie zur Vektorraumbasis:



5.2



  



 

Satz

Sei ein beliebiges Element einer  -Algebra  , dann gibt es genau eine Abbildung   mit: (i)  ist Algebrahomomorphismus und (ii) 

 1





  



 

1    

.

ist eine kommutative (Unter-) Algebra über  von  .

Beweis:

     

  &&&            &&       <&&&   wegen (ii)

      

1. Eindeutigkeit 



( )

 



Also ist





wegen (i)

eindeutig.

2. Existenz Wir definieren  (i) und (ii) hat. 





durch ( ). Dann ist leicht nachzurechnen, daß  



die Eigenschaften

Auch die letzte Behauptung wird durch Nachrechnen bewiesen. Wichtig ist festzuhalten, daß  nicht kommutativ zu sein braucht; Bild(  ) ist immer kommutativ. Diese Tatsache benötigen wir in der Eigenwerttheorie für die nicht kommutative  -Algebra  End , wobei  ein Körper und ein endlich dimensionaler Vektorraum über  ist.



X.5 Polynomring 5.3

115

Definition



Wegen der Form ( ) von 

      <&&          <&&&   1  Einsetzungshomomorphismus; es wird für  einfach eingesetzt.    und  ist  die Identität und   

heißt  Für 















5.4

Voraussetzung: Im folgenden sei  ein Körper.

5.5

Vergleich mit der Algebra der ganzrationalen Funktionen

1

1  

Wir betrachten die  -Algebra  Abbildungen mit der wertweisen Multi  plikation mit Skalaren, der wertweisen Addition und der wertweisen Multiplikation von zwei Abbildungen miteinander.

1   

Sei 



der Einsetzungshomomorphismus mit



Id . Dann gilt:

      <&&&         Id    Id   &&&  Id  '      &&&    ' '  führt also ein Polynom mit den Koeffizienten   ' '   





über in die ganzrationale Funktion mit denselben Koeffizienten.   Id ist die Algebra der ganzrationalen Funktionen von  nach  , die auch mit  bezeichnet wird.  Behauptung:   ist genau dann ein Isomorphismus, wenn  unendlich ist.

1   



  



Beweis: Ein Polynom, das nicht das Nullpolynom ist, hat höchstens Polynoms ist (s. 5.11 auf der nächsten Seite). Für  hat es jektiv; Kern( 

Nullstellen, wenn

der Grad des

unendlich können wir also schließen: Geht ein Polynom in die Nullfunktion über, so unendlich viele Nullstellen, was nur beim Nullpolynom eintreten kann.  ist also indenn auch bei Algebra-Homomorphismen  gilt:  injektiv Kern  , wobei  ):= . Surjektiv ist es nach Definition einer ganzrationalen Funktion.

!

 





Ist  ein Isomorphismus, so gibt es unendlich viele ganzrationale Funktionen, also erst recht unendlich viele Abbildungen von  nach  , was nur für unendliches  eintreten kann. 5.6

Definition

1. Der Grad des Polynoms mit 





ist definiert durch: Grad( ):= Max 

  

X Ringe und Algebren

116





2. Ist Grad( ) = , so heißt 

3.

5.7

5.8 Seien

 

Grad



' 











Der höchste Koeffizient von ist eins. 



Max Grad ist.

 

Division mit Rest 

'





   mit



Grad

wobei das Gleichheitszeichen gilt, wenn







Grad 



, dann gibt es eindeutig bestimmte Polynome '     : und (b) Grad  Grad  oder 





 mit











 ' Grad   , 



   , d.h. 

, dann ist        mit einem eindeutig bestimmten Polynom   

Satz: Ist





eine Nullstelle des Polynoms













5.10





 

Grad

(a)

5.9

der höchste Koeffizient von .

Eigenschaften des Grades

1. Grad Grad 2.

1!

heißt normiert. 



Satz und Definition

' '



   , so gibt es eine Pro       8          und einem eindeutig bestimmten     mit   für

Sind  lauter verschiedene Nullstellen eines Polynoms duktzerlegung

  mit eindeutig bestimmten   ''  heißt die Vielfachheit der Nullstelle  . 











5.11

Satz: Ein Polynom vom Grade

5.12

Definition und Fundamentalsatz der Algebra

 



hat höchstens

















Nullstellen.

Hat jedes Polynom  eine Nullstelle in  , so heißt der Körper  algebraisch abgeschlossen. Der Körper der komplexen Zahlen ist algebraisch abgeschlossen. 

X.5 Polynomring 5.13

117

Definition und Satz

   zerfällt vollständig in Linearfaktoren, falls              mit '  8 

Wir sagen, ein Polynom 













In einem algebraisch abgeschlossenen Körper zerfällt jedes Polynom in Linearfaktoren. Wir können dann die Faktoren mit gleichen zusammenfassen und erhalten eine Darstellung der Form: 

 

     8 









  



mit

  für  

und





XI Bilineare und damit verwandte Formen

118

XI Bilineare und damit verwandte Formen XI.1 1.1

Sesquilinearformen Einführung

In Abschnitt XI.1 befassen wir uns systematisch mit Bilinearformen bei beliebigem Körper  und für  mit Formen von zwei Variablen, die in der ersten Variablen linear und in der zweiten Variablen semilinear sind. Dabei sei die erste Variable aus einem -dimensionalen Vektorraum und die zweite Variable aus einem -dimensionalen Vektorraum über  . Dabei darf sein, wofür wir gleich ein wichtiges Beispiel angeben.





1.1.1 Definitionen Eine Bilinearform auf

'   Linearität in 1. Variablen:   '    Linearität in 2. Variablen: (' 



(' 



' '





1   +'     '  +'    +'



ist eine Abbildung  gilt:



, so daß

  ('   '  ('    wird eine Sesquilinearform (anderthalbfache Linearform)  1  













'



  ( '   ('  

 

Für  wie eine Bilinearform definiert mit dem einzigen Unterschied, daß statt der Homogenität in der zweiten Variablen die Semi-Homogenität erfüllt sein muß:

 ('     +'  Dabei ist  das konjugiert Komplexe von  . In Punkt 1.2 auf der nächsten Seite.5 werden wir 

den Begriff einer Sesquilinearform in einem verallgemeinerten Sinne betrachten. Warum wir

mitbetrachten, liegt daran, daß wir folgendes 1. Beispiel einschließen wollen:

1.1.2 Beispiele 

 1   ' '     '   1

1. Sei



der Dualraum von 

. Dann ist folgendes eine Bilinearform:







  '  



2. Jedes reelle Skalarprodukt ist eine Bilinearform. 3. Jedes komplexe Skalarprodukt ist eine Sesquilinearform. 12

A. Riede: Lineare Algebra 2, SS 00





XI.1 Sesquilinearformen

119

In Kapitel VIII auf Seite 69 haben wir erst reelles, dann komplexes Standard-Skalarprodukt behandelt und anschließend gezeigt, daß der reelle und komplexe Fall eines allgemeinen Skalarproduktes gleichzeitig behandelt werden kann. Dabei wurde benutzt, daß die komplexe Konjugation ein Körper-Isomorphismus ist, dessen zweimalige Anwendung die Identität ergibt, und daß die Anwendung der komplexen Konjugation auf reelle Zahlen die Identität ist. Mit dem gleichen einfachen Trick können auch Bilinearformen und Sesquilinearformen unter einen Hut gebracht werden, wie wir im folgenden präzisieren: 1.2 Körper-Involution und Sesquilinearformen 1.2.1 Definition Eine (Körper)-Involution des Körpers  ist ein Körper-Isomorphismus  Id . Bezeichnen wir mit , so ist ein Körper-Isomomorphismus durch:





    #  2.    1.

3.



für alle

für alle



-' 

.' 





1 

81

mit gekennzeichnet 





ist bijektiv.

8

Da aus Id die Bijektivität von folgt, hätte es gereicht statt Körper-Isomorphismus nur Körper-Homomorphismus zu verlangen. 1.2.2 Voraussetzung Für das folgende sei  stets ein Körper mit Involution ; wir verwenden die Bezeichnung:  .



  1.2.3 Folgerungen   Wenn wir definieren  1       '     ,   



 1

         , dann gilt, wenn    '  :   , #    #   ,   











1.2.4 Beispiele 1. 

2. 

beliebig und



und

Id

= kK = Bildung der konjugiert komplexen Zahl.

Wir bringen nun die bisherigen Begriffe Bilinearform und Sesquilinearform unter einen Hut, wenn wir definieren:

XI Bilineare und damit verwandte Formen

120

1 





1.2.5 Definition  heißt eine Sesquilinearform auf Eine Abbildung   gilt: verallgemeinerten Sinne), wenn

(im gegenüber 1.1.1





('   Linearität in 1. Variablen:   '    Semi-Linearität in der 2.: (' 

'  "'  ((''









Ist



 ' 

  +'   ('  

   '  '  (' ' 





  ( '   (' 



Id , so ist eine Sesquilinearform nichts anderes als eine Bilinearform. Für  und erhalten wir den Begriff einer Sesquilinearform im speziellen Sinne von Definition 1.1.1. Für sagen wir anstelle von „Form auf “ auch „Form auf “, obwohl der Definitionsbereich ist.

1.3





Matrix einer Sesquilinearform

 ' 8 '  '  

  '  8 ''    eine Basis von . Für eine Sesquilinear  1   '   ' 1       Dann heißt  die Matrix der Sesquilinearform bezüglich der Basen  ' 8 ' '  und    '  8 ' '    . 1.3.2 Satz Die Spalte    bezeichne die Koordinaten von  und die Spalte   die   Koordinaten von bezüglich der Basen  und  .  1. Durch ihre Matrix  ist die Sesquilinearform eindeutig bestimmt; wenn wir mit  das

1.3.1 Definition  eine Basis von Sei form auf sei

,





Matrizen-Produkt bezeichnen, gilt:

 ('                

 



  





2. Ist die Matrix   beliebig vorgegeben, so wird durch die vorstehende Formel eine Sesquilinearform definiert, deren Matrix ist.











3. Die Sesquilinearformen auf bilden bezüglich wertweiser Addition und wertweiser  Multiplikation mit Skalaren einen  -Vektorraum Wir erhalten einen (von den Basen abhängigen) Vektorraum-Isomorphismus:

 1 Beweis: Zu 1:



 

 



'   

XI.1 Sesquilinearformen

 (' 

121

     '               '                           .        ..

















 ' '     

1. Gleichung in Punkt 1







 





..

 . 





   bezeichnet das -te Element einer Spalte





Zu 2: Daß durch die Formel im 1. Punkt eine Sesquilinearform definiert wird, ist leicht zu sehen und im Zweifelsfalle direkt nachzurechnen. Daß die Matrix von diesem die vorgegebene Matrix ist, sehen wir so ein:



' ' '  ' ' '  bezüglich  ' '   hat und  die Koordi-te  ' ''  bezüglich naten '' '   ''    , folgt  '     '' und  ' '  -te   ein -Vektorraum ist, wird durch direktes Nachrechnen verifiziert. Zu 3: Daß     gilt: Linearität von  : Für '           '   '    '            #    '   #   '    #    Da  die Koordinaten

 



 

















1. Punkt

 2. Punkt











Injektivität von





Surjektivität von





1.3.3 Transformationsformel

 



1. Bei Basistransformationen  von sich die Matrix der Sesquilinearform wie folgt:

2. Für wird im 1. Punkt Transformationsformel:





und



  und    



 

von

transformiert

  genommen. Dann lautet die

XI Bilineare und damit verwandte Formen

122



Beweis:



   '  

     ' 0            ' 

0            

    0        1 '  -ter Koeffizient                1.4 Zur Vektoralgebra im  1.4.1 Bemerkung über -fache Linearformen Definition 1.3.1 und Satz 1.3.2 verallgemeinern sich auf -fache Linearformen. Wir formulieren   &&   eine -fache Linearform auf , dann ist  durch nur einen Aspekt. Sei 1   '  ' '   '  ' ''  ' ' ' eindeutig bestimmt, wobei  ' '  eine Ba8  sis von ist.  Zwei -fache Linearform und  stimmen daher überein, wenn ihre Werte auf allen -tupeln von Basisvektoren übereinstimmen.    : Für Sesquilinearformen ' 1 5  !   '     '   '  '  ' '   '  '    &&   -fach linear: Für ' 1 5  !   '  '  '     '  ' '   '  ' '  '  ' '  ' 8 1.4.2 Lagrange-, Graßmann- und Jakobi-Identität  Im  mit dem Standard-Skalarprodukt gilt:   "'   ('  '  (' '  Lagrange-Identität 1.  +'  +'  Gramsche Determinante  '  '  2. .'    .' ('  Det .' ('  =: Spatprodukt 3.     !  ' Det  '  '  für alle      (' " 4.   '   Graßmann-Identität          5.   Jacobi-Identität 









































































XI.1 Sesquilinearformen

123

Beweis: Zu 1:

(' "'  '

In der Lagrange-Identität sind beide Seiten in Abhängigkeit von  4-fache Linearfor men. Sie stimmen daher überein, wenn ihre Werte für vier beliebige Basisvektoren gleich sind. Letzteres ist leicht nachzurechnen für die Standard-Basis, wenn noch folgendes beachtet wird: Für oder  sind beide Seiten gleich null und bei Vertauschung von mit oder von  mit gehen beide Seiten in ihr Negatives über. Daher genügt es zu zeigen, daß beide Seiten  gleich sind für    mit und . Nachrechnen ergibt, daß beide   Seiten gleich 1 sind für und gleich 0 für .







(' "'  '      '  '  '     '  '

    '  ' 



Zu 2: Wie in VI.3 auf Seite 60.

      '     ' ) „ “:  ' Det  '  '   für alle       .'    ' Det .' (  ' %      ' +   %       Zu 4:  Für alle   gilt: .'     Det .'    ' Det  ' .'   "'  ('  "' +'  "' +'  "     ('   '  Zu 5:     ('  "'     '  # .' #    .'   +'

.'   

Zu 3: „



“:











 









.'  '  

Det

 '' 





wegen 2

 (' '  ' (' "'  +' wegen 2



wegen 1









 





Det







   ' 

wegen 2.

.' (' .' ('













(zyklisch vertauscht)



(nochmals zyklisch vertauscht)

Beim Aufaddieren dieser drei Gleichungen heben sich rechts die unterstrichenen und die gestrichelt unterstrichenen und die überhaupt nicht markierten Terme paarweise weg. Es bleibt die Jakobi-Identität stehen.

XI Bilineare und damit verwandte Formen

124

1.4.3 Bemerkung Dies alles gilt entsprechend für einen orientierten dreidimensionalen euklidischen Vektorraum. Zum Beweis muß dann eine positiv orientierte, orthonormierte Basis herangezogen werden. 1.5 Andere Auffassung einer Sesquilinearform 1.5.1 Beschreibung durch den Dualraum 1. Halten wir bei einer Sesquilinearform die erste Variable zweiten Variablen eine semi-lineare Abbildung:



fest, so haben wir bezüglich der

 1  '   1  ( '        .)  liegt also im (semi-linear bedeutet additiv und semi-homogen d. h.  semi-linearen Dualraum von 1  1  '  . Der Index  soll hierbei auf semilinear hinweisen.   1 < ist linear.  '

 2. Die Abbildung 1  









3. Die Abbildung

1  

1





 

 '    













'   '  (' 





ist linear. ist sogar ein kanonischer (d. h. nicht von einer Basis abhängiger) Isomorphismus, dessen inverser der folgende Homomorphismus ist:     mit

 ( '  1    Fazit:    auch als eine lineare AbWir können in kanonischer Weise eine Bilinearform 1  

1 '   



'



1  





bildung von nach auffassen und umgekehrt; und zwar sogar so, daß der ganze Vektorraum  der Sesquilinearformen isomorph zum Vektorraum der linearen Abbildungen von nach ist. Beweis:



Zu 1: Da semi-linear in der zweiten Variablen ist, ist





eine semi-lineare Abbildung.

 homogen ist. Für alle  und alle

        nach Definition von   Definition von   ((''  nach  weil in der ersten Variablen homogen      nach Definition von      nach Definition von 

    da Abbildungen gleich, wenn alle Werte gleich  und alle  Zu 3: Wir zeigen exemplarisch, daß additiv ist. Für alle



Zu 2: Wir zeigen exemplarisch, daß

gilt::





 







gilt:

XI.1 Sesquilinearformen

   

125

           ('   ('    ('         

          

               



Definition von Definition von  Definition von  

 wertweise Addition von Sesquilinearformen Definition von  und   wertweise Addition von linearen Abbildungen Definition von   und   wertweise Addition von   und    Definition von Abbildungen gleich  alle Werte gleich





















 





Zu 4: Um zu zeigen, daß und zueinander invers sind, ist zu beweisen: Id Wir führen exemplarisch den Beweis der zweiten Gleichung an:











 ('   

Für alle 











       (' 





  





und alle







<

.

gilt: Definition von Definition von Definition von



 











  bzw.  

1.5.2 Feststellung Sei die Matrix von bezüglich der Basen  Sei   die zu duale Basis von .



 

Id und

   die Matrix von  bezüglich   und  . Dann gilt:  

Sei 

 



Beweis:



Zur Erinnerung: Die -te Koordinate einer Linearform



bezüglich

 

     die  -te Koordinate des Bildes des -ten Basisvektors,    , d. h.





 . Also ist         '  

   ist



1.5.3 Beispiel: Das zweite Differential und die Hessesche Form

  

1  

 1. Sei  eine offene Menge und eine differenzierbare Abbildung in einen endlich-dimensionalen reellen Vektorraum . Dann ist das Differential an der Stelle  eine lineare Abbildung und das Differential von eine Abbildung

  4 1     4  4 1     '  '  4 2. Für   , d. h. )1    erhalten wir als Differential eine Abbildung in den Dualraum: 4 1     '     '  4 

XI Bilineare und damit verwandte Formen

126



4

3. Daß wie in Punkt 2 zweimal differenzierbar ist, bedeutet nach Definition der zweiten Ableitung, daß die Abbildung in Punkt 2 differenzierbar ist. Im Hinblick auf Punkt 1 ist  jetzt und es folgt:



48 



1 4 4   1      4 8     '           '   



1  

Das zweite Differential von einer zweimal differenzierbaren Abbildung kann  also aufgefaßt werden als eine Bilinearform auf . Diese Bilinearform heißt die Hessesche Form von an der Stelle  .





1.6 Symmetrische und hermitesche Formen 1.6.1 Definition Sei . Eine Sesquilinearform auf heißt semi-symmetrisch, wenn eine der folgenden untereinander äquivalenten Bedingungen erfüllt ist:



 +'   '   

1.

2. Die Matrix





von bezüglich irgendeiner Basis ist semi-symmetrisch, d. h.:

5'







Im Falle von Id ist eine semi-symmetrische Sesquilinearform nichts anderes als eine symmetrische Bilinearform und im Falle  wird eine semi-symmetrische Sesquilinearform eine hermitesche Form genannt (nach dem französischen Mathematiker Charles Hermite, 1822-1901)

    '   '     d. h.             .8 und    .8 seien die Koordinaten von   2. 1.:     ..  ..    folgt, wenn  das Matrizenprodukt bezeichnet:  ('                                 '  Beweis der Äquivalenzen:

1.



2.:

bzw. von

. Dann



1.6.2 Diagonalisierung



(a) Sei symmetrische Bilinearform auf reellem -dimensionalem Vektorraum oder hermitesche Form auf komplexem -dimensionalem Vektorraum.

XI.1 Sesquilinearformen

127





  

  ('   8  &&&  8  8  &&   8  (b) Sei symmetrische Bilinearform auf komplexem -dimensionalem Vektorraum.  Dann hat die Matrix  von bezüglich einer geeigneten Basis eine Diagonalgestalt wie unten mit -mal 1 in der Hauptdiagonalen und = Rg(  ).  ('   8  &&&  8 Die geometrische Bedeutung von wird in 1.7.1 geklärt und die von und werden später behandelt (s. 3.2.6).





Dann hat die Matrix von bezüglich einer geeigneten Basis eine Diagonalgestalt wie  = Rg( ). unten mit -mal 1 und -mal in der Hauptdiagonalen und 

 













  

..



   

.

 

..

 

..

  

-1

(a)



  

. -1

..

 



..

.

Beweis mit Hilfe elementarer Umformungen:



 

.





.

 







..

(b)

 



.

..





.

 



 

und stehe an der -ten Stelle in der Hauptdiagonalen. Bei  8 sei 

stehe das in der -ten Zeile und -ten Spalte und es Wir betrachten Elementarmatrizen. In ist . Bei steht das dann in der -ten Zeile und -ten Spalte.

 

..





.





..

.



8





.. . ..

  



..



.

.

..

.





8

.. . 







.





..

.

 

.

..





..



 







..



.







..

.

XI Bilineare und damit verwandte Formen

128 Es gilt für eine



-Matrix

     liefert        Matrizenmultiplikation  8      8 liefert     



Matrizenmultiplikation

: liefert für



liefert:



die elementare Umformung:









  

Da Elementarmatrizen regulär sind, können wir sie als Matrizen verwenden. Wegen der Transformationsformel

   



 



von Basistransformationen

   

transformiert sich die Matrix einer Sesquilinearform so, daß eine elementaren Zeilenumformung und anschließend die entsprechende Spaltenumformung durchzuführen ist, in welcher der Koeffizient noch durch zu ersetzen ist.





Die elementaren Umformungen wenden wir nun so an:

  

    

'      

, so können wir, falls ein ist für ein mit , durch elementare 1. Ist Umformungen vom Typ I erreichen, daß wird; falls ein ist, geht dies mit Zeilen- und entsprechenden Spalten-Vertauschungen (elementare Umformungen vom Typ III). (Ersteres geht übrigens nicht bei beliebigem Körper. Es muß ein Körper sein, in dem ist.)

1   2. Wieder durch elementare Umformungen vom Typ I räumen wir die erste Spalte unterhalb    aus, wobei jeweils auch die oben beschriebenen Spaltenumformungen vorgenommen  werden. Wegen der Semisymmetrie wird dabei auch die erste Zeile rechts von   ausgeräumt!  3. Falls außer   noch weitere Matrixelemente vorhanden sind, können wir durch ele wird. Anschließend mentare Umformungen vom Typ I oder III erreichen, daß 8 8  räumen wir wieder unterhalb und rechts von 8 8 aus. Indem wir so fortfahren, erhalten wir schließlich eine Diagonalgestalt, in der die ersten Elemente in der Hauptdiagonalen sind.    , woraus für  folgt 4. Im Falle a) gilt für die Matrix der Sesquilinearform 

      , d. h.    ist (auch für  und  ) reell. Multiplikation der -ten Zeile mit       und anschließende Multiplikation der -ten Spalte mit   für  ''  in der Hauptdiagonalen. Durch Vertauschen von Basisvektoren können wir diese liefert   noch so anordnen, daß zuerst alle  und dann die  kommen. Die Anzahl der Elemente in der Hauptdiagonalen muß der Rang von  sein, da elementare Umformungen den 





Rang nicht ändern.

XI.1 Sesquilinearformen

129

     , liefert keine Einschränkung für die       .  Wir setzen für ''  1    eine der beiden komplexen Wurzeln aus  . Multiplikation der -ten Zeile mit  und der -ten Spalte mit  liefert den Koeffizienten 1  ' ' . in der Hauptdiagonalen für

5. Im Falle b) ist

Id . Symmetrie, 



1.6.3 Beispiel:

 



           

                    

5'



kK

   8 

 







8



   / 8     8     *     8 8



 8   



 8

8     '   8  '  8 8  

  8  8

1.6.4 Beispiel: Eine hermitesche Form mit folgender Matrix, in der alle Elemente in der Hauptdiagonalen 0 sind, ist zu diagonalisieren:







           







   -      8 8 

    '  8    '  8    

     

XI Bilineare und damit verwandte Formen

130

 

     







8



8      





 

 



 

  

1.7 Nicht ausgeartete Sesquilinearform 1.7.1 Definition und Satz  gilt: Für eine Sesquilinearform

1     ('  für alle # ist ein -Untervektorraum, der Ausar1.  1  tungsraum von bezüglich der ersten Variablen. (Bezüglich der zweiten Variablen analoge 



Definition).



2.

Kern





3. Die geometrische Interpretation von  = Rg( ) lautet (vgl. 1.6.2):



 

Dim

 

ist also unabhängig von den Basen, bezüglich derer



gebildet war.

Beweis: 1. Die 1. Behauptung folgt aus der zweiten. 2.

 ( '  !   !  ! 

   !  Kern    liefert: Dim  Dim Kern     Rang   3. Die Rangformel für 1  Rang  Rang   , weil  die Matrix von ist.   Rang   Rang   Dim    oder  Dim   1.7.2 Beispiel     .. .   mit -mal  die Matrix einer Sesquilinearform Ist   . 

..  1   bezüglich der Basis  ''  , so ist    ' '  .   !



























XI.2 Sesquilinearform und geometrische Begriffe



131





1.7.3 Definition einer nicht ausgearteten Sesquilinearform  Sei Dim Dim . Eine Sesquilinearform heißt nicht ausgeartet, falls eine der folgenden untereinander äquivalenten Bedingungen erfüllt ist:



1. Der Ausartungsraum bezüglich der ersten Variablen ist der Nullraum  2. Fassen wir als lineare Abbildung auf, so ist mus.



3. Die Matrix

 1 



 1 

 . 

von ist regulär.

.

4. Der Ausartungsraum bezüglich der zweiten Variablen ist der Nullraum

  !

Beweis der Äquivalenzen:

!

1. 4. 2.

3.:

! !

XI.2

Dim

 

! 

! 

ein Isomorphis-

ist regulär.

3.: Analog 3.: Der Leser möge selbst das Argument angeben.

Sesquilinearform und geometrische Begriffe

In diesem Abschnitt betrachten wir endlich dimensionale Vektorräume über einem festen Skalarenkörper  mit einer festen Involution . 2.1 Adjungierte Abbildung 2.1.1 Definition und Existenz Sei eine nicht ausgeartete Sesquilinearform und Dim    mit:  End . Dann gibt es genau eine lineare Abbildung

 1   

heißt die zu





1 

Dim

 . Sei

   '   +'   



adjungierte (genauer rechts-adjungierte) lineare Abbildung.

 ' 

 ,

ist die (Links-) Adjungierte

  1  '  , sei. ein Vektorraum

zusammen mit einer nicht

2.1.2 Beispiel: Induzierte Abbildung   Für die Bilinearform im 1. Beispiel von 1.1.2 , die induzierte Abbildung von Abschnitt V. 5.4 auf Seite 50.

 ('   8  &&& 8  8   && $ 8 





2.2 Geometrischer Vektorraum 2.2.1 Definition Ein geometrischer Vektorraum, ausgearteten Sesquilinearform

 





XI Bilineare und damit verwandte Formen

132 2.2.2 Beispiel Der mit seinem kanonischen Skalarprodukt und metrischen Vektorraumes.

 

 

ist das Standardbeispiel eines geo-

2.3 Isometrien 2.3.1 Beispiel: Isometrien des Eine lineare Abbildung des , die das kanonische Skalarprodukt erhält, für die also gilt

  ' 

+'

('











wird eine Isometrie genannt. Diese Bezeichnung kommt daher, daß, wenn das Skalarprodukt erhalten bleibt, metrische Größen wie Länge eines Vektors oder Winkel zwischen zwei Vektoren     erhalten bleiben, d. h., daß  , gilt. In Verallgemeinerung hiervon wird definiert:



'  '



 ' 

(' 

2.3.2 Definition einer Isometrie  ein geometrischer Vektorraum. Eine lineare Abbildung Sei  Isometrie von , falls die Form invariant läßt, d. h., wenn gilt:



   '    (' 





+'



1 

heißt eine





2.3.3 Satz über die Inverse und die Matrix einer Isometrie Für einen Endomorphismus eines geometrischen Vektorraumes sind äquivalent: 1.



ist eine Isometrie von

.

Id d. h. ist invertierbar und   .  3. Sei  die Matrix von bezüglich einer Basis   von und  die Matrix von bezüglich   , dann gilt:    2.3.4 Allgemeine und Spezielle Isometrie-Gruppe Für einen geometrischen Vektor'   gilt: raum    Isometrie von 1. Isometrie von  5 Isometrie von 2. ('  Isometrien von 3. Die Isometrien von bilden eine Gruppe, die (Allgemeine) Isometriegruppe von .  1 1  Isometrie von 9' 4. Sei  oder  . Für jede Isometrie von gilt:  Det    .  oder  bilden die  Isometrien von mit Det( ) = 1 eine Gruppe, die 5. Für Spezielle Isometriegruppe  von . 

2.



















XI.3 Semi-quadratische Formen

133

2.4 Orthogonalität 2.4.1 Definition Sei ein geometrischer Vektorraum, bei dem halb symmetrisch oder halb schiefsymmetrisch ist. Dann wird in Verallgemeinerung des Orthogonalitätsbegriffes im definiert:

'



   heißt orthogonal zu  1 !   1 ! ('  Wegen der Voraussetzung an ist dann auch senkrecht auf  , so daß wir sagen können,  

und

sind orthogonal aufeinander.

2.4.2 Total senkrechter Untervektorraum Sei wie in Definition 2.4.1, ein Untervektorraum von



 1  





ein Untervektorraum. Er heißt der zu Dim( ) = Dim( ) Dim( ).



'











. Dann ist

 

 

total senkrechte Untervektorraum von

; es gilt:



2.4.3 Orthogonalbasis halbsymmetrischer Sesquilinearformen  Sei ein geometrischer Vektorraum mit halb symmetrischem . Dann existiert eine Orthogonalbasis  von , d. h. eine mit:

' 8' '    '  '   '' mit     '   gilt dann: Für   1  ('          (' ' wobei       und             Die Matrix von hat dann bezüglich  ' 8 ' '  Diagonalgestalt mit den   ' '    gonalelementen.









XI.3

[1] 

Semi-quadratische Formen

In diesem Abschnitt soll im Körper  gelten beliebig,

Id

[2] 

5'

  '

d. h.

als Dia-

 . Wir betrachten die zwei Fälle:

komplexe Konjugation

Im folgenden werden wir uns mit den Ziffern [1] und [2] in eckigen Klammern stets auf diese beiden Fälle beziehen. 3.1 Semi-symmetrische und zugehörige semi-quadratische Form 3.1.1 Reellifizierung Wir benötigen im folgenden, daß ein -Vektorraum auch als -Vektorraum aufgefaßt werden kann. Wir haben nämlich wegen erst recht eine Skalarenmultiplikation mit reellen Zahlen. Beschränken wir die Skalarenmultiplikation auf reelle Zahlen, so wird aus ein reeller Vektorraum  . Er heißt die Reellifizierung von .

   



XI Bilineare und damit verwandte Formen

134 3.1.2 Definitionen



 '    ( '     + '  , wobei der Querstrich die Im Falle [2] heißt hermitesch, wenn gilt: "'   Bildung des konjugiert Komplexen bezeichnet.   ('  , wobei der Beide Fälle fassen wir zusammen als semi-symmetrisch: "'  

1. Wir wiederholen (s. 1.6.1):



Im Falle [1] heißt symmetrisch wenn gilt:





Querstrich die Anwendung der Involution bezeichnet.



2. Analog heißt eine Sesquilinearform auf

semi-schiefsymmetrisch, falls gilt:

 '     +'  

Dies wird für [1] auch schiefsymmetrisch und für [2] schiefhermitesch genannt.



3. Sei eine semi-symmetrische Sesquilinearform auf

. Dann heißt

;1  '   1  ( '    









die zu gehörige semi-quadratische Form, für [1] auch einfach quadratische Form. 3.1.3 Eigenschaften der zugehörigen semi-quadratischen Form



1. 



 

Das ist im Falle [1] die leere Bedingung, im Falle [2] bedeutet es, daß die Werte von  in liegen.



2. 

   8  8







     '    für     für  



3. Durch die folgende Festsetzung ist eine symmetrische Bilinearform

('  1         1   für [1] bzw. 1    4.   für [1]  Re   für [2]  Dabei ist der Realteil von wertweise definiert, d. h. Re   +'  1 







definiert:









für [2].

Re

 ('   

XI.3 Semi-quadratische Formen

135

 

3.1.4 Definition einer semi-quadratischen Form Bei beliebigem Körper  mit Involution (Es darf hier auch sein.) heißt eine Abbildung   mit den ersten drei Eigenschaften von 3.1.3 eine semi-quadratische Form auf , für [1] auch einfach quadratische Form .

1 

Beweis der Eigenschaften: 1.  2.  4.

< ( '     ('     Bei 1) ist  mit  vertauscht. (    ('       ('       ('          <   "'     ('     '  < ('     "'     ('    "'    ('     '   ('    ('    ('  im Falle [1], d. h.   und im Falle [2]:  Re  ('    Re   ('  d. h.  Re  



































3. Für [1] folgt die Behauptung aus Punkt 4, weil das zweifache einer Bilinearform wieder eine Bilinearform ist.

 1 

 

Für [2] folgt es ebenfalls aus Punkt 4, wenn wir noch beachten, daß   Re eine symmetrische Bilinearform ist. Letzteres kann direkt nachgerechnet werden.

3.2 Definitheit und Index 3.2.1 Voraussetzung für den Rest dieses Abschnittes Sei  entweder Id  oder kK .

' 



' 

' 

3.2.2 Definition der positiven Definitheit und verwandter Begriffe Eine semi-quadratische Form heißt positiv definit positiv semidefinit negativ definit indefinit

1!

1! 1! 1!



   mit        mit   mit   und







mit 



 .

Eine semi-symmetrische Sesquilinearform hat eine der genannten Definitheitseigenschaften per Definition, wenn ihre zugehörige semi-quadratische Form sie besitzt. Das ist in Übereinstimmung mit unserer früheren Definition positiver Definitheit.

XI Bilineare und damit verwandte Formen

136

3.2.3 Feststellung für einen Untervektorraum Ist ein Untervektorraum von und  eine semi-quadratische Form auf , dann ist die Einschränkung von  auf ebenfalls positiv (bzw. negativ bzw. positiv semi- bzw. negativ semi-) definit, wenn  es ist.





3.2.4 Kriterium für positive Definitheit Eine Matrix, die als Matrix einer positiv definiten semi-symmetrischen Sesquilinearform auftaucht, heißt positiv definit. Es erhebt sich die Frage, wie einer Matrix die positive Definitheit angesehen werden kann, ohne sich auf die Sesquilinearform zu beziehen. Dazu definieren wir die   und die Hauptunterdeterminanten einer Hauptuntermatrizen Matrix :

    ' '   ' '              .    .  ..   ...  ..   1   ..  1 Det          .           In der Literatur werden die   auch Hauptminoren genannt. Für eine semi-symmetrische Sesquilinearform sind die Hauptunterdeterminanten auch im komplexen Falle reell. Eine semi symmetrische Sesquilinearform mit Matrix  bezüglich irgendeiner Basis  ''   ist genau dann positiv definit, wenn alle Hauptunterdeterminanten von  positiv sind.

Beweis:

  ist die Matrix von     , der auf   1   ''   eingeschränkten Form.      ist   Det   eine semi-symmetrische Sesquilinearform auf   , folglich gilt:          Det   reell. Det   Det   Det    eine Basistransformation und sind  ,  die Matrizen von 

2. Feststellung: Ist    bezüglich  bzw. bezüglich   , dann gilt: Det    Det    ! 1.

Dies folgt aus der Transformationsformel (s. 1.3.3):

  Det 

   Det  Det  Det   Det   Det   Det     

   Det











Daraus folgt die Behauptung.







 



3. Sei positiv definit. Dann hat als Diagonalform die Matrix (Einheitsmatrix). Ihre Determinante ist 1 also . Nach obiger Feststellung gilt dann Det bezüglich   jeder beliebigen Basis. Da die Matrix von ist und auch positiv definit ist, folgt  . für alle

  

 ' '







XI.3 Semi-quadratische Formen

137

   . Wir zeigen durch Induktion, daß   positiv definit ist für  ' '      .   bedeutet   " , folglich ist Induktionsbeginn:   hat die Matrix                        mit  .. Induktionsannahme: Sei  positiv definit für ein

. Induktionsschluß: Wir wählen eine Orthonormalbasis von  , ergänzen Sie zu einer Basis    eine Matrix der folgenden Form von  . Dann hat            .. .. .. .. . . .  .  ... ' welche durch Ausräumen übergeht in:   && 4  && && 

4. Seien umgekehrt alle  . 





 

 

4 <   %  3.2.5 Definition und Satz vom Rang  Sei eine semi-symmetrische Sesquilinearform auf und die zugehörige quadratische Form,  aus dem Diagonalisierungssatz 1.6.2 die maximale Dimension eines dann ist die Zahl der  Untervektorraumes  , so daß die Einschränkung von auf  nicht ausgeartet ist. heißt der   . Ist  die Matrix von  bezüglich Rang von ,   1 , oder der Rang von , Rang  1  irgendeiner Basis, dann ist Rg(  ) = Rg( ).  Beweis:  1 Max Dim    Untervektorraum von mit  nicht ausgeartet     1      1     ' .'    .'  ' .'  a)    ' '   eine Basis, Sei  ' ' ' bezüglich der die Matrix  wie in 1.6.2 (a) hat.  Sei  1   '  ' . Dann hat  bezüglich der Basis  '  '  von  die reguläre Matrix     .. .      .  ..    Bei diesem Ausräumen ändert sich die Determinante wegen der Scherungsinvarianz einer Determinantenform nicht. Da die letze Matrix positive Determinante hat, folgt und damit ist    .



















 

 

 





b)



Also ist 

Sei







nicht ausgeartet. Dim

 

irgendein Untervektorraum mit



 







nicht ausgeartet. Dann gilt:

XI Bilineare und damit verwandte Formen

138



 '' Denn für   ('   

   



 ''     und  folgt:             '               '    Das bedeutet,  Ausartungsraum von  . Dies ist aber der Nullraum, da  nicht ausgeartet ist. Also muß  gelten. Wegen   '       ist die Summe '   ' '     eine direkte Summe und es folgt:   ' '         '  '   Dim   Dim  Dim    Dim   Dim     a) und b)  folgt c) Die Gleichung Rang   Rang  1. daraus, daß  durch elementare Umformungen in die Diagonalmatrix     .. .      . ..      . .. 



























 

 





mit  -mal

in der Hauptdiagonalen übergeführt werden kann,

2. daraus, daß sich bei elementaren Umformungen der Rang nicht ändert und 3. Rang







ist.

3.2.6 Sylvesterscher Trägheitssatz und Trägheitsindex Sei eine semi-symmetrische Sesquilinearform auf dem Vektorraum semi-quadratische Form. Sei:

und

 1 Max Dim    Untervektorraum von mit    positiv definit   1 Max Dim    Untervektorraum von  mit  negativ definit := Anzahl der +1 in einer Diagonalisierung von nach Abschnitt 1.6.2: 



die zugehörige

XI.3 Semi-quadratische Formen

139

   

..





.

















..

.







..

.





:= Anzahl der -1 in  . 4   Dann gilt:   Die Zahlen und sind daher unabhängig von der Basis, bezüglich der die Matrix von Diagonalgestalt  besitzt.  oder kurz der Index von bzw. von .

heißt der Sylvestersche Trägheitsindex  heißt die Signatur von  bzw. von . 



die





Beweis:

 

  ''   eine Basis, bezüglich der eine Diagonalgestalt der Form   1   ''  Dann ist    positiv definit.  Dim   b)   Sei  ein beliebiger Untervektorraum mit  positiv definit. Dann gilt: 1   ' '      ; denn aus   ' '   negativ semi-definit und

a)



Sei





hat.







  







ist positiv definit folgt,

ist sowohl negativ semi-definit als auch positiv definit. Das geht nur, wenn

ist.



 ' '     ist eine direkte Summe.   ' '        Dim   ''   Dim   Dim    Dim   Dim   















Für



wird analog geschlossen.

 

140

XI Bilineare und damit verwandte Formen

3.2.7 Anwendung in der Analysis Positive und negative Definitheit und Indefinitheit werden in der Analysis benötigt bei der Untersuchung von Maxima und Minima zweimal stetig differenzierbarer Funktionen von mehreren Variablen. Der Index spielt eine wichtige Rolle bei der Untersuchung von sogenannten kritischen Punkten, einer Verallgemeinerung von Extremalpunkten. Die zu untersuchende Bilinearform ist die Hessesche Form (s. 1.5.2).

XII.2 Zur Winkel- und Volumenmessung

141

XII Vektorräume mit Skalarprodukt 2

'   ' Id 

In diesem Abschnitt ist  und, wenn nichts anderes gesagt,



' 

oder kK (kK = komplexe Konjugation) ein -dimensionaler Vektorraum über  .

Die beiden wichtigsten Beispiele geometrischer Vektorräume haben wir bereits vorneweg in Kapitel VIII auf Seite 69 behandelt, nämlich die Vektorräume mit Skalarprodukt d. h. im reellen Falle die euklidischen Vektorräume und im komplexen Falle die unitären Vektorräume. Hier ergänzen wir die Winkel- und Volumenmessung, beschreiben die allgemeinste unitäre und orthogonale Abbildung und leiten aus dem Satz über die Hauptachsentransformation selbstadjungierter Abbildungen die Hauptachsentransformation semi-symmetrischer Sesquilinearformen ab.

XII.1 1.1

Bezug zu Sesquilinearformen

Charakterisierung eines Skalarproduktes



Nach der Terminologie aus Kapitel XI auf Seite 118 ist ein Skalarprodukt dadurch charakterisiert, daß es eine nicht ausgeartete, semi-symmetrische Sesquilinearform mit Index 0 ist. Statt Index = 0 können wir äquivalenterweise auch positive Definitheit verlangen.

1.2

Der Isomorphismus mit



Nach XI.1.5.1 bestimmt das Skalarprodukt einen Isomorphismus von  Dualraum :  oder  

mit dem semi-linearen

 1   '      ('  ('

 1   (' Skalarprodukt-Bildung mit  Ist  ''   eine orthonormierte Basis, so ist der Isomorphismus mit     es gilt:   ' '   die zu  ''    duale Basis ist. Denn

        '     







13



A. Riede: Lineare Algebra 2, SS 00



 , wobei

XII Vektorräume mit Skalarprodukt 2

142

XII.2 2.1

Zur Winkel- und Volumenmessung

Orientierter Winkel

('  ('   

(' 



'

In einem zweidimensionalen orientierten euklidischen Vektorraum   zwischen einem Paar  von Vektoren im Intervall Det         und     



 

+' 

kann der Winkel  definiert werden durch:



Dabei sei Det diejenige Determinantenfunktion von , die für eine positiv orientierte und orthonormierte Basis den Wert 1 hat. Dieser Winkel heißt der orientierte Winkel zwischen und .

 ' 8

' 8 

Diese Definition ist konform mit den Formeln in der euklidischen Anschauungsebene für den Flächeninhalt eines Parallelogramms: Sind bzw.   kartesische Koordinaten der von null verschiedenen Vektoren bzw. und der Winkel zwischen und , dann hatten wir aus der Anschauung für  im 1. Quadranten die folgenden Formeln gefunden:



 ('        Daraus folgt:    8 $ 8      Det  + '            8    8       

Also ist die obige Definition von



Durch Angabe von 

und 

 '    eindeutig festgelegt. Zu zeigen

konform mit der anschaulichen euklidischen Vorstellung.



 Det  ( '     , damit die Definition von   sinnvoll ist.    8   8

Beweis: Sei  '  8  orthonormiert,    '  

    Dann folgt: Det ('    8  8    Det     '  8   nach X. 4.1 auf Seite 109    8  8  88      8    8   88  8 Det ('   8  88  8  88  $ 8  8  88  88        8  8  8 8    .   8  8  8 8     Det ('   8 Det ('   +  '   

   8                  8 8 8 8 

bleibt:

ist



im Intervall







2.2







Bemerkung

Es kommt auf die Reihenfolge von ankommt.

('



an, da es bei der Determinante auf die Reihenfolge

'      ('  

XII.2 Zur Winkel- und Volumenmessung

143

(In höheren Dimensionen kann kein orientierter Winkel kanonisch definiert werden! Auch kann nicht für alle zweidimensionalen Untervektorräume eines höher dimensionalen Vektorraumes „kanonisch“ eine Orientierung gewählt werden !)

2.3 Das orthogonale Komplement 2.3.1 Satz und Definition Für einen Vektorraum mit Skalarprodukt ist der zu einem Untervektorraum total senkrechte Untervektorraum ein algebraisches Komplement von . Daher wird auch orthogonales Komplement von genannt.



 





 







    

 

 



Beweis: Nach früherem ist schon die Dim komplementär zur Dim d. h. Dim  Dim Dim . Es ist nur noch zu zeigen, daß ist. Dies folgt umittelbar aus der positiven Definitheit:

  

 

Sei

, dann ist

und

 

, folglich gilt

('  , also  

2.3.2 Definition des Lotes und der orthogonalen Projektion Sei ein Untervektorraum des euklidischen Raumes und . Dann kann dargestellt werden in der Form:



 ; ' 

Der Vektor Abbildung

heißt das Lot von



auf



und

 

%'   die orthogonale Projektion von

 /'   auf  . Ist   ''   eine Basis von   



  '

 

 

   





eindeutig



auf

. Die



heißt orthogonale Projektion von gegeben durch: 

, so sind

 die eindeutigen Lösungen des folgenden linearen Gleichungsystems:   ' '



    '   ( '  '

   Beweis:   !

'   ' ' ! ('         '   !      '   ('   Dabei sind die





2.4

Volumen eines Parallelflachs



und

XII Vektorräume mit Skalarprodukt 2

144



2.4.1 Definition als Grundfläche mal Höhe sei ein euklidischer Vektorraum. linear unabhängige Vektoren dimensionales Parallelflach   auf:

  '' 





spannen ein -

 '           '    Wir definieren induktiv den -dimensionalen Inhalt (Volumen):     1      1          das von   ' '    aufgespannte Parallelflach, und  die Länge des Lotes von Dabei ist    auf die lineare Hülle von   ''    .  wird auch die Höhe des Parallelflachs  bezüglich       die Grundfläche genannt und bezüglich  . Diese Definition entspricht der Erklärung des Volumens als Grundfläche mal Höhe, wie es in der Elementargeometrie üblich ist. Hier erhebt   -dimensionale Seite als sich die Frage, ob die Definition nicht davon abhängt, welche  Grundfläche gewählt wird, und wie das gegebenenfalls zu beweisen ist; anders ausgedrückt, ob das Volumen nicht von der Reihenfolge der Vektoren   ' '  abhängt. Dies ist der Fall, wenn 

1  



































das Volumen wie folgt durch eine Determinantenform definiert wird. Wir werden zeigen, daß beide Definitionen äquivalent sind. Damit ist die aufgetrete Frage beantwortet: Die Definition des Volumens ist unabhängig von der Reihenfolge der Vektoren. 2.4.2 Volumenmessung durch eine Determinantenform In einem euklidischen Vektorraum ist eine Determinantenform Det bis auf das Vorzeichen eindeutig dadurch festgelegt, daß sie auf einer (und damit auch auf jeder anderen! s. u.) orthonormierten Basis den Betrag 1 hat. Für eine solche Determinantenform gilt: 

Det

  ''    



  

Beweis: Im folgenden bezeichnet Det, ohne, daß dies in der Bezeichnung zum Ausdruck gebracht wird, eine Determinantenform auf verschiedenen euklidischen Vektorräumen, die auf orthonormierten Basen den Betrag 1 hat. Sei .   und    Aus der Scherungsinvarianz der Determinante folgt:



1    ' '    

  '

/'  

  ' '     Det   ' '    '  

'   ''     ist eine Basis von    ' '   , die wir mit dem Schmidtschen Orthonormalisierungsverfahren orthonormalisieren zu   ''  . haben wir deswegen als ersten Vektor genommen, damit wir nach dem ersten Schritt des Schmidtschen Verfahrens erhalten:    und 

.

  bezeichne die Koordinaten von      ' '   bezüglich   '  '   .  bezeichne die Koordinaten von    '  '   bezüglich der Basis  8 ' '  . Dann folgt:           Det     ' '     ' ..  Det   ' '     .   





Det





















XII.3 Beziehungen zwischen Vektorräumen über

  Det    ' '   Det   ' '     







XII.3



und



145

   nach dem Entwicklungssatz       



Beziehungen zwischen Vektorräumen über





und





 

Oft ist es nützlich von einem -Vektorraum zu einem -Vektorraum und von einem Endomorphismus zu einem -Endomorphismus überzugehen. Es kommt einem dann zu gute, daß algebraisch abgeschlossen ist. Z. B. hat stets einen Eigenwert und dazu einen Eigenvektor, so daß über größere Chancen bestehen, daß ein Endomorphismus diagonalisierbar ist. Anschließend ergeben sich aus den Ergebnissen über Rückschlüsse auf . (S. IX.3 auf Seite 83) 10.2.1.2 Zuerst betrachten wir noch einmal den zu einem komplexen Vektorraum gehörigen reellen Vektorraum  , den wir schon in Abschnitt XI.3.1.1 kennengelernt hatten. Er entsteht aus einfach durch Einschränkung der Skalarenmultiplikation auf reelle Skalare.



3.1









Satz über Basis und Dimension von 

 ' '    ' '  '  ' '  





Ist eine Basis des komplexen Vektorraumes und die imaginäre Einheit,  dann ist   eine Basis des reellen Vektorraumes  , insbesondere gilt: Dim(  )=2 Dim( ) 3.2

Definition und Satz über die komplexe Erweiterung

Sei ein reeller -dimensionaler Vektorraum. Dann wird die komplexe Erweiterung oder Komplexifizierung  von definiert durch: 1.



1



Vektoren

('



als Mengen. Die Vektoren von von .



sind also die geordneten Paare

('  von 

('  und  '  wird mit bezeichnet und definiert durch: + '   '  1    '   , wobei auf der rechten Seite beide Male die Addition in gemeint ist. 3. Die Skalarenmultiplikation in des Skalars     mit ('  wird mit bezeichnet und definiert durch:  ('  1 "&"   ' "   &  . Dabei bezeichnen die Punkte rechts jeweils die

2. Die Summe von 

























Skalarenmultiplikation in

.

Hierdurch ist ein komplexer Vektorraum Der Nullvektor ist natürlich  setz der Skalarenmultiplikation: 



erklärt. Er heißt die komplexe Erweiterung von



.

'  . Wir beweisen exemplarisch das Assoziative Ge

XII Vektorräume mit Skalarprodukt 2

146

+'      ('  , wobei      und           " '     Linke Seite:   (  '                 '    $                       '                       +'  (  ' Rechte Seite ergibt das Gleiche:     9            '                 





















3.3





Weitere Feststellungen über die komplexe Erweiterung





1. Sei der Nullvektor von . Wir identifizieren mit ungsebene ein Punkt der -Achse mit dem Punkt wird. Dann ist  und es gilt:



('   , so wie auch in der Anschau  ' der .'  -Ebene identifiziert

  gilt:  &     ; denn:     9 ( '  &"$  ' "  &   &+'   & D. h.: Die Skalarenmultiplikation von einer reellen Zahl  mit einem Vektor  von stimmt mit der Skalarenmultiplikation in überein.     ; denn:  gilt:  $ b) +'    ' ('  '   a)

















Wegen dieser zwei Punkte bezeichnen wir auch mit dem gewöhnlichen Punkt, den wir wie üblich je nach Zweckmäßigkeit auch weglassen und mit dem gewöhnlichen Plus-Zeichen. Diese beiden vorstehenden Punkte bedeuten, daß reeller Untervektorraum von   ist. 



'   , denn:   -   ('  &"   '     '   ('  gilt:   ; denn: 3. ('  ('   '    Deshalb heißt  der Realteil von ,  Re  , und der Imaginärteil von , Im  . 4. 1   heißt der zu konjugiert komplexe Vektor. '  linear unabhängig ! Re  ' Im   linear unabhängig; denn sie gehen durch Multiplikation mit einer regulären Matrix auseinander hervor:             Re            Im   

2.

















































XII.3 Beziehungen zwischen Vektorräumen über 5.

 ' '    Basis von  über  gilt Dim Dim . 

und



147

 ' '   Basis von 











über . Insbesondere

Beweis:

 ''   Erzeugendensystem von ('  beliebig. Sei      (' 

   '      ' 



 '

    

      

     

   

   a)







:





für gewisse da

 

und

  '

 Erzeugendensystem von





b) Lineare Unabhängigkeit über



von

 ''   :

  .



   

               ' 



        '

 

 

 

       '    !     und       und  für alle   '  ' , da  ' '   über  linear unabhängig.

Sei

3.4 Sei End



 

,

Die komplexe Erweiterung einer linearen Abbildung

 End  und  ''   eine Basis von . Dann ist die komplexe Erweiterung von definiert durch:   1       





Es gilt:







XII Vektorräume mit Skalarprodukt 2

148

    für alle reellen Vektoren  .  bezüglich  ' '   2.  3. Insbesondere ist  bezüglich  ' '  reell und für die charakteristischen Polynome  1.









gilt 







.







4. Jeder Eigenwert von  ist entweder reell oder mit ist auch ein Eigenwert. Ist Eigenvektor von  zum nicht reellen Eigenwert dann ist Eigenvektor von  zum Eigenwert .

        und ein nicht reeller Eigenwert von , dann gilt 

   . Bilden wir auf beiden Seiten das konjugiert Komplexe dann erhalten wir, da die  reell sind,     . Also ist auch ein Eigenwert.   ein Eigenvektor zu dem nicht reellen Eigenwert , dann gilt Ist      . Bildung des konjugiert Komplexen liefert:      nach Definition von               nach Definition von    Beweis zu 4.: Sei 







 





nach

3.5

Die komplexe Erweiterung eines Skalarproduktes

' ein Skalarprodukt auf , dann ist die komplexe Erweiterung ' so definiert, daß für  '*   gilt:  '   #1 ('   '  ('  '  ' 1    ist das komplexes Skalarprodukt auf , dessen Einschränkung auf 

Sei alle















das ursprüngliche Skalarprodukt auf





wieder ergibt.

XII.4 Normalform unitärer und orthogonaler Abbildungen 3.6

149

Bemerkung

'

'

Wir hätten in Abschnitt IX.3 auf Seite 83 über die Hauptachsentransformation selbstadjungierter Abbildungen auch diese Komplexifizierung   und  verwenden können. Einen Vorteil hätte es uns nicht gebracht. Wenn jedoch nur im Komplexen eine Diagonalform existiert und im Reellen nicht, dann werden wir im folgenden aus dieser Komplexifizierung Nutzen ziehen  und  (als können. Der Unterschied zur früheren Betrachtung ist, daß Mengen).





XII.4 4.1

Normalform unitärer und orthogonaler Abbildungen

Diagonalisierbarkeit unitärer Abbildungen

Jeder unitäre Endomorphismus mierten Basis diagonalisierbar.



eines unitären Vektorraumes

ist bezüglich einer orthonor-

Beweis:

1   1  8' '    ; denn:  '     ' "   ist. und dann auch



    '

'



Im Komplexen gibt es stets einen Eigenwert und zu ihm einen normierten Eigenvektor . Wir setzen und ergänzen zu einer orthonormierten Basis von .  ist dann ein algebraisches Komplement von . ist invariant bei  , d. h.

Wegen

'  ' "  

    ' /  , da ein Eigenwert  einer unitären Abbildung     8 ' '     hat die Matrix von bezüglich   ' '    die Gestalt: 



 







1 

.  .8 8 .. .. 8

  





 8.  ..



ist





ist wieder eine unitäre Abbildung und wir können (wie in IX.3 auf Seite 83)  induktiv schließen, daß sich aus der Diagonalisierbarkeit von die Diagonalisierbarkeit von ergibt, und zwar jeweils bezüglich orthonormierter Basen.



XII Vektorräume mit Skalarprodukt 2

150 4.2

Normalform orthogonaler Abbildungen





,'  ' '

'



<1

Es gibt eine orthonormierte Basis, bezüglich der die Matrix einer orthogonalen Abbildung die folgende Normalform hat mit  und   .



    





 













..



.

 

  

 







. ..







 







 















 



..



 

.



..

 '



'



.



Die geometrische Interpretation dieser Normalform ist folgende: zerfällt in die direkte Summe von zweidimensionalen Untervektorräumen   , den Eigenvektorraum zum Eigenwert 1, falls 1 als Eigenwert auftritt, und den Eigenvektorraum zum Eigenwert -1, falls -1 als Eigenwert auftritt. Diese Untervektorräume stehen alle paarweise aufeinander senkrecht. Bei  und  gedreht, wird jeder um einen Winkel wird am Nullpunkt gespiegelt und identisch abgebildet.









'









In anderen Worten: Die allgemeinste orthogonale Abbildung besteht aus Drehungen von zueinander paarweise orthogonalen Ebenen. Das orthogonale Komplement der direkten Summe dieser Ebenen wird orthogonal an einem Unterraum gespiegelt. Beweis:

1 



Wir gehen über zur Komplexifizierung    .  ist unitär und hat daher Eigenwerte vom Betrag 1 und nach 4.1 auf der vorherigen Seite und 3.4 auf Seite 147 eine Diagonalgestalt bezüglich einer komplexen orthonormierten Basis aus Eigenvektoren:

 '  ' ' ' '  ' ' '  '   zu den Eigenwerten  '  ' ' ' '  ''  '  ' '  mit nicht reell für  '' . Für die letzten  Eigenvektoren zu den reellen Eigenwerten wählen wir reelle orthonormierte 



Vektoren.





 

 

 



XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen

151

 '  ' transformieren wir folgendermaßen auf reelle orthonormierte Vektoren:  1 9  '   1      Die umgekehrte Transformation lautet:     ,         Da den Betrag 1 hat, können wir schreiben in der Form: "      für  '   und  . Daraus ergibt sich:                                                                    9      und analog:    Daraus sehen wir, daß die Matrix von bezüglich   '   ' '  '   '  ' '   eine Form Für









 

wie behauptet hat.

4.2.1 Normalformen in Dimension 3 Für einen dreidimensionalen euklidischen Vektorraum gibt es sechs Normalformen orthogonaler Abbildungen, die folgende Bezeichnungen tragen, wobei   ist.

 

      Drehung um eine Achse     

 

Orthogonale Spiegelung an einer Ebene durch

Orthogonale Spiegelung an einer Geraden durch

XII.5



       Drehspiegelung      

'  '      Identität      





 



Orthogonale Spiegelung am Nullpunkt

Hauptachsen semi-symmetrischer Sesquilinearformen

Aus der Diagonalisierung selbstadjungierter Abbildungen wird sich die Diagonalisierung semisymmetrischer Sesquilinearformen ergeben.

XII Vektorräume mit Skalarprodukt 2

152 5.1

Satz



Für einen Endomorphismus

von

wird die Sesquilinearform

('  1   ' 

definiert durch:



Wir erhalten eine Abbildung

 '       Bezüglich einer orthonormierten Basis   '  '   bezeichne      die Matrix von . Dann gilt: 1.     



  die Matrix von 

und







2.  ist ein Isomorphismus.

3.

 



!

ist selbstadjungiert.

Beweis: 

ist semi-symmetrisch.

 -te Koordinate von     '    ' 







2. Wir übergehen den (einfachen) Beweis, daß  linear ist und zeigen nur die Bijektivität von  . Sehen wir das Transponieren als eine Abbildung   , die Matrizenzuordnungen    ebenfalls als Abbildungen an, so bedeutet ,   oder gilt. als Zusammensetzung von Bijektionen , wobei noch ist eine Bijektion. 3.

5.2



   





!

ist selbstadjungiert

!

!



1      

 





   ' +'    '  '  +' ' 



!

Satz und Definition



ist semi-symmetrisch.



Jede semi-symmetrische Sesquilinearform auf hat bezüglich einer geeigneten orthonormierten Basis eine Diagonalmatrix mit reellen Koeffizienten in der Hauptdiagonalen. Die von diesen orthonormierten Basisvektoren aufgespannten eindimensionalen Unterräume von heißen die Hauptachsen der semi-symmetrischen Sesquilinearform. Die Transformation auf eine solche Basis heißt Hauptachsentransformation. Die Eigenwerte und Eigenvektoren der zu gehörigen symmetrischen Abildung , nennen wir auch die Eigenwerte und Eigenvektoren von .



XII.6 Ausblick auf physikalische Anwendungen

153

Beweis: Da eine selbstadjungierte Abbildung bezüglich einer orthonormierten Basis mit reellen Zahlen in der Hauptdiagonalen diagonalisiert werden kann, geht dies nach 5.1.1 auch für eine semi-symmetrische Sesquilinearform.

5.3

Bemerkung



;1      1 ('   für alle  . Die Figur 1      heißt eine Hyperfläche zweiter Ordnung oder eine Quadrik,

 eine Kurve bzw. eine Fläche zweiter Ordnung. (Vgl. Kap. XIV auf Seite 166 .) für Bezeichnen  ' '   die Koordinaten bezüglich einer orthonormierten Basis, bei der Dia 

Wir betrachten den Fall Form  ist 



. Die zur symmetrischen Bilinearform

gehörige quadratische



gonalgestalt hat und sind

die Eigenwerte, so hat





die Gleichung

   8  







Sind alle Eigenwerte positiv, dann ist ist für eine Ellipse, für ein Ellipsoid, deren Achsen Eigenvektoren darstellen. Die Längen der Hauptachsen der Ellipse bzw. des  Ellipsoids sind . Dieser Zusammenhang mit den Achsen einer Ellipse bzw. eines Ellipsoids erläutert die Bezeichnung „Hauptachsentransformation“.

 

XII.6 6.1



Ausblick auf physikalische Anwendungen

Trägheitstensor

In der Mechanik des starren Körpers führt die Betrachtung von Trägheitsmomenten bezüglich einer Drehachse auf den sogenannten Trägheitstensor. Er kann einerseits als eine selbstadjungierte lineare Abbildung , andererseits als die zugehörige symmetrische Bilinearform aufgefaßt werden mit zugehöriger quadratischer Form  . Die das Eigenwerte des Trägheitstensors heißen Hauptträgheitsmomente und die Fläche  Trägheitsellipsoid. Mit diesen Bezeichnungen  gilt:

1      1   



'

(' 5'



1      

1. Die Abhängigkeit des Trägheitsmomentes von der Drehachse wird beschrieben durch: wobei ein Einheitsvektor sei, der die Drehachse aufspannt.  



 

2. Die kinetische Energie ist (bei festem Schwerpunkt) eine Funktion des Vektors Winkelgeschwindigkeit, und zwar :  

8

3. Der Drehimpulsvektor

ist ebenfalls eine Funktion von  , und zwar:

 



der

XII Vektorräume mit Skalarprodukt 2

154 6.2

Historische Anmerkung zum Spektralsatz

David Hilbert (1862-1943) schuf Anfangs dieses Jahrhunderts eine Theorie von symmetrischen unendlichen Matrizen und führte dabei den Begriff eines Spektrums als rein mathematischen Begriff ein: Spektrum einer Matrix := Menge der Eigenwerte der Matrix Erst ca. zwanzig Jahre später wurde erkannt, daß dieser mathematische Begriff Atom- und Molekülspektren beschreibt. Unser Satz von der Diagonalisierbarkeit ist die endlich dimensionale Version des sogenannten Spektralsatzes für selbstadjungierte lineare Selbstabbildungen gewisser unendlich dimensionaler Vektorräume mit Skalarprodukt –der Hilberträume.

XIII.2 Affiner Raum

155

XIII Grundbegriffe der affinen Geometrie XIII.1

Analytische versus Synthetische Geometrie

Der Anschauungsraum wurde bisher benutzt, um ein geometrisch anschauliches Beispiel eines Vektors und eines Vektorraumes zu beschreiben. Für den Anschauungsraum selbst wurde dabei keine strenge Begründung gegeben. Den Begriff eines Vektorraumes über einem Körper  begründeten wir folgerichtig, ohne den Anschauungsraum zu verwenden. Wir werden im folgenden aus dem streng begründeten Vektorraumbegriff einen präzisen Begriff eines geometrischen Raumes ableiten, den wir für  und im dreidimensionalen Falle auch als ein mathematisches Modell für den Anschauungsraum ansehen.



Von einem Vektorraum über einem Körper  gelangen wir dabei zum Begriff eines affinen Raumes über  und von einem reellen Vektorraum mit Skalarprodukt, also einem euklidischen Vektorraum, zum euklidischen Raum. Ab jetzt müssen wir, insbesondere bei Unterräumen, streng zwischen Vektorraum und Raum unterscheiden. Die projektiven Räume sind eine weitere Art von geometrischen Räumen, die auf dem Vektorraumbegriff aufgebaut werden können. Die Untersuchung von geometrischen Räumen, die auf dem Vektorraumbegriff aufbaut, heißt Analytische Geometrie, weil über Vektorraum-Koordinaten schnell eine zahlenmäßige, quantitative Analyse möglich ist. Das Gegenstück wird Synthetische Geometrie genannt. Ihre größtenteils auf Euklid zurückgehenden Axiome sind direkt auf die zu untersuchenden geometrischen Figuren wie Geraden, Strecken, Winkel, Dreiecke und die geometrischen Begriffe wie gleich lange Strecken, gleich große Winkel, kongruente Dreiecke usw. bezogen. Vielleicht können wir die Namensgebung „Synthetische Geometrie“ in etwa so nachempfinden, daß aus diesen unmittelbar interessierenden geometrischen Gebilden und Begriffen eine geometrische Lehre durch „Synthese“ aufgebaut wird. In dem durch den Vektorraumbegriff definierten Raum liegt hingegen das fertige Produkt bereits vor, das wir „analysieren“, um die einzelnen Begriffe und Sätze herzuleiten. Diese Interpretationen –ob historisch belegbar oder nicht– verbinden jedenfalls die Namen der beiden geometrischen Lehren mit ihrer Vorgehensweise.

XIII.2 2.1

Affiner Raum

Desargues-Ebenen

Wir nennen im folgenden die in III. 6.1 auf Seite 22 synthetisch definierten affinen Ebenen Desargues-Ebenen, um sie zunächst von den analytisch definierten affinen Räumen zu unter14

A. Riede: Lineare Algebra 2, SS 00

XIII Grundbegriffe der affinen Geometrie

156

scheiden, die wir jetzt definieren wollen. (In der Literatur werden unter Desargues-Ebenen auch diejenigen verstanden, bei denen die Pappos-Eigenschaft nicht gilt, d. h. zu denen ein nicht kommutativer geometrischer Körper gehört. Der eigentliche Satz von Desargues ist noch allgemeiner; er folgt aber leicht aus der hier behandelten Parallelitätseigenschaft von Desargues (sogar in der projektiven Geometrie). Analog verhält es sich mit der Parallelitäts-Eigenschaft von Pappos und dem allgemeinen Satz von Pappos.) 2.2

Beziehung zu geometrischen Vektorräumen

Sei

sei die Menge der Punkte einer Desargues-Ebene.



der Vektorraum der geometrischen

Vektoren der Desargues-Ebene, wobei Vektoren Äquivalenzklassen von Pfeilen sind;  bezeichne die Äquivalenzklasse des Pfeiles vom Punkt  nach dem Punkt . Dies definiert eine Abbildung

1   ' : '  1  '



die eine Beziehung zwischen



(A1)

5'

(A2)



und

ist die Abbildung 



'  



gilt: 



 



herstellt mit folgenden Eigenschaften:

1  



,  



1 

bijektiv.

Damit können wir eine analytische Definition eines affinen Raumes geben. 2.3

Definition

Ein affiner Raum 1.

' '  , wobei 

über dem Körper  besteht aus einem Tripel

eine nicht leere (vgl. jedoch 3.4 auf Seite 160) Menge ist, deren Elemente Punkte genannt werden,

2. 3. 

ein Vektorraum über dem Körper  und

1  #

eine Abbildung ist.

Die Dimension eines affinen Raumes wird definiert durch: Dim



1

  :'  mit 

Dim



Um an das anschauliche Beispiel 2.2 zu erinnern, wird allgemein  bezeichnet für  . Das Tripel heißt ein affiner Raum über , wenn die Axiome (A1) und (A2)  erfüllt sind. In abstrakter Bezeichnung schreibt sich (A2) wie folgt:

:' 

(A2*)





5' 

 '  



5'  

XIII.2 Affiner Raum 2.4

Folgerungen

157



2.5



'

 

 

Definition und Eigenschaften von Translationen

Wir betrachten die Abbildung:

0%1   #' 0 ('  1     Wir definieren 0 1  durch 0   1 0 ('  . 0 heißt die Translation oder Parallelverschiebung von mit Translationsvektor  . 







Translationen haben folgende Eigenschaften: A

 1

:'      0 0  

Für alle



gibt es genau einen Vektor



mit

0 



1 0  für alle +' und alle   8 Alle Translationen bilden eine Gruppe, die zur additiven Gruppe von dere ist 0 Id.

A





.



isomorph ist. Insbeson-

Beweis:

  1 0  !   !  



nach Definition von 0   

D. h.: Haben wir ein  mit 0  

, so ergeben diese Äquivalenzen von oben nach unten gelesen, die Eindeutigkeit von  . Lesen wir die Äquivalenzen von unten nach oben, so sehen wir, daß #1    die geforderte Eigenschaft hat. Zu A  1 Wir formen die rechte Seite von A  um: 0  0 8   0   für 1 0    d. h.8        5'    

' für  1 0 

d. h. Die linke Seite von A  ergibt: 0         8      :'   '    nach den Definitionen von und  A  ergibt sich      :  '  nach A  Zu A















aus 

 .



8

 8

Daß alle Translationen eine Gruppe bilden, ergibt sich aus A , A und sei als Übungsaufgabe dem Leser überlassen. Mit Hilfe des Translationsbegriffes erhalten wir:

XIII Grundbegriffe der affinen Geometrie

158 2.6

Äquivalente Definition eines affinen Raumes

#' ' 0  , das aus einer Menge , deren  und einer Abbildung 01   Die Abbildung 0 wird in Erinnerung an das anschauliche Beispiel „Abtragen eines Vektors  von einem Punkt  aus“ genannt.   mit den Eigenschaften A  und 0 Id heißt eine Ausblick: Eine Abbildung 0 1 8 Operation der additiven Gruppe von auf der Menge . Eine solche Operation heißt transitiv, wenn es für alle 5'  ein  gibt mit 0  

und einfach transitiv, wenn es genau ein solches  gibt. A   bedeutet also die einfache Transitivität der Operation 0 . Mit dem Ein affiner Raum über dem Körper  ist ein Tripel Elemente Punkte genannt werden, einem  -Vektorraum besteht mit den Eigenschaften A , A .



Abtragen von Vektoren haben wir also ein Beispiel einer einfachen transitiven Operation einer Gruppe auf einer Punktmenge kennengelernt. Gruppenoperationen spielen eine bedeutende Rolle sowohl in der klassischen Geometrie wie in der aktuellen Mathematik.

(Stichwort (klassisch): Felix Kleins Erlanger Programm (1872): Eine Geometrie besteht nach Klein aus der Untersuchung aller Eigenschaften von geometrischen Figuren, die bei der Operation der Gruppe, die zu jeder Geometrie gehört, erhalten bleiben. Beispiel:  ist die Gruppe der Geometrie eines euklidischen Vektorraumes, ist eine Eigenschaft, die bei allen orthogonalen Abbildungen erhalten bleibt. Siehe G. Fischer: Analytische Geometrie, S. 208, 6. Auflage, vieweg, Wiesbaden 1992)





(Stichwort (aktuell):  -Räume,  eine Symmetrie-Gruppe des Raumes). Wenn wir mehrere affine Räume betrachten, so verwenden wir für den affinen Raum Schreibweise:    

die

' ' 

Wenn aus dem Zusammenhang keine Verwechslungen möglich sind, wird für den affinen Raum und die ihm zugehörige Punktmenge das gleiche Zeichen verwendet!  wird auch mit bezeichnet und mit !

#' ' 

Beweis der Äquivalenz der beiden Definitionen affiner Räume: Es ist noch zu zeigen, wie wir von der zweiten Definition zur ersten zurückkommen. Dazu sei

:' 



dann:

A 

0

 

per Definition das nach A 





  eindeutig bestimmte 

1 Injektivität von :



 5'

5' 

1  0  und 0 



' da 0 eine eindeutige Zuordnung. Surjektivität von : Sei  , setze 1 0  

Zu





 





  







 





mit

0 



.

  Es gilt 

XIII.3 Affine Unterräume   

:' 



Zu A



8 1





0















0





0     Außerdem gilt: 0   gibt mit 0   













Da es genau ein 

  









2.7

  von 

nach Definition





159



5'  





0



 

 





0









, folgt aus

5' 













 

und

8  

nach A wegen wegen

:

 wegen   



 '  

Beispiele

1. Die Auffassung eines Vektorraumes

als affiner Raum

:

+'  1   ('    eines Vektors nach einem 2. Die sogenannte Nebenklasse   1 Untervektorraum  von bildet eine affinen Raum : 1  /'  fest, 1 /' 1    (  wie im 1. Beispiel) 3. Wegen Łinhom  Łhom bilden sowohl die Lösungen eines inhomogenen linearen 1 '



1 '



































Gleichungssystems wie auch eines inhomogenen linearen Differentialgleichungssystems mit konstanten Koeffizienten einen affinen Raum. (Vgl. V. 8.2 auf Seite 55 bzw. IX. 6.2 auf Seite 97)

XIII.3 3.1

Affine Unterräume

Definition



' '

1!

Ein affiner    Raum 1.



2. 

3. 

 





' '  







heißt ein affiner Unterraum des affinen Raumes

(als Mengen),

ist Untervektorraum von 











' 



und

XIII Grundbegriffe der affinen Geometrie

160 3.2 1.

Beispiele

# 

aus dem 2. Beispiel von 2.7 auf der vorherigen Seite ist ein affiner Unterraum des affinen Raumes des 1. Beispiels. Die affinen Unterräume von durch Null sind nichts anderes als die Untervektorräume von , aufgefaßt als affine Räume im Sinne des 2. Beispiels von 2.7 auf der vorherigen Seite.

' '  ein affiner Raum,  '  ein Untervektorraum von , dann bildet 

       einen affinen Unterraum mit . die Teilmenge 1 

2. Ist







Der Unterraum heißt (in beiden Beispielen) der zu durch  . 3.3





parallele Unterraum von

bzw.

Kriterium

1  

Sei ein affiner Raum und eine Teilmenge von affinen Unterraumes von genau dann, wenn      . Untervektorraum von ist für ein 



3.4

durch

. Dann ist die Punktmenge eines eine bijektive Abbildung auf einen

Satz über den Durchschnitt affiner Unterräume

  affiner Unterräume  , ( eine Indexmenge) eines affinen Raumes ist ein affiner Unterraum von . Hierbei ist es zweckmäßig zu definieren, daß die leere Menge      .  ein affiner Unterraum der Dimension  ist. Weiter gilt für  Der Durchschnitt 





3.5



Affine Hülle und Verbindungsraumes







  

Ist eine Menge von Punkten des affinen Raumes , so gibt es nach 3.4 den kleinsten affinen Unterraum von , der umfaßt. Dieser heißt die affine Hülle von in oder der von aufgespannte (oder erzeugte) affine Unterraum von . Wir bezeichnen ihn mit oder .

 ''  '  '

 

&& 

 

 der (affine) Verbindungsraum

 &&  .  , 8

 , :' ,  . Dann ist   8 1 

Spezialfall:  Verbindungsgerade von  und . Sind von

3.6

affine Unterräume von , so heißt . Wir bezeichnen ihn auch mit 

Dimensionsformel

Für affine Unterräume



'

Dim



des affinen Raumes





Dim







gilt, falls Dim







 Dim



oder

 



oder



die

  :

XIII.5 Affine Ebenen Falls





161



und

und 

Dim

XIII.4 4.1





  gilt:  Dim   

Dim











Dim



 

Parallelität

Definition

 0   8

0 0

Unter einer Figur verstehen wir einfach eine Teilmenge des affinen Raumes . Eine Figur heißt parallel zu einer Figur , falls eine Parallelverschiebung existiert, mit  oder . Die Bezeichnung für Parallelität ist:

8 0 8    8 Sind  ' 8 affine Unterräume, dann bedeutet parallel dasselbe wie



 





oder   . Gleichdimensionale afine Unterräume sind also genau dann parallel, wenn ihre zugehörigen Vektorräume gleich sind. Daraus folgt:



4.2



Feststellung



Auf der Menge aller -dimensionalen affinen Unterräume ( Äquivalenzrelation.

XIII.5





fest) ist die Parallelität eine

Affine Ebenen

sei eine affine Ebene, d. h. ein zweidimensionaler affiner Raum.

5.1

Feststellung

Auf der Menge der Geraden ist Parallelität eine Äquivalenzrelation. Siehe 4.2!

5.2

Feststellung

1 !  

 '



Zwei Geraden sind parallel oder . D. h. der analytische Parallelitätsbegriff stimmt mit dem synthetischen aus III.6.1.2 überein.

 !  

Beweis: Wir zeigen, daß die Verneinungen äquivalent sind.

 

!  nicht parallel 1) wegen der Dimensionsformel: Dim    Dim    Dim   Dim   

und

0-dimensional

!



XIII Grundbegriffe der affinen Geometrie

162 5.3

Feststellung

%





Es gilt das Parallelenaxiom; d. h. zu jeder Geraden  . Gerade mit und



und jedem Punkt



gibt es genau eine

Beweis: Eindeutigkeit:

%













5.4

Strahlensatz







     Existenz: 1   

 

  













und seien zwei verschiedene Geraden, die sich in dem Punkt schneiden. und seien zwei zueinander parallele Geraden, deren Durchschnitt mit bzw. jeweils aus genau einem von  , verschiedenen Punkt besteht; wir bezeichnen die Schnittpunkte wie folgt: ,

  5 1 ,   : 1  . Weiter  sei 4 1 Dann ist   , weil   ,   4 '  . Behauptung:  Beweis:  Sei  1 . Es ist    ,  4   4  4         # 4      #  4  4  



  1     1    1  , 1  ,  1   , 1 "

,  für geeignete Skalare





5.5

  ,  1 

und

 

.' '



.

.

 





" " 

 

  



wegen wegen

 

4

und





Satz von Desargues

 '  8 '    und   ' 8 '   seien Dreiecke in perspektiver Lage mit dem Zentrum paralleler Lage (vgl. III.6.1.4). Dann gilt:    8     8 und           8    8   

Beweis: Bei perspektiver Lage: Sei:

oder in

XIII.5 Affine Ebenen

163

B3

A3

g3

g2

B2

A2

B1

A1

g1

Abbildung 16: Satz von Desargues bei paralleler Lage

1     ' 4 1     ' 1       '  1   8    ' #1      8 '  1       ' ;1 Sei gilt nach dem Strahlensatz: ( und      4 ,  dann  $         8    8  Bei paralleler Lage: Es gilt (wegen   s. die untenstehende Aufgabe):        8      8 und                  8   8        8          8   





  8    , 1      8   . Folglich ist: 







5.6



Aufgabe





 gelte:   '/ '    '   '    . Sei  "1  -'  "1 +  ' '  '   -'  1   +'  1    . 8    8        8 und      8  8 Dann gilt:    8 Für die Geraden

XIII Grundbegriffe der affinen Geometrie

164

B3

g

B2 B1 Z

A3

A2

h

A1

Abbildung 17: Parallelitätssatz von Pappos und Kommutativität

5.7

Parallelitätsatz von Pappos

 '

         8              8



        und  8       8



    8 ' für ein       nach dem Strahlensatz    5' für ein      nach dem Strahlensatz       8           5' wegen  und       ' wegen   und    8     8         8  8      8   8 

Beweis:

' 8' 

zwei verschiedene Geraden, die sich in einem Punkt treffen.   seien jeweils paarweise und von verschiedene Punkte. Dann gilt:

+'   ' 8 ' 

Seien



 8   8 



XIII.5 Affine Ebenen 5.8

165

Abschließende Bemerkung

Damit haben wir im wesentlichen bewiesen, daß eine (analytisch definierte) affine Ebene auch eine affine Ebene im Sinne der synthetischen Geometrie, d. h. eine Desargues-Pappos-Ebene ist.

XIV Aspekte der euklidischen Geometrie

166

XIV Aspekte der euklidischen Geometrie XIV.1 1.1

Grundlegendes

Definition

Ein euklidischer Raum hörigen Vektorraum .

1.2

ist ein reeller affiner Raum mit einem Skalarprodukt auf seinem zuge-

Definition

Ein Punkt  , genannt Grundpunkt oder Nullpunkt und eine orthonormierte Basis von heißt ein kartesisches Koordinatensystem von . Fü beliebiges 



gilt:



 



   '   



 ''   heißt das Koordinaten- -tupel von   stems  '  ''  .  1.3

bezüglich des kartesischen Koordinatensy-

Transformation kartesischer Koordinaten

'   ' '   

Sei  ein zweites kartesiches Koordinatensystem,  -tupel von  bezüglich   . 15

  ' '   

'   ' '   

A. Riede: Lineare Algebra 2, SS 00

  ' '   

das Koordinaten-

XIV.2 Kurven zweiter Ordnung

                







167



 

                         









 





                      













1.4





     

  







orthogonal

 1   ',  1  











Ergebnis

Kartesische Koordinaten transformieren sich durch Multiplikation mit einer orthogonalen Matrix und Addition eines -tupels. Das additive -tupel beschreibt den Translationsanteil der Transformation.      

 XIV.2

 . ..





 ..  . 



 

.. .



 



orthogonal

Kurven zweiter Ordnung

sei ein zweidimensionaler euklidischer Raum, eine euklidische Ebene. 2.1

Definition

 ' 8 

seien kartesische Koordinaten in . Die Lösungsmenge

   8     8  8   8 8 88     .   8 8 

heißt eine Kurve 2. Ordnung oder eine Quadrik in ein Ausdruck 2. Ordnung.



einer Gleichung 2. Ordnung

'   

(1)

. Der Ausdruck auf der linken Seite heißt

  1   für , #1  und  1       8 , und berücksichtigen wir, daß    8  8   8  8   8  8  etc., dann schreibt sich (1) in der systematischeren 8   (2)  

Setzen wir dann gilt Form:



















 

XIV Aspekte der euklidischen Geometrie

168 2.2

Transformationsformeln

              8  8  1  8 8   8   88 8 Wir setzen weiter:   3   8 1   3     8 mit  1  '* %1 '  8 1  3    8 8 88 1  8   8 88  orthogonal 8    in die Kurvengleichung ein, so erhalten wir: 8       '* Setzen wir  8     8           8 8      mit   8        . Die     -Matrizen transformieren sich also nach der Formel: 1     (3)  '  1 '* 1 erhalten wir:   8         für '  ' Wegen  1 8 Wenn wir setzen    

    1    8  '  1      8  , 8 88 8 88 Eine kartesische Koordinatentransformation können wir folgendermaßen ansetzen:























 





































läßt sich dies in Matrizenform ausdrücken:

 

(4)

D. h.  transformiert sich wie bei einer symmetrischen Bilinearform. Es folgt aus diesen Transformationsformeln, daß ein Ausdruck zweiter Ordnung gegenüber kartesischen KoordinatenTransformationen folgende Invarianten hat:



Rg

'

Rg



'

die Eigenwerte

         8 

Was die Determinanten angeht, folgt dies aus: 





















, da





 '  8 von  &' Det   ' Det    8 88 



 





XIV.2 Kurven zweiter Ordnung 2.3

169

Klassifikation

Auf Hauptachsen transformiert, erhalten wir:







     8

8 8



Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben bezeichnet! Die Kurvengleichung lautet:



  8   8 88     .   8 8   ' Rang   ;1 1. Fall: Rang   und wir können die quadratische Ergänzung bilden: Dann sind  '  8   8     -      8 8    8  8   8    8 8  '  ' da Rang    8 1 188 1 Das transformierte  hat die Form     8 und  die Gleichung:    8   8  88    1        8    8  88  '  /1   '  8 1   















 

 

Unterfälle:

 '  8 : Ellipse b)   und  8  1 Hyperbel c)   '  8 : nullteilige Kurve,   ' Rang    2. Fall: Rang   a)





Durch quadratische Ergänzung können wir erreichen:





      8

8



 



 8 

8



8

wegen Rang



 



XIV Aspekte der euklidischen Geometrie

170

  8    8  8    8    8 8      8    8    8  8  8 Wir können annehmen: 



 /1  '  8 1 8  8  8 1    8

  











 ; andernfalls führen wir die Transformation  8    8 aus.

Die Kurve ist eine Parabel.



3. Fall: Rang Dann ist

 '



Rang



8 .

und

 

Unterfälle:

 '  8  :  besteht aus genau einem Punkt. b) % ', 8 :  besteht genau aus zwei sich schneidenden Geraden.  ' Rang    4. Fall: Rang    besteht aus zwei parallelen Geraden oder ist leer.  ' Rang    5. Fall: Rang    besteht aus genau einer Geraden. a)

XIV.3 3.1

Flächen zweiter Ordnung

Definition

 ' 8 '   seien kartesische Koordinaten in einem drei-dimensionalen euklidischen Raum . Die Lösungsmenge einer Gleichung 2. Ordnung           .      

     '   (5) 8 8     , und wir setzen heißt eine Fläche 2. Ordnung oder eine Quadrik in . Dabei sei    wieder 1 die systematischere Schreibweise:      und erhalten      8  und 1 : ' in Matrizenform:  mit   &''   Es wird analog zum zwei-dimensionalen Fall gesetzt:  1       8  































   



 

XIV.3 Flächen zweiter Ordnung 3.2

171

Invarianten

Bei kartesischen Koordinaten-Transformationen erhalten wir die zum zwei-dimensionalen Fall analogen Transformationsformeln für den Ausdruck 2. Ordnung und daher folgende Invarianten: Rg 3.3



'

Rg



'

die Eigenwerte

 ', 8 ',  von  &' Det   ' Det  

Klassifikation

Auf Hauptachsen transformiert, ergibt sich:



 

     8 

 8   8 



Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben bezeichnet! Die Flächengleichung lautet:

  8   8 88   8     -   8 8     * 1  ' Rang   1. Fall: Rang  

Durch quadratische Ergänzung bekommen wir:

 



  8  8 88    8  und durch Gleichungsumformung:   8   8 88  8 Unterfälle: a)   '  8 '   : heißt ein Ellipsoid.  Für 8 8 Der Schnitt mit der  ' 8  -Ebene ist eine Ellipse:  '      8 8   kleine  sind auch die Schnitte mit Ebenen parallel zur  ' 8  -Ebene Ellipsen:  konstant,   8   8 88    8 ; für    8 sind es Kreise und ist ein Rotationsellipsoid, das dadurch entsteht, daß eine Ellipse um die  -Achse rotiert. b)   '  8 '    : heißt ein einschaliges Hyperboloid. Schnitte mit zur  ' 8  -Ebene parallelen Ebenen sind stets Ellipsen:  '   8    8 88    8 . Zu beachten ist hier, daß die rechte Seite immer größer als 0 ist. Die Schnitte mit den Koordinaten-Ebenen  bzw. 8 sind Hyperbeln. c)   '  8 '    : heißt ein zweischaliges Hyperboloid.  '  8 88   8  :  ; entsprechend, wie eine Hyperbel aus zwei Ästen besteht, besteht aus zwei Teilen, genannt Schalen, die durch die 8 '  -Ebene getrennt werden; im einen ist   im anderen   .

172

XIV Aspekte der euklidischen Geometrie

 : ist eine Hyperbel. 8 8 '          8 '   8  8 88  1 ist eine Hyperbel. 2. Fall: Rang    ' Rang            '  8    8    wegen Rang    . Wie bei der Parabel kann erreicht werden, daß  wird.   8  8 88          8   8 88 '   '  8 Unterfälle: a)   '  8 : heißt ein elliptisches Paraboloid.  konstant  leer  konstant  : Ellipse  konstant oder 8 konstant: Parabeln b)   '  8  : Elliptisches Paraboloid, da durch die Tranformation   :  in den vorstehenden Fall überführbar. '  8 : heißt ein hyperbolisches Paraboloid oder Sattelfläche. c)    Schnitte mit Ebenen ergeben:  : Sich schneidendes Geradenpaar.  konstant  : Hyperbel  konstant  : Hyperbel  oder 8 : Parabel  : Kann nicht auftreten; denn 3. Fall: Rang    ' Rang        8          Rang    , Widerspruch!    8   ' Rang    : 4. Fall: Rang        '  8 '     8  weHier erreichen wir die fettgedruckten Nullen durch quadratische Ergänzung,  . gen Rang  

XIV.3 Flächen zweiter Ordnung

173

  8  8 88    8 Unterfälle: a)  '  8 '    : besteht aus genau einem Punkt. b)  '  8  ',  : ist ein Kegel.  konstant : Ellipse  : Punkt c) Alle weiteren Unterfälle lassen sich durch Multiplikation mit -1 und Vertauschen von Koordinaten auf die betrachteten zurückführen.



5. Fall: Rang der.



6. Fall: Rang

8. Fall: Rang 9. Fall: Rang

 '

 '



7. Fall: Rang Ebenen.

 '

 



Rang



Rang Rang



 :

  :

 :

  ' Rang    :   ' Rang    :

ist ein elliptischer oder ein hyperbolischer Zylinist ein parabolischer Zylinder. besteht aus zwei verschiedenen sich schneidenden besteht aus zwei verschiedenen parallelen Ebenen. besteht aus einer Ebene.

XV Der Minkowski-Raum

174

XV Der Minkowski-Raum Im folgenden bezeichnen

 ' 8 ' &'  Koordinaten zu einer Basis   '  8 '  &'   .





XV.1 Modell der räumlich-zeitlichen Welt 1.1

Problemstellung

Wir stellen uns die Aufgabe, ein geometrisches Modell unserer räumlich-zeitlichen Welt aufzustellen. 1.1.1 Erste Annahme Wir nehmen an, daß sich die Ereignisse unserer Welt durch drei räumliche reelle Koordinaten und eine reelle Zeitkoordinate beschreiben lassen und umgekehrt zu jedem genau ein Raumzeitpunkt gehört. Mathematisch nehmen wir an, daß die

Welt ein vierdimensionaler reeller affiner Raum ist.

 '  '

8 ''  &'   8

1 0

1.1.2 Definition der Lichtgeraden und des Lichtkegels Unserer Erfahrung nach gibt es für unseren dreidimensionalen Lebensraum gewisse (kartesische) Koordinatensysteme, , so daß jeder Lichtstrahl eine Gerade ist.

 ' 8 '   Ein Lichtstrahl durch den Koordinaten-Ursprung hat also folgende Parameterdarstellung:  0    0 '  '  '  '  '  8 '     konstant ' 0 ein reeller Parameter Verwenden wir als Parameter für die Lichtausbreitung die Zeit 0 , so ist die Konstante  1     8 als die Ausbreitungsgeschwindigkeit eines Lichtblitzes zu verstehen. Den physikali

schen Beobachtungen zufolge ist die Lichtgeschwindigkeit für alle Lichtstrahlen die gleiche, also eine Konstante. Auf die tiefere Bedeutung dieser physikalischen Beobachtung kommen wir noch zurück. Im vierdimensionalen Raum stellt sich die Lichtausbreitung vom Koordinaten-Ursprung aus durch sogenannte Lichtgeraden dar, die durch ein homogenes lineares Gleichungssystem gegeben sind:

  

 ' ' 





mit

1









    8

Mathematisch betrachtet, bedeutet die Existenz von Koordinatensystemen, in denen sich Lichtstrahlen in einer solchen Weise beschreiben, daß diese Lichtgeraden als Strukturelemente gegeben sind. Alle Lichtgeraden zusammen bilden den Lichtkegel: 

1





   8 $ 8 8

XV.1 Modell der räumlich-zeitlichen Welt

175

1.1.3 Inertialsysteme Jedes Koordinatensystem, in dem sich Lichtstrahlen wie beschrieben längs Geraden ausbreiten oder mathematisch betrachtet, in denen sogenannte Lichtgeraden oder der Lichtkegel gegeben sind, nennen wir ein Inertialsystem. In der Physik werden Inertialsysteme anders definiert; sie sind jedenfalls so erklärt, daß in Inertialsystemen die Naturgesetze die gleiche Form haben (Relativitätsprinzip). Wir haben hier nur das eine Naturgesetz berücksichtigt, daß sich Licht mit konstanter (endlicher) Geschwindigkeit längs Geraden ausbreitet. Wenn das Naturgesetz der Lichtausbreitung invariant gegenüber Koordinatentransformationen von einem Inertialsystem zu einem anderen sein soll, so müssen Lichtgeraden in Lichtgeraden oder der Lichtkegel in den Lichtkegel übergeführt werden. 1.1.4 Auf dem Lichtkegel verschwindende quadratische Formen Die Gleichung des Lichtkegels legt nahe, die quadratische Form

 ' 8 ' &'  1 8 $ 88 $ 8   8 8







zu betrachten, die auf dem Lichtkegel verschwindet. Für eine lineare Koordinatentransformation , die den Lichtkegel in den Lichtkegel überführt, muß dann 

 ' 8 ' &'  1





 ' 8 ' &'  



wieder eine quadratische Form sein, die auf dem Lichtkegel verschwindet. Gilt etwa   Dazu hilft weiter: 

?

  ' 

1.1.5 Satz über quadratische Formen  ist bis auf einen Faktor die einzige nicht ausgeartete quadratische Form, die auf dem Lichtkegel verschwindet. Eine quadratische Form  heißt dabei nicht ausgeartet, wenn die symmetrische Bilinearform , zu der sie gehört, nicht ausgeartet ist. 1.1.6 Minkowski-Raum Eine Koordinatentransformation die den Lichtkegel in den Lichtkegel transformiert, transformiert also  in sein -faches mit einem . Diese Transformation von  wird auch bewirkt     durch die Skalenänderung auf jeder Achse um den gleichen Faktor . Wenn ein auftritt, können wir das deshalb so interpretieren, daß bei auch noch eine solche Skalenänderung vorgenommen wird. Die Transformationen, die die Form  invariant lassen, können wir also als diejenigen ansehen, die den Lichtkegel in den Lichtkegel überführen und keine solche Skalenänderung hervorrufen.







Damit gelangen wir zu folgendem Modell der Welt: Die Welt ist der Form  bzw. mit der symmetrischen Bilinearform:

 .'   1      $ 8   











mit der quadratischen



Die Welt ist also ein geometrischer Vektorraum mit einer symmetrischen Bilinearform der Signatur 3 und mit Index 1. Als erster hat der Mathematiker Hermann Minkowski (1864-1909)

XV Der Minkowski-Raum

176





diesen Raum als einen Rahmen für die spezielle Relativitätstheorie erkannt. Nach ihm wird er Minkowski-Raum genannt. Da bis auf das Minuszeichen wie ein Skalarprodukt aussieht, wird auch pseudoeuklidisches Skalarprodukt genannt und ein pseudoeuklidischer Vektorraum.



'

XV.2 Lorentztransformationen 2.1

Definition

Die Lorentztransformationen sind die Isometrien des Minkowski-Raumes.

1    '     4 eine Lorentztransformation heißt homogen, falls 4 ist.   Daß eine Isometrie ist bedeutet für die Matrix  nach XI.2.3.3   Matrix von bezeichnet. Ausführlich:       

         1 1 1   1  



 1 1       für  ' '       mit den Kroneckersymbolen  und  1   für 





, wobei

























1





Damit schreibt sich die Isometriebedingung in der folgenden Form, wobei   bezeichnet: 



1

die

   

 ' 





die -te Spalte von

D. h. ist eine Isometrie genau dann, wenn die Spalten von  pseudo-orthonormiert sind, d. h., daß  eine pseudo-orthogonale Matrix ist. 2.2

Definition

Ein Vektor heißt raumartig : zeitartig : Lichtvektor : 2.3

!

! !

   





Einheitsvektoren

Einheitsvektoren erfüllen die Gleichung:

8 $ 88 $ 8  8  

XV.2 Lorentztransformationen



177



Dabei gilt für die raumartigen Einheitsvektoren und für die zeitartigen. Die raumartigen Einheitsvektoren liegen auf einem einschaligen (dreidimensionalen) Hyperboloid, die zeitartigen auf einem einschaligen. 2.4



Relativität der Gleichzeitigkeit

  '  8 '  '  

  '  8 '  '  



Bezüglich zweier Inertialsysteme mit den Basen und     , so daß und  linear unabhängig sind,sind zwei Ereignisse, die in einem Koordinatensystem gleichzeitig sind, im andern nicht gleichzeitig.

XVI Eigenvektor-Theorie und Normalformen

178

XVI Eigenvektor-Theorie und Normalformen Wenn nicht ausdrücklich etwas anderes gesagt wird, bezeichnet mus eines -dimensionalen Vektorraumes über dem Körper  (

XVI.1

1  

einen Endomorphis-

).

Charakteristisches Polynom

 

 

  

Man ist versucht, das charakteristische Polynom durch Det( Id ) zu definieren. Jedoch ist Id End d. h. es ist ein Element eines Polynomringes und nicht ein Endomorphismus. Daher wird zuerst das charakteristische Polynom einer Matrix erklärt. Dazu schicken eine Koordinatentransformation, dann wir eine andere Betrachtung voraus. Ist transformiert sich nach V. 7.6 auf Seite 53 die Abbildungsmatrix  bezüglich in die Abbildungsmatrix  bezüglich nach der Formel: 

    

 



1.1



 

 



Definition konjugierter oder ähnlicher Matrizen

 



Zwei -Matrizen  und  , für die die Formel Matrix ist, heißen konjugiert oder ähnlich zueiander.

gilt, in der



eine reguläre

 -

Wegen der Bemerkung zuvor sind  und  genau dann zueinander ähnlich, wenn sie als Abbildungsmatrizen ein und desselben Endomorphismus bezüglich eines Koordinatensystems bzw. aufgefaßt werden können.

 

1.2 Sei



 





Definition des charakteristischen Polynoms eine Unbestimmte und 

<

  







  . Dann ist

      .  8 .  .8  . . . . . . .. .. ..         





 . 



..

           ; alle Koeffizienten außerhalb der Hauptdia

eine Matrix mit Koefizienten im Polynomring  gonalen sind konstante Polynome, die in der Hauptdiagonalen lineare Polynome (solche vom Grade 1). Jetzt wenden wir die Determinantentheorie für kommutative Ringe an, und zwar für 16

A. Riede: Lineare Algebra 2, SS 00

XVI.1 Charakteristisches Polynom

179

 

   ist ein Polynom, es heißt das charak . Ist  von bezüglich einer Basis  ' '  von , dann heißt  die Abbildungsmatrix      1   das charakteristische Polynom von .

den Polynomring  . Die Determinante der Matrix teristische Polynom von  ; wir bezeichnen es mit  



1.3

Grundtatsachen über das charakteristische Polynom

1. Grad  

 

Grad 

' ' 

 

; der höchste Koeffizient ist

 

2. Von der Basis , bezüglich der die Abbildugsmatrix gebildet wurde, hängt das  charakteristische Polynom  nicht ab. 

3. Ähnliche Matrizen haben das gleiche charakteristische Polynom.

ist diagonalisierbar !   ist ähnlich zu einer Diagonalmatrix  , d. h.       für eine reguläre   -Matrix  . 1        , bei dem für  Id eingesetzt 5. Beim Einsetzungshomomorphismus  über. wird, geht das charakteristische Polynom   in die ganzrationale Funktion  (Vgl. Abschnitt X. 5.5 auf Seite 115!) Damit ist der Anschluß an Kapitel IX auf Seite 81 hergestellt. Insbesondere gilt: Die Eigenwerte von sind genau die Nullstellen aus des charakteristischen Polynoms von .

4.















Beweis: Zu 1: Dies folgt aus der Leibniz-Formel für Det



Zu 3: 

 

2. folgt aus 3.

                                   

 

 



Zu 4: Nach Definition ähnlicher Matrizen.

1   Id   Det <     8 Det     

Zu 5: 



 





sgn

   



 sgn        sgn      Det      











 '  '  ' 

        Id          































XVI Eigenvektor-Theorie und Normalformen

180 1) wegen der Leibniz-Formel, 2) da  ein Algebra-Homomorphismus,



3) wegen wertweiser Addition und Multiplikation von Funktionen.

 



Für die letzte Aussage ist nur zu beachten, daß die in  gelegenen Nullstellen eines Polynoms per Definition die Nullstellen der ganzrationalen Funktion  sind.  1.4



Beispiel

Durch Entwickeln nach der letzten Zeile von Polynom der Matrix 

. .  .

 

 





.. .. .

wie folgt lautet:

      ''    also Wenn wir für    &&            



Polynom einer Matrix auftaucht.

1.5

..

  



erhalten wir, daß das charakteristische

.



..

..

.

..

.

..



    '    8      ! &&                      setzen, sehen  wir, daß jedes Polynom  mit höchstem Koeffizient    als charakteristisches ..

.



Definition und Satz von der Spur

Die Spur einer

  -Matrix 

 ' '  

   ist definiert durch:    Spur   Sp   1   

Die Spur eines Endomorphismus von einer Basis  definiert: Spur



1

 

wird über die Abbildungsmatrix Sp Sp . Dann gilt:

 

von



bezüglich



1. Ähnliche Matrizen haben die gleiche Spur.





2. Die Spur von hängt nicht von der Basis ab, bezüglich der die Abbildungsmatrix gebildet wird, sondern nur von .



          , wobei    der    -te Koeffizient des charakteristischen Poly-

3. Sp  noms von  ist.

XVI.1 Charakteristisches Polynom 1.6

181

    -Matrix

Charakteristisches Polynom einer

    -Matrix und seine Nullstellen lauten also:       !    Sp8        8  Sp 

Das charakteristische Polynom einer

   8 



Sp



Die Untersuchung der Nullstellen eines Polynoms und damit die Untersuchung von Matrizen und Endomorphismen wird vereinfacht, wenn das Polynom in Faktoren von Polynomen (niedrigeren Grades) zerlegt werden kann. Diese Zerlegung ist in einem, wie sich noch herausstellen wird, wichtigen Fall möglich: Satz über eine Faktorisierung von 

1.7 Sei

ein kommutativer Ring mit Eins. Sei 



  



 

1

,







 .





 

'

'5

  









, Nullmatrix



Dann gilt für die Determinanten und die charakteristischen Polynome: 





          





  . 



Dies verallgemeinert sich leicht auf „Kästchen - Dreiecksmatrizen mit mehr als zwei diagonalen Kästchen “. Beweis:

 /  /  

Dies folgt aus der Leibniz-Formel. Wegen der Nullen in dem linken unteren Kästchen brauchen  für  . D. h., es müssen nur die wir nur die Permutationen zu betrachten mit  Permutationen betrachtet werden, die die letzten  Indizes untereinander vertauschen und die folglich auch die ersten  Indizes untereinander vertauschen. Für eine solche Permutation  setzen wir:

  5      5        1  1 5  8  Das heißt:   1   für  '' '    8  1  :   für  '  '  '  8   für  '  und     für  Beachten wir  

wir:                

   1 

  



:   1 :  8  



























  































 

'



















 







 

so erhalten

XVI Eigenvektor-Theorie und Normalformen

182

 

Daraus folgt:





 

     





      





 

 







        





   

     















  













XVI.2 Eigenvektorräume

XVI.2

Eigenvektorräume





Weiterhin sei  End

2.1

183



und Dim( ) = ,

:'

ein beliebiger Körper. 

Satz über Eigenvektoren zu verschiedenen Eigenwerten

' '





 sei Eigenvektor zum Eigenwert , und die Eigenwerte Für   linear unabhängig. verschieden. Dann sind

' '

 1     Induktionsbeginn:

Induktionsschluß: Sei  1       #1         1                Dies in I eingesetzt liefert 

Beweis durch Induktion nach :



   ' da  .













2.2

Der Fall











 seien paarweise



 '  '

 ' '

' woraus folgt  

  nach Induktionsannahme   wegen   ' da . 



verschiedener Eigenwerte





Gibt es verschiedene Eigenwerte von , dann gibt es eine Basis aus Eigenvektoren, d. h. (nach IX. 1.3 auf Seite 81) ist diagonalisierbar.

Diagonalisierbarkeit und Zerfallen von 

2.3 Ist





in Linearfaktoren

diagonalisierbar, dann zerfällt das charakteristische Polynom in Linearfaktoren, d. h.

          , wobei die  nicht paarweise verschieden zu sein brauchen. Die Umkehrung gilt jedoch nicht (s. 2. Beispiel von IX. 2.4 auf Seite 82). Mit dem Begriff eines Eigen



vektorraumes läßt sich die Bedingung für die Umkehrung formulieren.

XVI Eigenvektor-Theorie und Normalformen

184 2.4

Definition des Eigenvektorraumes

 4   Eigenvektoren zum Eigenwert   

Der Eigenvektorraum zum Eigenwert ist



2.5

1

Kern



Satz über die direkte Summe von Eigenvektorräumen

In Verallgemeinerung von 2.1 auf der vorherigen Seite gilt für paarweise verschiedene Eigenwerte

 ''



 1





: a)

       



Dabei bedeutet b), daß jedes 





 

und b)





 







  

eindeutig in der Form

   



  '





bar ist (nach Definition einer direkten Summe für endlich viele Summanden).



Beweis: Zu a): Induktion nach :

 : Sei   8 , dann folgt:   und  8 ,  8 ,   8  , , da   8  Induktionsschluß: Sei  und  ) .   



1 ' ' 

     

1

   

    



 1 

    

            nach Induktionsannahme ' da   

Zu b): Sei

     ' '  . Sei beliebig. 

Induktionsbegin für









 



































                     ) '     (nach a)),    . 













2.6

Algebraische und geometrische Vielfachheit





, darstell-

XVI.2 Eigenvektorräume

185

2.6.1 Definition Sei die Ordnung der Nullstelle von 

und  

Dim

.

heißt die algebraische und  die geometrische Vielfachheit des Eigenwertes . 2.6.2 Vergleich der beiden Vielfachheiten Die geometrische Vielfachheit ist kleiner oder gleich der algebraischen:  

Beweis:

 ''  eine Basis von  und Basis von  '' '   ''   eine Ergänzung zu einer     .. .        Det      

Sei





'  ' '

.









2.6.3 Satz über Diagonalisierbarkeit  die paarweise verschiedenen Eigenwerte von , dann sind folgende AusSind sagen äquivalent: 1.



ist diagonalisierbar.

2. Das charakteristische Polynom von





3. Dim

4.





 





  



 

5.

Beweis: 1.





2.:

Dim









zerfällt in Linearfaktoren und

 



XVI Eigenvektor-Theorie und Normalformen

186





eine Basis, so daß

folgende Diagonalgestalt hat: 





  

..







.





8









..



.



8

 



..



. 



..

. 

Dabei sei 

 







 

1



         





Dim



Anzahl der , die in der Hauptdiagonalen auftreten.

 

  '   







da







allgemein gilt.

3.:

2.



         Grad         

  

Grad  



















 Dim







 







 







  



wegen 2.5 auf Seite 184

 

Dim







        



Dim





3. 4.: Wenn ein Untervektorraum die Dimension des ganzen Raumes hat, stimmt er mit dem ganzen Raum überein. 4. 5.





5.: Wegen 2.5 auf Seite 184 1.:



Wir nehmen in jedem Summanden eine Basis. Diese setzen sich zu einer Basis aus Eigenvektoren von zusammen. Also ist diagonalisierbar.

XVI.3 Satz von Caley-Hamilton und Minimalpolynom

XVI.3

187

Satz von Caley-Hamilton und Minimalpolynom

Wir behandeln auch in diesem Abschnitt einen Endomorphismus torraumes über einem Körper  . 3.1



eines -dimensionalen Vek-

Invariante Untervektorräume

 

1!

3.1.1 Definition eines invarianten Untervektorraumes Ein Untervektorraum von heißt invariant bei



3.1.2 Beispiele invarianter Untervektorräume

'' 

oder  , orthogonal, unitär oder selbstadjun   ein invarianter Untervektorraum.  sind invariant bei . 2. Die Eigenvektorräume  3. Ist  ein Eigenvektor von , so ist     invariant.    ist offenbar der kleinste invariante Untervektorraum, der  enthält. 4. Sei  beliebig. Dann gibt es den kleinsten invarianten Untervektorraum  von , der  enthält. Denn der Durchschnitt von invarianten Untervektorräumen, die  enthalten, ist wieder ein invariant bei und    solcher. Daher ist  3.1.3 Untersuchung des kleinsten Untervektorraumes  mit   Wegen der endlichen Dimension von gibt es ein kleinstes  , so daß  sind. Weil +'   '  '     linear unabhängig sind, ('    '  '     linear abhängig  ist  von ('  ' '     linear abhängig, d. h. es gilt:         &&&        für geeignete   (1)    ('   '  '      1   ist invariant bei ; denn für   gilt:             8            Beachte hierbei:    wegen ( 1)    ' da  kleinster invarianter Untevektorraum, der  enthält.          mit  1   ist eine Basis von  und 1.

giert,







ein Skalarprodukt,  Eigenvektor von . Dann ist











 

 





XVI Eigenvektor-Theorie und Normalformen

188

  

hat  die Matrix  



bezüglich





 

.







.  . .. .. .

.. .. .

                 &&          (nach 1.4) (2) Durch Vergleich der Formeln ( 1 auf der vorherigen Seite) und ( 2) finden wir folgendes: Setzen wir in das charakteristische Polynom     für  ein und wenden den so erhaltenen Endomorphismus auf  an, so erhalten wir 0:      (3) 



..

..

.

..

.









Es gilt aber noch viel mehr, nämlich: 3.2

Satz von Caley-Hamilton



               <&&&   7  für  ein, so erhalten wir den Null-Endomorphismus:              <&&     Id   -Matrix  in ihr charakteristisches PoDas Entsprechende gilt für die Einsetzung einer  lynom   :                  &&&      

Setzen wir in das charakteristisches Polynom von









Bevor wir dies beweisen, erinnern wir daran, daß das Bild des Einsetzungshomomorphismus eine kommutative Algebra ist, d. h. es gilt: 3.3



Feststellung

'    



 und





Beweis zum Satz:

End

Ergänze ('   ' '                   





.





gilt: 

  



  

     zu einer Basis von . Dann folgt:                             . Da 



 

 















beliebig war, folgt  



XVI.3 Satz von Caley-Hamilton und Minimalpolynom 3.4 Minimalpolynom 3.4.1 Beispiele Endomorphismen und Polynome  mus ergeben:

189

  , die bei Einsetzen von





für

den Nullendomorphis-

8 , genügt der Gleichung: 8  d. h.  8  d. h.  2. Eine Involution End  , 8 Id , genügt der Gleichung: 8  Id   8 . für  Id , auf einem reellen Vektorraum genügt 3. Eine komplexe Struktur End  , 8  für  8  . d. h. der Gleichung: 8  Id . Fazit: Es gibt offenbar manchmal auch Polynome vom Grad Dim( ) mit  

1. Ein idempotenter Endomorphismus , für  .  





















3.4.2 Satz und Definition des Minimalpolynoms 



 End  gibt es genau ein normiertes Polynom  von minimalem Grade mit  . Normiert bedeutet, daß der höchste nicht verschwindende Koeffizient gleich 1 ist.  heißt das Minimalpolynom von . . 2. Es ist Grad      mit  sind genau die durch  teilbaren.  teilt insbe3. Die Polynome sondere das charakteristische Polynom  von . 

1. Zu























Beweis:





       mit Grad    Grad   .  Wäre , so hätten wir ein Polynom kleineren        Grades als  , das die Nullstelle in End  hat.    



 







 

















3.4.3 Einige Fakten über Polynome





1. Ein Polynom Grad 



heißt ein echter Teiler eines Polynoms , wenn Grad







ein Teiler von 

ist mit

   heißen teilerfremd : ! keine echten gemeinsamen Teiler von  und . 8  3. Es gibt zu  ' 8   genau einen normierten gemeinsamen Teiler von maximalem Grad; er heißt der größte gemeinsame Teiler von  und 8 . Bezeichnung: 9  ' 8     , so daß der größte gemeinsame Teiler von  und geEs gibt Polynome ' 0 2.



' 8 































schrieben werden kann in der Form:





-$0 8 





8



XVI Eigenvektor-Theorie und Normalformen

190



'





3.4.4 Berechnung des größten gemeinsamen Teilers Wir beachten, daß per Definition Grad sei. Sei Grad Grad  . Dann kann der größte gemeinsame Teiler wie folgt durch Polynom-Divisionen berechnet werden. Wir setzen    und führen folgende Polynom-Divisionen durch:

 %1 ' 1      .  8 8 ..    .           -  8 .. .         -  8  8    

























 









  Grad  8 Grad  Grad    Grad   Grad    Grad   Grad   Grad  8     Grad  Grad   , so daß &'  '  '   und  



Grad Grad







































   Dann gibt es genau ein Dieser Verfahren heißt Euklidischer Algorithmus.



ist. Dann ist 

 

ggT 

' . 

3.4.5 Beispiele



1. Für eine Drehung Id ist, gilt 





Dies liegt daran, daß Denn  



Id und



keine Eigenwerte hat.

*   8          8  2. Für  bezüglich einer Basis ist      Gilt    ?     Id  hat die Matrix . Also ist    . Die Antwort ist nein.  Dann muß gelten   .       3. mit     hat nach dem 4. Beispiel aus IX. 2.4 auf Seite 82 das            8 und eine Basis aus Eigenvekcharakteristische Polynom      , '  Eigenvektoren zum toren  ' 8 '   '  Eigenvektor zum Eigenwert    8 . Eigenwert  8    . Dann wäre Id  , d. h.  Id , Widerspruch!     . Dann wäre Id < , d. h. Id , Widerspruch!  





eines zweidimensionalen euklidischen Vektorraumes, die

kann keine echten Teiler haben, weil diese dann linear wären; es würde gelten und hätte Eigenwerte.





























XVI.3 Satz von Caley-Hamilton und Minimalpolynom

191

         1  . Wir können ein beliebiges  schreiben als    - 8 8     und erhalten:     Id   Id      Id   Id      8 Id   Id   8     Id   Id     





















Dies alles zeigt, daß  das Minimalpolynom ist; denn:

 , wie gerade gezeigt.

 

ist normiert. 

ist ein Teiler von 

0

Jeder Teiler von  Ergebnis:  3.5





.



von kleinerem Grad als  annuliert

       





nicht. (

0  )

Kriterium für Diagonalisierbarkeit End





diagonalisierbar

! 



zerfälllt in Linearfaktoren und hat nur einfache Nullstellen.

Vgl. die Beispiele 2 und 3 in 3.4.5! Der Beweis des Kriteriums beruht auf folgendem: 3.6

Lemma

% &&  mit paarweise teilerfremden  ''    8 &&  Beweis: Für

Fall mit Induktion nach ):   (Allgemeiner        0            0  8       Id     8    Sei   Dann gilt:

 







  0  8   

0



 .  8  Sei      8  8

Bemerkung: Statt 

   8    



“: Seien

 ''



0



denn:

     

Rechte Seite von (*) ist 0.







   . Sei 

1

Kern 

wegen Punkt 3 von 3.4.3



 .

könnte hier auch beliebiges Polynom  mit  







Beweis des Kriteriums: „









 





die paarweise verschiedenen Eigenwerte von .

stehen.

 .

XVI Eigenvektor-Theorie und Normalformen

192

  1     8     &&     Ein beliebiges  kann geschrieben werden in der Form:       '*  nach 2.6.3                     ist ein Polynom mit  . 

























ist ein Teiler von  . 



zerfällt in Linearfaktoren und hat nur einfache Nullstellen, weil dies für  gilt. 

“: 





       &&     '  '' 



paarweise verschieden.

Wegen des Lemmas 3.6 auf der vorherigen Seite folgt:





 

Kern







 

diagonalisierbar, da direkte Summe von Eigenvektorräumen (vgl. 2.6.3).

3.7

1!

heißt trigonalisierbar Es gibt eine Basis von auf diese Basis eine obere Dreiecksmatrix ist. 3.8

, so daß die Matrix

Kriterium über Trigonalisierbarkeit

Das charakteristische Polynom  ist trigonalisierbar.



Beweis: „

“:



   *     . .   .     „ “: Induktiv nach , Beginn bei Sei         &&    

  von

zerfällt in Linearfaktoren.

!

               trivial.

 .

 ein Eigenvektor zum  Eigenwert  und  ''   eine Basis von    &&    ...  



 

Definition der Trigonalisierbarkeit



Sei



.

 

von



bezogen

XVI.4 Das Normalformenproblem

193

           &&      '   und ' $1    diejenige lineare Abbildung mit   bezüglich Sei  1  8 '8 '   .         zerfällt in Linearfaktoren. Per Induktionsannahme gibt es eine '' von  , sodaß diesbezüglich  trigonal. Dann ist  trigonal bezüglich Basis  ' 8 '8 '   .  

   



 8









3.9

Folgerung

Jeder Endomorphismus eines Vektorraumes

XVI.4

über



ist trigonalisierbar.

Das Normalformenproblem



Wir wenden uns nun dem Problem zu, für einen Endomorphismus eines -dimensionaflen Vektorraumes über einem Körper  eine Normalform der Abbildungsmatrix zu finden. Unter Normalform verstehen wir zunächst eine möglichst einfache Gestalt der Abbildungsmatrix. Wir werden diesen Begriff präzisieren. Wir schicken eine Definition voraus. 4.1

Definition

Ein Untervektorraum

 





von



!

heißt zyklisch bezüglich :



('   ' '     

, sodaß der kleinste enthaltende, bei invariante Untervektorraum von ist (vgl. 3.1 auf Seite 187). Mit andern Worten: Ein zyklischer Untervektorraum ist ein bei invarianter Untervektorraum, zu dem es einen Vektor und ein  gibt, so daß  eine Basis von ist.











Wir hatten schon gesehen, daß jedes in einem zyklischen Untervektorraum enthalten ist und  daß bezüglich der genannten Basis eine einfache Form hat:

  

4.2

   





. ..

 



..

.





.  .

.. .. .

.. .. .

  

..

.

Definition

         !<&&        

So eine Matrix heißt Begleitmatrix des Polynoms 





 



XVI Eigenvektor-Theorie und Normalformen

194 4.3

Frage

Können wir in eine direkte Summe von zyklischen Untervektorräumen zerlegen? Dann bekämen wir eine Normalform, die aus lauter diagonalen Kästchen von Begleitmatrizen besteht. (Außerhalb der diagonalen Kästchen Nullen) Wenn wir eine direkte Summenzerlegung von suchen, können wir obiges Lemma 3.6 auf Seite 191 nochmals heranziehen. Dazu brauchen wir eine geeignete Zerlegung von  in ein Produkt paarweise teilerfemder Faktoren. Da gibt es aber eine kanonische, nämlich die Zerlegung in die irreduziblen Faktoren (gleichbedeutend mit Primfaktorzerlegung). Dabei ist definiert: 

4.4



4.5

Definition

   heißt irreduzibel !



Grad 





und



kein echter Teiler von . 

Definition

Jedes normierte Polynom positiven Grades kann auf genau eine Weise als Produkt endlich vieler normierter irreduzibler Polynome dargestellt werden (Produkte, die sich nur um die Reihenfolge der Faktoren unterscheiden, werden hierbei als gleich angesehen.) 

4.6

Satz

    ' '   1    8 &&   1.  '  '  2.   ist invariant bei für    3.  



Sei    die Zerlegung von  in die irreduziblen Faktoren, wobei gleiche Faktoren zusammengefaßt sind;   sind also insbesondere paarweise teilerfremd. Sei  Kern . Dann gilt: 











.









4.7

Beispiel



     8      8    8  8    !     '   ' 8 '   ' 

Für 



könnte  







Beachte: Über  die irreduziblen.





etwa so aussehen:



























sind die linearen und die quadratischen Polynome ohne reelle Nullstellen

XVI.4 Das Normalformenproblem

195

Beweis zum Satz: 1. Nach dem Lemma 3.6 auf Seite 191 .

  . Wegen 3.3 auf Seite 188 folgt:          

2. Sei 



         



3. Offenbar gilt muß. 





     , da es ein Teiler von  sein 



 

 













  Frage 4.3 auf der vorherigen Seite zu kommen, ist Um also zu einer positiven Antwort auf die  noch zu zeigen, daß jedes mit  in eine direkte Summe zyklischer Untervektorräume zerlegt werden kann. Dies geht tatsächlich, es gilt: 4.8

Satz



&'   '' 



Sei





'



 





&& 

normiert und irreduzibel. Dann gibt es zyklische Untervektorräume .  

mit

Dem Beweis schicken wir einige Bezeichnungen, Feststellungen und einen Hilfssatz voraus. 4.9

Bezeichnungen



'











und der kleinste -invariante Untervektorraum, der enthält. Sei  heißt ein -erzeugender Vektor von und heißt auch der von -erzeugte Untervektorraum.



1









4.10



Feststellungen

 



C.





A. Für  B. 









   und 

!





gilt:     !

ist ein Teiler von 





-invariant











 

.

        









Beweis: A. 

 !       !          Zu 1): „ “: klar. „ “:    Insbesondere bildet  eine Basis von  nach 0 ab, also auch ganz   













.

XVI Eigenvektor-Theorie und Normalformen

196 B.  



Teiler von 

 

C. Sei 

4.11 Sei

    ist also ein Polynom, welches   annuliert.  .       dann ist           

  













und 



 

Beweis: „  “: Sei



  mit '      Kern   . 







Hilfssatz















  

Dann folgt: 





ist ein



   

Kern

           wegen  , d. h. für 1     gilt:      wegen Kern   Durch einsetzen von   erhalten wir:          Daraus folgt für das Minimalpolynom:  0  0  für ein 0   Hier läßt sich rauskürzen: 0  dies in   einsetzen:   0     











 



 









 

 



















 



d. h.



wegen C

„ “:

             Kern       wegen C.    und             Kern  Beweis zum Satz:  klar. Sei  . Durch Induktion nach Dim  , Beginn für   













a) Wahl des 1. Summanden...



 ' 1   '   ein  ' für das

Sei   1   ' ' '   Grad  Grad 

Sei





und







Ist



Wegen B ist 

















maximal wird.







, dann sind wir fertig. Andernfalls:







Teiler von  

.

ist zyklisch mit der Basis

&''    ,

XVI.4 Das Normalformenproblem

197

b) Zerlegung eines algebraischen Komplementes

9'  Dim und   1  

Sei

.

1

 

..

..



. 











..

  .  .



 



 

Für





.. .. .



 ' 

.

 1  von









 

.



nach 1.7 auf Seite 181  







,





.. .. .

  

.



 



, d. h.

&' '   

Dabei ist das linke obere Kästchen die Matrix





sei die Parallelprojektion von auf längs . Sei   Wir ergänzen durch eine Basis . Dann hat eine Matrix der Form:



 



in zyklische Untervektorräume

ein algebraisches Komplement zu

definiert durch zu einer Basis von





von





 ' 





  ' ' .

ist die Voraussetzung des Satzes erfüllt. Induktiv folgt:

 &&  '

zyklisch bei ,

c) Einige technische Formeln

Denn für

 









 ; ' .              ' da  und daher            (Induktion nach ) gilt:





(4)





 









Denn ist 

 /'









 dann folgt:    



 

     



(5)

(6)

XVI Eigenvektor-Theorie und Normalformen

198

 

               Distributives Gesetz                   Distributives Gesetz 



 



  

 

  -erzeugender Vektor von  . Dann gilt:

d) Sei





 

 

'







  



 







  

 

          

teilt

' 

  

 

'

(wegen B)

denn:



  



 

(wegen a).

  ;









 

e) Übergang von zyklischen Untervektorräumen bezüglich



zu solchen bezüglich



XVI.4 Das Normalformenproblem

               1                   





 









 







 

 

  









 



 

















f)

 1  1    1    









      



 





"'



 























 



































 

 







    



 

1) da





ist ein Teiler von  

  





da 

  



 



ist ein Teiler von 



 







 













&&   Grad    Grad       '  ''         '  ''      '                           1                

  

Sei 





















            























                 Kern    ' wegen (4) und (5)   Kern    nach dem Hilfssatz, angewendet auf:     ' mit   '        '      minus                      ' mit   1









denn:



















da 

Kern

































"'













199













und



bilden eine Basis von bilden eine Basis von



-invariant

 





XVI Eigenvektor-Theorie und Normalformen

200

 

 Die letzte Gleichung zeigt, daß die zusammen mit den eine Basis von bilden, in    der sukzessive die durch die   ausgetauscht werden können, so daß die und die  zusammen eine Basis von bilden. Daraus folgt f). Zur Verdeutlichung: 

 



   

   

   

 







  



  









 







4.11.1 Satz über die Normalform Es gibt eine Basis von , bezüglich der die Matrix von



 







 













folgende Normalform hat:



8

..





.



'  ' '

  ist Begleitmatrix einer Hierbei stehen außerhalb der Kästchen Nullen und jedes  gewissen Potenz eines irreduziblen Faktors des Minimalpolynoms von .

     1  1  

  ist zyklisch bei mit erzeugendem Vektor   und  

4.11.2 Hilfssatz Ist zyklisch bei mit erzeugendem Vektor und   , , . Es folgt:



 



1 ,

, irreduzibel, dann sei 













.





4.11.3 Satz über die die Feinstruktur der Normalform für den Fall  Wir vertauschen die Kästchen so, daß zuerst alle Begleitmatrizen zu kommen, dann die zu ,     . Diese bezeichnen wir mit usw. Es gebe in der Normalform  Begleitmatrizen zu ,       . Dem Vertauschen von Kästchen entspricht eine Vertauschung der Basisvektoren, 

' '  













8

XVI.4 Das Normalformenproblem

201

so daß wir bezüglich der vertauschten Basisvektoren folgende Normalform bekommen:

   



 

..





.

  









..





.











 

..





.

 







..

.



Zu dieser Normalform gehört eine direkte Summen-Zerlegung von





Hierbei wird über alle Daß  





1















 und 



Grad 





  







ist, bedeutet:



gilt: Die Für Gleichungssystems:  



mit

Begleitmatrix zu







mit





(7)





 

 





..

.

 





 

:

  



und alle

  ' ' 

summiert.





(8)



sind die eindeutig bestimmten Lösungen des folgenden linearen

Rang

 

Rang

- 8  & &&   Grad  9 & &&   Grad  



ausführlich:

(9)

  Rang    Rang    Rang       Rang  Rang 

.. .



Grad

 '  '  '  ' Rang







.. .



    

Rang Grad



(10)

XVI Eigenvektor-Theorie und Normalformen

202

4.11.4 Folgerung über die Zahl  Vorbemerkung: Die Zahl  ist per Definition der Exponent, mit dem im Minimalpolynom von vorkommt. Damit haben wir aber noch keine Möglichkeit,  zu berechnen. Eine Berechnungmöglichkeit läßt sich jedoch leicht finden:





Rang  Kern 

      oder    &  &    4.11.5 Satz zur Feinstruktur im allgemeinen Fall:          ' Es gilt: mit  Kern   und Kern   Kern         Wir können die Ergebnisse des Spezialfalles auf   anwenden: Statt einem irreduziblen Poly '  '  , statt einer Zahl  haben wir die nom haben wir  irreduzible Polynome  '  Zahlen   '   ' '  . Alle bekommen noch den zweiten Index   '  '    und  '  '   erhalten wir ein lineares Gleichungssystem, das die '

'  ' für jedes 

Min Min







Rang Kern





 



 

































eindeutig bestimmt: 



     Rang   '  ' '   (11)  Rang     ' vielmehr gilt:   Rang     Dim   und daher       Rang     Rang  Die Normalform ist dann eine Matrix, die sich aus  diagonalen Blöcken und sonst Nullen  Grad    Es gilt jedoch nicht Rang   Rang     Rang    Rang  



Rang

































 







 

zusammensetzt, wobei jeder Block eine Matrix wie im Spezialfall ist.

4.11.6 Satz von Frobenius über die irreduziblen Faktoren von  und   und  haben die gleichen irreduziblen normierten Faktoren   . Insbesondere haben sie die gleichen irreduziblen Faktoren vom Grade 1 und damit die gleichen Nullstellen. Sie unterscheiden sich nur durch die Vielfachheiten, mit der die irreduziblen Faktoren in der Primfaktor-Zerlegung vorkommen. Ist 







  &&  











   



' '



  ' ' 

das charakteristische Polynom von , so ist die Vielfachheit  ,   Minimalpolynom 



vorkommt, bestimmt durch:









Min Min

  && 





Rang   Kern   











Rang Kern 



     

 

 





oder

, mit der 

 im

XVI.4 Das Normalformenproblem

203





4.11.7 Präzisierung des Normalformenproblems  Es soll eine Liste von Matrizen aufgestellt werden, so daß jedem  End eine Matrix  der  ist bezüglich einer geeigneten Basis  Liste eindeutig zugeordnet ist, für die von . Jede Matrix der Liste heißt eine Matrix in Normalform oder kurz eine Normalform. Eine Lösung des Normalformenproblems besteht in der Aufstellung einer solchen Liste und der Angabe einer solchen eindeutigen Zuordnung.



' ' 



Mit den Normalformen im Sinne von 4.4.2 wird das Normalformenproblem gelöst. Wir müssen nur noch darauf achten, von jeder Menge von Matrizen, die Normalformen im Sinne von 4.4.2 sind und die sich nur um die Reihenfolge der Kästchen unterscheiden, nur eine Matrix in die Liste aufzunehmen. Dann gilt:



4.11.8 Satz über die Eindeutigkeit der Normalform Die Normalform von ist eindeutig bestimmt. 4.11.9 Satz über die Klassifikation von Endomorphismen Vorbemerkung: Ein Ziel der Aufstellung von Normalformen war ja, Endomorphismen bis auf Konjugation (mit einem Isomorphismus ) zu charakterisieren. Dieses ist durch eine solche Liste erreicht.

+' 



End überein.





!

sind zueinander konjugiert

Die Normalformen von

(' 



und



stimmen



Erläuterung: Daß zwei Endomorphismen konjugiert sind können wir uns auch so vorstellen, daß sie den gleichen Typ haben; denn bei Wahl geeigneter Basen –im allgemeinen für eine andere als für – haben sie ja die gleiche Matrix. Der Satz sagt aus, daß der Typ eindeutig durch die Normalform bestimmt wird.





4.11.10 Satz und Definition der Normalform einer Matrix Zu   gibt genau eine ähnliche Matrix in Normalform. Diese heißt Normalform von



4.11.11 Satz über Ähnlichkeit von Matrizen Vorbemerkung: Mit Satz 4.4.10 ist auch die äquivalente Frage gelöst: „Wann sind zwei Matrizen ähnlich ?“

 '





sind ähnlich zueinander



!

.

  -

Ihre Normalformen sind gleich.

4.11.12 Haupträume Wegen ihrer Bedeutung hat der oben aufgetretene Raum  Kern Kern





  einen besonderen Namen bekommen, er wird Hauptraum zu  genannt.     ist der Hauptraum   zu  nichts anderes als der verallgemeinerter Für lineares  Eigenraum zum Eigenwert :  1 Kern      Kern    

1



 















Related Documents

Lineare Algebra
November 2019 16
Lineare Funktion
December 2019 21
Algebra
November 2019 54