Lineare Algebra I Mitschrift

  • October 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Lineare Algebra I Mitschrift as PDF for free.

More details

  • Words: 24,226
  • Pages: 64
Mitschrift zur Lineare Algebra I Vorlesung von Prof. Dr. Felsner im WS07/08 Thomas El Khatib 30. November 2007

1

Inhaltsverzeichnis 1

2

3

Grundbegriffe 1.1 Mengen und Abbildungen . . . . . . 1.1.1 Mengennotationen . . . . . . 1.1.2 Zahlenmengen . . . . . . . . 1.1.3 Rechenregeln . . . . . . . . . 1.1.4 Abbildungen . . . . . . . . . 1.1.5 Komposition von Abbildungen 1.1.6 Identität . . . . . . . . . . . . 1.1.7 Menge aller Abbildungen . . 1.1.8 Produkte von Mengen . . . . 1.2 Äquivalenzrelationen . . . . . . . . . 1.2.1 Relationen . . . . . . . . . . 1.2.2 Äquivalenzrelationen . . . . . 1.2.3 Beispiele . . . . . . . . . . . 1.2.4 Partitionen . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

5 5 5 5 5 5 6 7 8 8 9 9 9 9 9

Gruppen 2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Innere Verknüpfung . . . . . . . . . . . . . . . . . 2.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Gruppe . . . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . 2.1.5 Symmetrische Gruppen . . . . . . . . . . . . . . . . 2.1.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . 2.1.7 Eigenschaften von Gruppen . . . . . . . . . . . . . 2.1.8 Untergruppen . . . . . . . . . . . . . . . . . . . . . 2.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . 2.1.10 Untergruppenkriterium . . . . . . . . . . . . . . . . 2.2 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Isomorphismus . . . . . . . . . . . . . . . . . . . . 2.2.3 Eigenschaften . . . . . . . . . . . . . . . . . . . . . 2.2.4 Beispiele von Homomorphismen . . . . . . . . . . . 2.2.5 Bild und Kern von Homomorphismen . . . . . . . . 2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz 2.2.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

11 11 11 11 11 11 14 14 15 17 17 17 18 18 18 18 18 19 19 21

Ringe, Körper, Polynome 3.1 Definitionen: Ring und Körper . . . 3.1.1 Ringe . . . . . . . . . . . . 3.1.2 Beispiele . . . . . . . . . . 3.1.3 Nullteilerfreiheit . . . . . . 3.1.4 Gegenbeispiele . . . . . . . 3.1.5 Unterringe . . . . . . . . . 3.1.6 Ringhomomorphismen . . . 3.1.7 Körper . . . . . . . . . . . 3.1.8 Notation . . . . . . . . . . 3.1.9 Eigenschaften von Körpern .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

22 22 22 22 23 23 23 24 24 24 24

2

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

24 25 27 27 27 28 30 31 31 32 32 33 34 34 36

Vektorräume 4.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Weitere Eigenschaften . . . . . . . . . . . . . . . . . . . . 4.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.4 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . 4.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.6 Durchschnitte von Unterräumen sind Unterräume . . . . . . 4.1.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.8 Vereinigung von Unterräumen ist kein Unterraum . . . . . . 4.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.10 Lineares Erzeugnis . . . . . . . . . . . . . . . . . . . . . . 4.1.11 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . 4.1.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.13 Charakterisierung der linearen Unabhängigkeit . . . . . . . 4.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen 4.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Alternative Definitionen . . . . . . . . . . . . . . . . . . . 4.2.5 Existenz einer Basis für endlich erzeugbare Vektorräume . . 4.2.6 Austauschlemma . . . . . . . . . . . . . . . . . . . . . . . 4.2.7 Austauschsatz von Steinitz . . . . . . . . . . . . . . . . . . 4.2.8 Alle Basen haben gleich viele Elemente . . . . . . . . . . . 4.2.9 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.11 Dimension von Unterräumen . . . . . . . . . . . . . . . . . 4.3 Unendlichdimensionale Vektorräume . . . . . . . . . . . . . . . . . 4.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Halbordnungen . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.4 Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.5 Lemma von Zorn . . . . . . . . . . . . . . . . . . . . . . . 4.3.6 Basisexistenzsatz für beliebige Vektorräume . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37 37 37 37 37 38 39 39 39 40 40 40 41 42 42 43 43 43 44 44 45 45 46 47 47 47 48 48 48 48 49 49 49 49

3.2

4

3.1.10 Beispiele . . . . . . . . . . . . . 3.1.11 Der Körper der komplexen Zahlen Polynome . . . . . . . . . . . . . . . . . 3.2.1 Definition . . . . . . . . . . . . . 3.2.2 Beispiel . . . . . . . . . . . . . . 3.2.3 Polynomringe . . . . . . . . . . . 3.2.4 Gradformel . . . . . . . . . . . . 3.2.5 Nullteilerfreiheit . . . . . . . . . 3.2.6 Polynomdivision . . . . . . . . . 3.2.7 Beispiel . . . . . . . . . . . . . . 3.2.8 Folgerungen, Nullstellen . . . . . 3.2.9 Fundamentalsatz der Algebra . . 3.2.10 Lemma von Bezout . . . . . . . . 3.2.11 Spezielle Faktorpolynomringe . . 3.2.12 Beispiele . . . . . . . . . . . . .

3

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

4.4

4.5

5

6

Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Zeilenstufenform . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Kriterium für lineare Unabhängigkeit . . . . . . . . . . . 4.4.4 Zeilenraum . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.5 Elementare Zeilenumformungen . . . . . . . . . . . . . . 4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend 4.4.7 Weitere Zeilenumformungen . . . . . . . . . . . . . . . . 4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden 4.4.9 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . Summen und direkte Summen . . . . . . . . . . . . . . . . . . . 4.5.1 Summe von Untervektorräumen . . . . . . . . . . . . . . 4.5.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.3 Summe und Erzeugnis . . . . . . . . . . . . . . . . . . . 4.5.4 Dimensionsformel . . . . . . . . . . . . . . . . . . . . . 4.5.5 Direkte Summe . . . . . . . . . . . . . . . . . . . . . . . 4.5.6 Existenz von komplementären Unterräumen . . . . . . . . 4.5.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .

Lineare Abbildungen 5.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . 5.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen 5.1.4 Eigenschaften von linearen Abbildungen . . . . . . . . 5.1.5 Komposition linearer Abbildungen sind linear . . . . . . 5.1.6 Vektorräume der Homomorphismen . . . . . . . . . . . 5.1.7 Menge der Endomorphismen . . . . . . . . . . . . . . . 5.2 Bild, Faser, Kern . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Rang einer linearen Abbildung . . . . . . . . . . . . . . 5.2.3 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . 5.2.4 Faserung eines Vektorraums . . . . . . . . . . . . . . . 5.2.5 Affine Teilräume . . . . . . . . . . . . . . . . . . . . . 5.2.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.7 Charakterisierung von affinen Unterräumen . . . . . . . Bildquellen

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

50 50 50 51 51 51 52 52 53 54 54 54 55 55 55 56 56 56

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

57 57 57 57 58 58 59 59 60 60 60 62 62 62 63 63 63 64

4

1

Grundbegriffe

1.1

Mengen und Abbildungen

1.1.1

Mengennotationen



{

}









\

×

{1, 3, 5, 7, 9} = {a ∈ N | a ungerade, a < 10} | {z } | {z } explizite Nennung

1.1.2

implizit durch Eigenschaften

Zahlenmengen

N, Z, Q, R, C 1.1.3

Rechenregeln

Seien A, B, C,

⊆X

Ni |{z}

verschiedene i von 1 bis n

• A ∪ B = B ∪ A, A ∩ B = B ∩ A - kommutativ • (A ∩ B) ∩ C) = (A ∩ (B ∩ C)), (A ∩ B) ∩ C) = (A ∩ (B ∩ C)) - assoziativ • ! \

A∪

Ni

=

i∈I

|

{z

A∩

[

\

(A ∪ Ni )

i∈I

}

N1 ∩N2 ∩...∩Nn

! Ni

i∈I

=

[

(A ∩ Ni )

i∈I

distributiv 1.1.4

Abbildungen

Definition 1.1. f : X → Y,

x 7→ f (x)

bedeutet f ordnet jedem x ∈ X ein y = f (x) ∈ Y zu. • A⊆X

Bild von A: f (A) = {y ∈ Y | x ∈ a ∧ f (x) = y}

• B⊆Y

Urbild von B: f −1 (B) = {x ∈ Y | f (x) ∈ B}

• injektiv: Keine zwei Elemente von X werden auf dasselbe Element abbgebildet (engl. one-to-one). • surjektiv: Jedes Element aus y ist ein f (x) (liegt im Bild von X) (engl. onto). • bijektiv: injektiv + surjektiv Lemma 1.1. Seien X, Y endlich, f : X → Y eine Abbildung. Es gilt

5

(a) f ist injektiv ⇐⇒ |X| = |f (X)|. (b) f ist surjektiv ⇐⇒ f (X) = Y ⇐⇒ |f (X)| = |Y |. Beweis.

a) Illustration

Es muss gelten |X| = |Pfeile|. Injektivität heißt nun, dass auf kein Element 2 oder mehr Pfeilspitzen zeigen, also gilt |Pfeilspitzen| = |f (x)|. Zusammen folgt |X| = |Pfeile| = |Pfeilspitzen| = |f (X)| b) X Satz 1.1.1. Sei X eine endliche Menge und f : X → X eine Abbildung, dann ist äquivalent (a) f ist injektiv (b) f ist surjektiv (c) f ist bijektiv Beweis. (a) ⇔ (b) Aus dem Lemma folgt: f ist injektiv ⇐⇒ |X| = |f (X)| ⇐⇒ |f (X)| = |X| (= |Y |) ⇐⇒ f ist surjektiv Aus (a) und (b) folgt direkt (c). Achtung. Wenn X unendlich ist, dann wird der Satz falsch. Es gibt surjektive Abbildungen f : R → R2 , z.B. ( yx = 0, x1 x3 x5 . . . x = 0, x1 x2 x3 . . . 7→ zx = 0, x2 x4 x6 . . . (Darstellung von reellen Zahlen als unendliche p-adische Brüche ist nicht eindeutig!) 1.1.5

Komposition von Abbildungen

Definition 1.2. Seien f : X → Y,

g: Y →Z

dann wird definiert g◦f : X →Z x 7→ (g ◦ f )(x) = g(f (x))

f

g

X →Y → Z g◦f

X → Z 6

1.1.6

Identität

Definition 1.3. Eine spezielle Abbildung ist die wie folgt definierte Identität idX auf einer Menge X idX : X → X x 7→ x Für die Identität gilt f ◦ idX = idY ◦f = f Lemma 1.2. Sei f : X → Y eine Abbildung. (a) f ist injektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = idX (b) f ist surjektiv ⇐⇒ ∃ g : Y → X mit f ◦ g = idY (c) f ist bijektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = idX ∧f ◦ g = idY Beweis.

(a) Illustration

Von allen Elementen aus Y , auf die ein Pfeil zeigt, geht der Pfeil für die Abbildung g auf demselben Weg zurück. Man dreht die Pfeile also praktisch um. Alle Elemente von Y , auf die kein Pfeil zeigt, werden durch g auf ein beliebiges Element von X abgebildet. In der Hinrichtung ist zu zeigen: [∃ g Y → X : g ◦ f = idX ] ⇒ f ist injektiv. Wir zeigen: f ist nicht injektiv ⇒6 ∃ g Y → X : g ◦ f = idX . Wenn f nicht injektiv ist, gibt es zwei Elemente aus X, die auf dasselbe Element aus Y abgebildet wird, also ∃ x1 , x2 ∈ X : x1 6= x2 ∧ f (x1 ) = f (x2 ) = y ∈ Y Wenn g(y) = x1 , dann ist (g ◦ f )(x2 ) = x1 6= x2 , also ist g 6= idX . Wenn g(y) = x2 , dann ist (g ◦ f )(x1 ) = x2 6= x2 , also ist g 6= idX . Wenn g(y) = x3 , x3 6= x1 , x3 6= x2 , dann ist (g ◦ f )(x2 ) = x3 6= x2 , also ist g 6= idX . Für jedes g gibt es ein Element x ∈ X, das durch g ◦ f nicht auf sich selbst abgebildet wird, also gibt es kein g mit g ◦ f = idX . Die Rückrichtung ist klar: Da g eine Abbildung ist, wird f (x1 ) = f (x2 ) dasselbe Element x1 = x2 zugeordnet. (b) Illustration

7

Man sucht für jedes Element in Y einen Pfeil aus, der auf es zeigt, und kehrt es um. Also wähle xy ∈ f −1 ({y}) und definiere: g(y) = xy , dann gilt (f ◦ g)(y) = f (xy ) = y, also insgesamt f ◦ g = idY . Bemerkung. Man benötigt hierbei das Auswahlaxiom. Wenn f nicht surjektiv ist, dann ∃ y0 ∈ Y ∀ x ∈ X : f (x) 6= y0 . Wenn g(y0 ) = x0 ∈ X, dann folgt (f ◦ g)(y0 ) = f (x0 ) 6= y0 , also kann f ◦ g nicht idY sein. Es gibt also kein g mit dieser Eigenschaft. Die Rückrichtung ist auch hier klar: Da g eine Abbildung ist, wird jedem y ∈ Y ein x ∈ X zugeordnet, sodass f (x) = y gilt. (c) Illustration

Man dreht die Pfeile einfach um. Der formale Beweis stützt sich auf (a) und (b).

1.1.7

Menge aller Abbildungen

Wie viele Abbildungen von X nach Y gibt es? Wenn X, Y endliche Mengen sind, dann kommt es nur auf die Anzahl der Elemente von X und Y an. Sei [n] = {1, 2, 3, . . . , n} für ein n ∈ N. Wie viele Abbildungen von [n] nach [m] gibt es? Antwort: mn . Definition 1.4. Daraus „ergibt“ sich die symbolische Schreibweise Y X := {f : X → Y } für die Menge aller Abbildungen von X nach Y . 1.1.8

Produkte von Mengen

Definition 1.5. Für zwei Mengen X, Y wird das kartesische Produkt von X mit Y definiert als X × Y := {(x, y) | x ∈ X, y ∈ Y }

8

Intutiv wird definiert X n := X × X × . . . × X | {z }

(Wir lassen die Klammern weg.)

n-mal

= {(x1 , x2 , . . . , xn ) | xi ∈ X  = (xi )i∈[n] : xi ∈ X

∀ i = 1, . . . , n}

= {f : [n] → X}

1.2

Äquivalenzrelationen

1.2.1

Relationen

Definition 1.6. Eine Relation R ist eine Teilmenge von X × Y , also R⊆X ×Y Man schreibt xRy um zu kennzeichnen: (x, y) ∈ R. 1.2.2

Äquivalenzrelationen

Definition 1.7. Äquivalenzrelationen sind Relationen ∼⊆ X × X mit den Eigenschaften A1 Reflexivität: x ∼ x ∀ x ∈ X, A2 Symmetrie: x ∼ y ⇔ y ∼ x

∀ x, y ∈ X und

A3 Transitivität: x ∼ y ∧ y ∼ z ⇒ x ∼ z 1.2.3

∀ x, y, z ∈ X.

Beispiele

• „=“ - Gleichheitsrelation auf einer Menge • X als eine Gruppe von Personen, ∼ - Gleichaltrigkeit 1.2.4

Partitionen

Definition 1.8. Eine Partition einer Menge X ist eine Zerlegung von X in paarweise disjunkte Teilmengen (Xi )i∈I , d.h. S • i∈I Xi = X • Xi ∩ Xj = ∅ • Xi 6= ∅

i, j ∈ I, i 6= j

∀i ∈ I

Satz 1.2.1. Sei X eine Menge. Partition von X und Äquivalenzrelationen entsprechen einander. Beweis. Sei (Xi )i∈I eine Partition. Wir definieren: x ∼ y ⇐⇒ ∃ i ∈ I : x ∈ Xi ∧ y ∈ Xi Zu zeigen: ∼ ist eine Äquivalenzrelation: 9

A1 Sei x ∈ X, dann gilt x ∈ Xi ⇔ x ∈ Xi . X A2 Seien x, y ∈ X, dann gilt (x ∈ Xi ∧ y ∈ Xi ) ⇔ (x ∈ Xi ∧ y ∈ Xi ). X A3 Seien x, y, z ∈ X und gelte (x ∈ Xi ∧ y ∈ Xi ) ∧ (y ∈ Xj ∧ z ∈ Xj ). Daraus folgt wegen der Disjunktheit der Klassen Xi = Xj , also x ∈ Xj ∧ z ∈ Xj . X Definition 1.9. Sei andererseits ∼ eine Äquivalenzrelation auf X, dann wird definiert [x] = {y ∈ X | x ∼ y} ist die Äquivalenzklasse von x. x wird Repräsentant der Klasse genannt. Zu zeigen: {[x] | x ∈ X} ist eine Partition von X. [ [x] = X X x∈X

Seien x, z ∈ X mit x 6= z. Es gilt entweder: x ∼ z und damit x ∼ y ∀ y ∈ [z] und z ∼ y ∀ y ∈ [x], also [x] = [z]; oder es gilt x 6∼ z, also [x] ∩ [z] = ∅: Angenommen der Schnitt wäre nicht leer, dann gäbe es ein y, für das gilt x ∼ y und y ∼ z. Wegen der Transitivität gilt dann auch x ∼ z, Widerspruch. Die Menge der Äquivalenzklassen bildet eine Partition auf X.

10

2

Gruppen

2.1

Definitionen

2.1.1

Innere Verknüpfung

Definition 2.1. Eine Gruppe ist ein Paar (G, ◦), wobei G eine Menge und ◦ eine (innere zweistellige) Operation auf G ist, also eine Abbildung G × G → G. Statt ◦((g, h)) = r für drei Elemente g, h, r ∈ G schreiben wir g ◦ h = r. 2.1.2

Beispiele

• ◦ : XX × XX → XX (f, g) 7→ f ◦ g Verknüpfung von Abbildungen von X nach X ((X X , ◦) ist keine Gruppe!) • +: Z×Z→Z (a, b) 7→ a + b 2.1.3

Gruppe

Definition 2.2. (G, ◦) ist eine Gruppe, wenn gilt G1 Assoziativgesetz: (a ◦ b) ◦ c = a ◦ (b ◦ c) ∀ a, b, c ∈ G G2 Existenz eines (links-)neutralen Elements: ∃ e ∈ G : e ◦ a = a

∀a ∈ A

G3 Existenz von (links-)inversen Elementen: ∃ a−1 ∈ G : a−1 ◦ a = e ∀ a ∈ A. (G, ◦) ist kommutative Gruppe (abelsche Gruppe), wenn gilt: a ◦ b = b ◦ a ∀ a, b ∈ G 2.1.4

Beispiele

• (Z, +) ist eine Gruppe: – neutrales Element: 0 – Inverses von a ∈ Z: −a • (N, +) ist keine Gruppe, weil 1 kein Inverses hat. • (Z, −) ist keine Gruppe, weil „−“ nicht assoziativ ist. • (Q, +), (R, +) ⊇ (Z, +). • (Q+ , ·) ist ein Gruppe: – neutrales Element: 1 – Inverses von a ∈ Q+ :

1 a

11

· -1 1

-1 1 -1

1 -1 1

• ({−1, 1} , ·) ist eine Gruppe. Gruppentafel – Es gilt {−1, 1} ⊂ Q∗ , wodurch sich die Assoziativität von (Q∗ , ·) überträgt. – Wie man aus der Tafel ablesen kann, gilt: 1 · (−1) = (−1), 1 · 1 = 1, also ist 1 neutrales Element. – Wie man aus der Tafel ablesen kann, gilt: (−1) · (−1) = 1 ⇒ (−1)−1 = (−1) 1 · 1 = 1 ⇒ 1−1 = 1 • D4 - Diedergruppe der Ordnung 4, Symmetriegruppe des Quadrats

Die Elemente dieser Gruppe sind die Symmetrien, d.h. Selbstabbildungen des Quadrats: Drehungen: da - Drehung der Ecke 0 auf die Ecke a: – d0 - Drehung um 90◦ (in mathematisch positive Richtung) – d1 - Drehung um 180◦ – d2 - Drehung um 270◦ – d3 - Drehung um 270◦ (Achsen-)Spiegelungen: sa - Spiegelung der Ecke 0 auf die Ecke a: s0 , s1 , s2 , s3 Jede Symmetrie kann man als Permutation der Ecken beschreiben, z.B.   0 1 2 3 d1 = 1 2 3 0 Die Operation ist die Hintereinanderausführung der Abbildungen. • D6 - Diedergruppe der Ordnung 6, Symmetriegruppe des regelmäßigen Sechsecks 12

Behauptung: D6 = ({da , sa | a ∈ {0, . . . , 5}} , ◦) ist eine Gruppe. Beweis. Seien die Bezeichnungen wie oben gegeben. Im Folgenden wird in den Indizes immer modulo 6 gerechnet. – Assoziativität: Verknüpfungen von Abbildungen sind immer assoziativ. – Einheit: d0 ist die Identität (alle Ecken werden auf sich selbst „gedreht“). – Inverse: ∗ d−1 a = d−a , denn die Umkehrung einer Drehung ist die Drehung um denselben Winkel in die Gegenrichtung. ∗ s−1 a = sa , denn die Umkehrung einer Spiegelung ist die erneute Spiegelung an derselben Achse. – Abgeschlossenheit: Die Auswertung von 144 Produkten ist zu aufwändig, weswegen man systematisch vorgeht: 1. da ◦ db = da+b - Klar, Hintereinanderausführung von Drehung ist eine Drehung um die Summe der einzelnen Winkel. 2. da ◦s0 = sa - Eine Spiegelung sa kehrt generell die Durchlaufrichtung der Ecken um und lässt die Zählung bei a beginnen. s0 kehrt lediglich die Durchlaufrichtung um, die anschließende Drehung da dreht eigentlich −a auf 0, wegen der umkehrten Reihenfolge dreht sie aber a auf 0, lässt die Zählung bei immer noch umgekehrter Reihenfolge also bei a beginnen. 3. s0 ◦ da = s−a - da dreht 0 auf a, s0 kehrt die Durchlaufreihenfolge um, also liegt 0 nun auf der Ecke, die am Anfang −a hieß. 4. s0 ◦ s0 = d0 - Klar. Unter Verwendung von 1.-4. kann man nachrechnen: da ◦ sb = da ◦ (db ◦ s0 ) = (da ◦ db ) ◦ s0 = da+b ◦ s0 = sa+b sa ◦ db = (da ◦ s0 ) ◦ db = da ◦ (s0 ◦ db ) = da ◦ s−b = sa−b ?

sa ◦ sb = sa ◦ (db ◦ s0 ) = (sa ◦ db ) ◦ s0 = sa−b ◦ s0 = da−b 13

2.1.5

Symmetrische Gruppen

Sei X eine Menge. Sym(X) ist die Menge aller bijektiven Abbildungen von X nach X mit der Verknüpfung als Operation. Sym(X) ist eine Gruppe. Beweis. erfolgt durch Nachweis der Gruppenaxiome: G1 Verknüpfung von Abbildungen ist immer assoziativ. Beweis. Seien π, σ, τ Abbildungen von X nach Y und i ∈ X. Dann gilt ((π ◦ σ) ◦ τ )(i) = (π ◦ σ)(τ (i)) = π(σ(τ (i))) = π((σ ◦ τ )(i)) = (π ◦ (σ ◦ τ ))(i)

G2 idX ist das neutrale Element, denn es gilt für ein π ∈ Sym(X) idX ◦π = π G3 Zu jeder bijektiven Abbildung f gibt es Laut Lemma 1.2 eine Abbildung g : X → X (also g ∈ Sym(X)) mit g ◦ f = idX .

Ab S3 sind symmetrische Gruppen nicht mehr kommutativ, z.B. ist       1 2 3 1 2 3 1 2 3 ◦ = 1 3 2 2 1 3 3 1 2 aber



1 2

2 1

3 3

  1 ◦ 1

2 3

3 2



 =

1 2

2 3

3 1



Satz. Sn hat genau n! Elemente. Beweis. Es gibt n! Permutationen von n Elementen. 2.1.6

Beispiel

Sei X = [5]. Eine bijektive Abbildung [5] → [5] können wir in 2-Zeilennotation beschreiben. Seien     1 2 3 4 5 1 2 3 4 5 π= , σ= 4 2 1 5 3 4 5 1 2 3 Dann ist



1 5

2 3

3 4

4 2

5 1





1 1

2 2

3 3

4 4

5 5



π◦σ = Das neutrales Element ist id[5] =

14

Das Inverse von



1 z1

π= ist π 2.1.7

−1



2 z2

z1 1

=

3 z3

z2 2

z3 3

4 z4 z4 4

5 z5 z5 5





Eigenschaften von Gruppen

Satz 2.1.1. Sei (G, ◦) eine Gruppe. i) Das neutrale Element ist eindeutig. ii) Das (links-)neutrale Element ist auch rechtsneutral, d.h. für alle g ∈ G gilt e◦g = g ◦ e = g. iii) Die inversen Elemente sind eindeutig. iv) Das (links-)inverse Element eines Elementes g ∈ G ist auch rechtsinvers, d.h. es gilt g −1 ◦ g = g ◦ g −1 = e. v) Für a, b ∈ G gilt (a ◦ b)−1 = b−1 ◦ a−1 . vi) Für alle a ∈ G: (a−1 )−1 = a. vii) Für alle a, b, c ∈ G: a ◦ b = a ◦ c ⇔ b = c. Beweis. Sei (G, ◦) eine Gruppe und a, b, c ∈ G und e neutrales Element von G. ii) Sei b = a−1 und c = b−1 , d.h. nach G3 b ◦ a = e und c ◦ b = e. D.h. G1

G2

c ◦ e = c ◦ (b ◦ a) = (c ◦ b) ◦ a = e ◦ a = a G1

G2

⇒ a ◦ e = (c ◦ e) ◦ e = c ◦ (e ◦ e) = c ◦ e = a i) Angenommen es gibt ein weiteres neutrales Element e˜, d.h. für alle a ∈ G gilt e˜ ◦ a = a. Dann gilt auch ii)

G2

e˜ = e ◦ e˜ = e˜ ◦ e = e iv) Sei b = a−1 , d.h. nach G3 b ◦ a = e. Dann gilt b◦a=e



b ◦ (b ◦ a) = b ◦ e = e ◦ b = (b ◦ a) ◦ b = b ◦ (a ◦ b) b

−1

(b

◦ (b ◦ (b ◦ a)) = b

−1

−1

◦ (b ◦ (a ◦ b))

−1

◦ b) ◦ (b ◦ a) = (b

◦ b) ◦ (a ◦ b)

e ◦ (b ◦ a) = e ◦ (a ◦ b) b◦a=a◦b D.h. aber a ◦ a−1 = a−1 ◦ a = e.

15

⇔ ⇔ ⇔ ⇔

iii) Angenommen b sei auch inverses Element von a, also b ◦ a = e. Dann gilt auch G1

(b ◦ a) ◦ a−1 = e ◦ a−1



b ◦ (a ◦ a−1 ) = e ◦ a−1



b ◦ (a ◦ a−1 ) = a−1



b ◦ e = a−1



G2 iv) ii)

b = a−1 v) Es gilt iv)

G1

ii)

iv)

(a ◦ b) ◦ (b−1 ◦ a−1 ) = (a ◦ (b ◦ b−1 )) ◦ a−1 = (a ◦ e) ◦ a−1 = a ◦ a−1 = e Weil es nach iii) nur genau ein inverses Element zu a ◦ b gibt, gilt (a ◦ b)−1 = b−1 ◦ b. vi) Nach iv) gilt a ◦ a−1 = e, also ist nach G3 a invers zu a−1 , also ist nach iii) (a−1 )−1 = a. vii) Es gilt a◦b=a◦c⇔ −1

a

G1

◦ (a ◦ b) = a−1 ◦ (a ◦ c) ⇔ G3

(a−1 ◦ a) ◦ b = (a−1 ◦ a) ◦ c ⇔ G2

e◦b=e◦c⇔ b=c

Satz. Jede Gruppe mit maximal vier Elementen ist abelsch. Beweis. Sei (G, ◦) eine Gruppe. Beweis durch Kontraposition: Wenn G nicht abelsch ist, dann hat G fünf oder mehr Elemente. Sei also G nicht abelsch, d.h. ∃ a, b ∈ G mit a ◦ b 6= b ◦ a. Es genügt zu zeigen: e, a, b, a ◦ b, b ◦ a sind paarweise verschieden. i) a ◦ b 6= b ◦ a nach Voraussetzung. ii) a 6= e, b 6= e: G2 G2 Angenommen a = e, dann würde gelten: a ◦ b = e ◦ b = b = b ◦ e = b ◦ a, Widerspruch zu i). Analoges bei b = e. iii) a ◦ b 6= a: Angenommen a ◦ b = a, dann gilt auch a−1 ◦ a ◦ b = a−1 ◦ a, nach G3: e ◦ b = e, also nach G2 b = e, Widerspruch zu ii). iv) Analoges für a ◦ b 6= b.

16

v) a 6= b: Angenommen a = b, dann wäre auch a ◦ b = a ◦ a = b ◦ a, Widerspruch zu i). vi) a ◦ b 6= e: Angenommen a◦b = e, dann wäre nach 2.1.7. iv) auch b◦a = e, also a◦b = b◦a, Widerspruch zu i). vii) Analog zu iii)-vi) folgen die Ungleichungen für b ◦ a. Da alle fünf Elemente paarweise verschieden sind, hat G mindestens diese fünf Elemente. 2.1.8

Untergruppen

Definition 2.3. Ist (G, ◦) eine Gruppe und H ⊆ G, dann ist (H, ◦) eine Untergruppe von G, wenn (H, ◦) eine Gruppe ist. 2.1.9

Beispiel

• (Z, +) ist eine Untergruppe von (Z, +). • Untergruppen des D6 : – ({da | a ∈ {0, . . . , 5}} , ◦) ist eine Untergruppe, genannt die zyklische Untergruppe der Ordnung 6. – ({sa , d0 } , ◦)ist eine Untergruppe für a ∈ {0, . . . , 5}. • D6 ist Untergruppe von S6 = Sym({0, . . . , 5}). 2.1.10

Untergruppenkriterium

Proposition 2.1.1. Wenn (G, ◦) eine Gruppe ist und H ⊆ G, dann ist (H, ◦) eine Untergruppe, wenn gilt UG1 e ∈ H (äquivalent zu H 6= ∅) UG2 Wenn h ∈ H, dann ist auch h−1 ∈ H. UG3 Mit h, i ∈ H ist auch h ◦ i ∈ H. Beweis. Sei (G, ◦) eine Gruppe und H ⊆ G. Wegen UG3 ist H unter ◦ abgeschlossen. Weiterhin gilt G1 Assoziativität wird vererbt: Wenn die Elemente aus H bezüglich ◦ nicht assoziativ wären, wären sie auch in G bezüglich ◦ nicht assoziativ. G2 Neutrales Element ist dasselbe wie in G, das nach UG1 auch in H liegt. G3 Die inversen Elemente sind dieselben wie in G und nach UG2 auch in H.

17

2.2

Homomorphismen

2.2.1

Definition

Seien (G, ◦) und (H, ∗) Gruppen. Definition 2.4. Eine Abbildung ϕ : G → H ist ein Gruppenhomomorphismus, wenn gilt ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) ∀ a, b ∈ G 2.2.2

Isomorphismus

Definition 2.5. Ist ϕ bijektiv, dann ϕ ein Isomorphismus. 2.2.3

Eigenschaften

Satz 2.2.1. Wenn ϕ : (G, ◦) → (H, ∗) ein Homomorphismus ist, dann gilt i) ϕ(eG ) = eH ii) ϕ(a−1 ) = ϕ(a)−1 Beweis. ϕ : (G, ◦) → (H, ∗) ein Homomorphismus, dann gilt i) ϕ(a) ∗ eH = ϕ(a) = ϕ(a ◦ eG ) = ϕ(a) ∗ ϕ(eG ), gekürzt: eH = ϕ(eG ). i)

ii) ϕ(a) ∗ ϕ(a)−1 = eH = ϕ(eG ) = ϕ(a ◦ a−1 ) = ϕ(a) ∗ ϕ(a−1 ), gekürzt: ϕ(a)−1 = ϕ(a−1 ).

2.2.4

Beispiele von Homomorphismen

1. (H, ◦) eine Untergruppe von (G, ◦), dann ist die Einbettung ϕ: H→G ϕ(h) = h ∀ h ∈ H ein Homomorphismus. 2. ϕ : (Z, +) → (R+ , ·) a 7→ exp(a) ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt nach Funktionalgleichung der Exponentialfunktion ϕ(a + b) = exp(a + b) = exp(a) · exp(b) 3. ϕ : (Z, +) → (Z, +) a 7→ m · a ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt D

ϕ(a + b) = m · (a + b) = m · a + m · b 18

2.2.5

Bild und Kern von Homomorphismen

Definition 2.6. Sei ϕ : G → H ein Gruppenhomomorphismus. Dann wird definiert • im(ϕ) := {h ∈ H | ∃ g ∈ G : ϕ(g) = h} - Bild von ϕ • ker(ϕ) := {g ∈ G | ϕ(g) = eH } - Kern von ϕ Satz 2.2.2. Sei ϕ : G → H ein Gruppenhomomorphismus, dann gilt a) im(ϕ) ist eine Untergruppe von H. b) ker(ϕ) ist eine Untergruppe von G. Beweis. Seien also (G, ◦) und (H, ∗) Gruppen und ϕ : G → H ein Gruppenhomomorphismus. a) UG1 eH ∈ im(ϕ), weil gilt ϕ(eG ) = eH . UG2 Sei h ∈ im(ϕ), d.h. ∃ g ∈ G : ϕ(g) = h. Dann gilt ϕ(g −1 ) = ϕ(g)−1 = h−1 , also h−1 ∈ im(ϕ). UG3 Seien h1 , h2 ∈ im(ϕ), d.h. ∃ g1 , g2 ∈ G : ϕ(g1 ) = h1 , ϕ(g2 ) = h2 . Dann gilt: ϕ(g1 ◦ g2 ) = ϕ(g1 ) ∗ ϕ(g2 ) = h1 ∗ h2 also ist h1 ∗ h2 ∈ im(ϕ). b) UG1 eG ∈ ker(ϕ), weil gilt ϕ(eG ) = eH . UG2 Sei g ∈ ker(ϕ), d.h. ϕ(g) = eH . Dann gilt ϕ(g −1 ) = ϕ(g)−1 = e−1 H = eH , also g −1 ∈ ker(ϕ). UG3 Seien g1 , g2 ∈ im(ϕ), d.h. ϕ(g1 ) = ϕ(g2 ) = eH . Dann gilt: ϕ(g1 ◦ g2 ) = ϕ(g1 ) ∗ ϕ(g2 ) = eH ∗ eH = eH also ist g1 ∗ g2 ∈ ker(ϕ).

2.2.6

Faktorgruppe nach dem Kern und Homomorphiesatz

Sei ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus. Auf G definieren wir eine Relation a ∼ϕ b ⇔ ϕ(a) = ϕ(b). ∼ϕ ist eine Äquivalenzrelation (weil sie über die Gleichheit definiert ist, die bekanntermaßen Äquivalenzrelation ist). Diese Äquivalenzrelation induziert eine Partition von G in Klassen. Die Klasse von a bezeichen wir mit [a] = {b ∈ G | ϕ(a) = ϕ(b)}. Illustration

Auf den Klassen wird die Operation  definiert: [a]  [b] = [a ◦ b]. Die Operation  ist wohldefiniert (repräsentantenunabhängig). 19

Beweis. Seien [a] = [a0 ] und [b] = [b0 ]. Es gilt [a]  [b] := [a ◦ b] = {g ∈ G | ϕ(g) = ϕ(a ◦ b)} = {g ∈ G | ϕ(g) = ϕ(a) ∗ ϕ(b)} = {g ∈ G | ϕ(g) = ϕ(a0 ) ∗ ϕ(b0 )} = {g ∈ G | ϕ(g) = ϕ(a0 ◦ b0 )} = [a0 ◦ b0 ] = [a0 ]  [b0 ]

Satz 2.2.3. (Homomorphiesatz) Wenn ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus ist, dann gilt G/ker ϕ := ({[a] | a ∈ G} , ) ist eine Gruppe und ϕ˜ : G/ker ϕ → im ϕ, ϕ([a]) ˜ = ϕ(a) ist ein Isomorphismus, sodass das Diagramm kommutiert (Diagramm hier einfügen ˆˆ) also G/ker ϕ und im ϕ isomorph („im Wesentlichen gleich“) sind. Beweis. Sei also ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus und G/ker ϕ wie oben definiert. i) Die Gruppeneigenschaften von (G/ker ϕ, ) folgen im Grunde direkt aus deren Gültigkeit in (G, ◦): – G/ker ϕ ist über  abgeschlossen, denn seien [a], [b] ∈ G/ker ϕ beliebig, dann gilt [a]  [b] = [a ◦ b] ∈ G/ker ϕ weil a ◦ b ∈ G. G1 Für [a], [b], [c] ∈ G/ker ϕ gilt ([a]  [b])  [c] = [a ◦ b]  [c] = [(a ◦ b) ◦ c] = [a ◦ (b ◦ c)] = [a]  [b ◦ c] = [a]  ([b]  [c]) G2 [eG ] ist neutrales Element der Struktur, denn es gilt für alle [a] ∈ G/ker ϕ [eG ]  [a] = [eG ◦ a] = [a] G3 Das Inverse von [a] ∈ G/ker ϕ ist [a−1 ], denn es gilt [a−1 ]  [a] = [a−1 ◦ a] = [eG ] ii) ϕ˜ ist ein Homomorphismus, denn es gilt für beliebige [a], [b] ∈ G/ker ϕ ϕ([a] ˜  [b]) = ϕ([a ˜ ◦ b]) = ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) = ϕ([a]) ˜ ∗ ϕ([b]) ˜ 20

iii) ϕ˜ ist bijektiv: – ϕ˜ ist injektiv: Seien [a], [b] ∈ G/ker ϕ mit ϕ([a]) ˜ = ϕ([b]), ˜ d.h. aber ϕ(a) = ϕ(b), also [a] = [b]. – ϕ˜ ist surjektiv: Sei y ∈ im ϕ, d.h. ∃ a ∈ G : ϕ(a) = y, also ϕ([a]) ˜ = y.

2.2.7

Beispiele

• ϕ : (D6 , ◦) → (Z2 , +) ϕ(da ) = 0, ϕ(sa ) = 1 ∀ a ∈ {0, . . . , 5} ist ein Homomorphismus, denn es gilt für beliebige a, b ∈ {0, . . . , 5}. ϕ(da ◦ db ) = ϕ(da+b ) = 0 = 0 + 0 = ϕ(da ) + ϕ(db ) ϕ(da ◦ sb ) = ϕ(sa+b ) = 1 = 0 + 1 = ϕ(da ) + ϕ(sb ) ϕ(sb ◦ da ) = ϕ(sa−b ) = 1 = 1 + 0 = ϕ(sb ) + ϕ(da ) ϕ(sa ◦ sb ) = ϕ(da−b ) = 0 = 1 + 1 = ϕ(sa ) + ϕ(sb ) ϕ ist surjektiv: im(ϕ) = Z2 . ker(ϕ) = {da | a ∈ {0, . . . , 5}} ist eine Untergruppe von D6 . Nach dem Homomorphisatz ist D/ker ϕ isomorph zu Z2 . • Es ist (Zm , +) = ({[i] : i ∈ {0, . . . , m − 1}} , +m ) die Restklassengruppe modulo m. Die in der Definition verwendeten i heißen kanonische Repräsentanten der Klassen. ϕ : Z → Zm i 7→ [i] ker(ϕ) = [0] = {x ∈ Z | ∃ y ∈ Z : x = m · y} = m · Z, also gilt nach Homomorphisatz Z/mZ ∼ = Zm .

21

3

Ringe, Körper, Polynome

3.1

Definitionen: Ring und Körper

3.1.1

Ringe

Definition 3.1. (R, +, ·) ist ein Ring, wenn gilt R1 (R, +) ist eine abelsche Gruppe. R2 · ist eine assoziative Operation R × R → R. R3 Es gelten die Distributivgesetze für beliebige a, b, c ∈ R: a · (b + c) = a · b + a · c (a + b) · c = a · c + b · c (R, +, ·) heißt kommutativ, wenn für beliebige a, b ∈ R gilt: a · b = b · a. (R, +, ·) ist ein Ring mit Eins, wenn ∃ 1 ∈ R mit 1 · a = a · 1 = a. Bemerkung. Ist R ein Ring, so bezeichnet man das neutrale Element bezüglich + mit 0. Es gilt: 0 · a = a · 0 = 0. Beweis.

D

a · 0 = a · (0 + 0) = a · 0 + a · 0 ⇔ 0 = a · 0 0 · a = 0 folgt analog. 3.1.2

Beispiele

1. (Z, +, ·) ist ein kommutativer Ring mit Eins. 2. (R, +, ·) ist ein kommutativer Ring mit Eins. 3. Sei R = {f : [0, 1] → R} mit den Operationen + und ·, die wie folgt definiert sind (f + g)(x) := f (x) + g(x) ∀ x ∈ [0, 1] (f · g)(x) := f (x) · g(x) ∀ x ∈ [0, 1] (R, +, ·) ist ein kommutativer Ring mit Eins. Aber es gibt nicht für alle Elemente von (R, +, ·) multiplikative Inverse. 4. (Zm , +, ·) ist ein kommutativer Ring mit Eins. 5. (2Z, +, ·) ist ein kommutativer Ring ohne Eins, denn 1 6∈ 2Z. 6. (Rn×n , +, ·) - der Eins, wobei       n×n R :=      

Ring der quadratischen reellen Matrizen - ist ein Ring mit a11 a21 .. .

a12 a22 .. .

... ... .. .

a1n a2n .. .

    | aij ∈ R 

∀ i, j = 1, . . . , n

an1 an2 . . . ann n o = (aij )i,j=1,...,n | aij ∈ R ∀ i, j = 1, . . . , n

22

        

und die Addition komponentenweise: (aij )i,j=1,...,n + (bij )i,j=1,...,n = (aij + bij )i,j=1,...,n und die Multiplikation wie folgt definiert ist (aij )i,j=1,...,n + (bij )i,j=1,...,n =

n X

! aik · bik

k=1

i,j=1,...,n

Dann ist (0)i,j=1,...,n das neutrale Element der Multiplikation, entsprechend (−aij )i,j=1,...,n das additive Inverse zu (aij )i,j=1,...,n .     

1 0 ... 0 1 ... .. .. . . . . . 0 0 ...

0 0 .. .

    

1

ist das neutrale Element der Multiplikation. Der Ring ist ab n = 2 nicht kommutativ, denn es gilt beispielsweise           1 1 1 0 2 1 1 1 1 0 · = 6= · · 0 1 1 1 1 1 1 2 1 1 3.1.3

Nullteilerfreiheit

Definition 3.2. Sei (R, +, ·) ein Ring. R heißt nullteilerfrei, falls gilt a · b = 0 ⇒ a = 0 ∨ b = 0 ∀ a, b ∈ R 3.1.4

Gegenbeispiele

• (R2×2 , +, ·) ist nicht nullteilerfrei, denn es gilt      1 0 0 0 0 · = 0 0 0 1 0

0 0



• (Z6 , +, ·) ist nicht nullteilerfrei, denn es gilt [2] · [3] = [2 · 3] = [6] = [0] • RR , +, ·) ist nicht nullteilerfrei, denn für ( ( 1, x = 1 0, f (x) := g(x) := 0, x 6= 1 1, gilt (f · g)(x) = 0 3.1.5

x=1 x 6= 1

∀ x ∈ R.

Unterringe

Definition 3.3. U ist ein Unterring von (R, +, ·), wenn (U, +) Untergruppe von (R, +) und · : U × U → U abgeschlossen ist. 23

3.1.6

Ringhomomorphismen

Definition 3.4. ϕ : (R, +, ·) → (S, ⊕, ) ist ein Ringhomomorphismus, wenn gilt ϕ(a + b) = ϕ(a) ⊕ ϕ(b) ϕ(a · b) = ϕ(a) ϕ(b) 3.1.7

Körper

Definition 3.5. (K, +, ·) ist ein Körper, wenn gilt K1 (K, +) ist eine abelsche Gruppe. K2 (K ∗ , ·) ist eine abelsche Gruppe. K3 Distributivgesetz, d.h. für alle a, b, c ∈ K gilt a · (b + c) = a · b + a · c 3.1.8

Notation

• 0 - neutrales Element von (K, +) • 1 - neutrales Element von (K, ·) • −a - Inverses von a in (K, +) • 3.1.9

1 a

= a−1 - Inverses von a in (K ∗ , ·)

Eigenschaften von Körpern

Satz. Sei (K, +, ·) ein Körper. Es gilt i) 0 6= 1, weil 1 ∈ K ∗ und 0 6∈ K ∗ . ii) a · b = a ⇒ a = 0 ∨ b = 0, weil (K ∗ , ·) abgeschlossen ist (Nullteilerfreiheit). iii) a · (−b) = −(a · b), denn es gilt D

a·b+a·(−b) = a·(b+(−b)) = a·0 = 0 = a·b+(−(a·b)) ⇔ a·(−b) = −(a·b) iv) (−a) · (−b) = a · b, folgt aus iii). 3.1.10

Beispiele

1. (R, +, ·) ist ein Körper. 2. (Q, +, ·) ist ein Körper. 3. (Z, +, ·) ist kein Körper, nur 1 und −1 habe multiplikative Inverse. 4. Der 3. Beispielring ist kein Körper, auch hier fehlen Inverse. 5. (C, +, ·) ist ein Körper. 6. (Z2 , +, ·) ist ein Körper. 24

3.1.11

Der Körper der komplexen Zahlen

Motivation N fehlt bezüglich + die Inversen, also erweitert man die Menge der natürlichen Zahlen auf die Menge der ganzen Zahlen Z. Diesen wiederum die multiplikativen Inversen, also konstruiert man Q. (Q, +, ·) ist zwar ein Körper, man kann aber gewisse Gleichungen nicht in ihm lösen, z.B. x2 = 2. Mit Hilfe von Cauchy-Folgen, Dedekind’schen Schnitten, Intervallschachtelungen oder ähnlichen Objekten/Verfahren vervollständigt man Q zu R (siehe Analysis). Jedoch gibt es immer noch Gleichungen, die keine Lösung in R haben, z.B. x2 = −1. Also definiert man eine neue Zahl i als eine Lösung ebendieser Gleichung x2 = −1. Dann ist i2 = −1 und (−i)2 = −1, wodurch man die Anordnung des Körpers verliert. Nun ist jede quadratische Gleichung lösbar in C, d.h. ∃ z ∈ C : z 2 + pz + q = 0. Definition 3.6. Die Menge der komplexen Zahlen ist definiert als C := {a + b · i | a, b ∈ R} Jede komplexe Zahl z hat also die Gestalt z = a + b · i für a, b ∈ R. a heißt der Realteil von z, man schreibt Re(z) = a, und b Imaginärteil, also Im(z) = b. Wie man (relativ) leicht nachprüfen kann, ist (C, +, ·) ein Körper (siehe 2. AnalysisÜbungsblatt, 3. Aufgabe). Geometrische Interpretation Der Zahlenstrahl der reellen Zahlen wird zur Gauß’schen Zahlenebene:

Man kann also sagen

C∼ = R2

Und man schreibt z = a + bi = r · cos ϕ + i · r · sin ϕ wobei r die Länge des Pfeils ist, nach Pythagoras also p r = a2 + b2 =: |z| (a, b) heißen die kartesischen Koordinaten von z und (r, ϕ) die Polarkoordinaten von z. Rechnen mit komplexen Zahlen Es gilt für die Addition: (a + bi) + (c + di) = (a + c) + (b + d)i 25

Veranschaulichung:

und für die Multiplikation (a + bi) · (c + di) = (a · c − b · d) + (a · d + b · c)i bzw. (r1 · cos ϕ1 + i · r1 · sin ϕ1 ) · (r2 · cos ϕ2 + i · r2 · sin ϕ2 ) = r1 · r2 · [(cos ϕ1 · cos ϕ2 − sin ϕ1 · sin ϕ1 ) + i · (cos ϕ1 · sin ϕ2 + sin ϕ1 · ϕ2 )] = r1 · r2 · [cos(ϕ1 + ϕ2 ) + i · sin(ϕ1 + ϕ2 )] Veranschaulichung:

Wenn z = a + bi, dann heißt a − bi = z komplex-konjugierte Zahl von z. Es gilt für alle z, z 0 ∈ C • 1 1 1 (z + z) = (Re(z) + Im(z) · i + Re(z) − Im(z) · i) = (2Re(z)) = Re(z) 2 2 2 1 1 1 (z − z) = (Re(z) + Im(z) · i − Re(z) + Im(z) · i) = (2Im(z) · i) = Im(z) 2i 2i 2i 26

• 2

z · z = (a + bi) · (a − bi) = a2 − abi + abi + b2 = a2 + b2 = |z| • z + z0 = z + z0 z · z0 = z · z0

• |z| + |z 0 | ≤ |z + z 0 | Beweis. 2

|z + z 0 | = (z + z 0 ) · (z + z 0 )  = (z + z 0 ) · z + z 0 = z · z + z · z0 + z0 · z + z0 · z0 2

2

= |z| + 2Re(z · z 0 ) + |z 0 | 2

2

≤ |z| + 2 |z · z 0 | + |z 0 | = (|z| + |z 0 |)

2

Durch Wurzelziehen folgt die Behauptung •

1 z z = = 2 z z·z |z|

3.2

Polynome

3.2.1

Definition

Definition 3.7. Ein Polynom mit Koeffizienten in einem Körper K ist ein Ausdruck n P f (x) = a0 + a1 · x + . . . + an · xn = ak · xk , wobei n ∈ N0 , ai Koeffizienten und k=0

x Unbestimmte heißen. an 6= 0 heißt Leitkoeffizent. (Man kann „Körper“ auch gegen „kommutativer Ring mit Eins“ austauschen und später konkretisieren.) Bemerkung. Zwar kann man für x ein Element aus k einsetzen und so eine Abbildung f : K → K definieren, aber Polynome und Polynomabbildungen sind zu unterscheiden. 3.2.2

Beispiel f (x) = x2

g(x) = x3

f, g sind Polynome und für jeden Körper gilt f 6= g. Über K = R sind f und g verschiedene Abbildungen, für K = Z2 sind f, g allerdings gleich als Abbildungen, denn es gilt f (0) = 0 = g(0), f (1) = 1 = g(1) 27

3.2.3

Polynomringe

Definition 3.8. Sei K[x] die Menge alle Polynome mit Koeffizienten in K in der Unbestimmten x. Seien f, g ∈ K[x] mit f=

n X

k

ak · x , g =

k=0

m X

bk · xk

k=0

für m ≥ n, dann definiere eine Addition wie folgt: f + g :=

m X

(ak + bk ) · xk

k=0

wobei alle Koeffizienten ai mit i > n als 0 angenommen werden. Die Multiplikation wird definiert durch f · g :=

n+m X

ck · xk

k=0

wobei ck := a0 · bk + a1 · bk−1 + . . . + ak · 0 =

k X

ai · bk−i

i=0

(Die Multiplikation ist die gewohnte Multiplikation von Polynomen.) Satz 3.2.1. (K[x], +, ·) ist ein kommutativer Ring mit Eins. (Auch hier kann man immer „Körper“ K gegen „kommutativer Ring mit Eins“ R austauschen.) Beweis. Sei K ein Körper und + und · auf K[x] wie oben definiert. Es sind folgende Punkte zu zeigen: R1 (K[x], +) ist eine abelsche Gruppe, d.h. – Abgeschlossenheit: Kann direkt aus der Definition abgelesen werden. – Assoziativität: Leicht einzusehen, da die Polynome „komponentenweise“ addiert werden, d.h. die Koeffizenten der Unbestimmten gleichen Grades addiert werden. – Kommutativität: Ebenso. – Existenz eines neutralen Elements: Das Nullpolynom o = 0 ist neutrales Element der Addition, wie man leicht einsieht. n P – Existenz von Inversen: Sei f ∈ K[x] mit f = ak · xk , dann sei −f := n P

k=0 k

(−ak ) · x , und es gilt

k=0

f + (−f ) =

n X

(ak + (−ak )) · xk =

k=0

n X k=0

28

0 · xk = 0 = o

R2* · ist eine kommutative, assoziative Operation mit einem Einselement in K[x], d.h. – Abgeschlossenheit: Kann man aus der Definition ablesen. Seien f, g ∈ K[x] wie in der Definition gegeben, dann sind die ck der Definition gewiss Körperelemente, der Leitkoeffzient ist cm+n 6= 0 (siehe Gradformel, Definition 3.9 unten). – Assoziativität: Seien a, b, c ∈ K[x] mit a=

n1 X

ai · xi , b =

n2 X

i=0

bi · x i , c =

i=0

n3 X

ci · xi

i=0

wobei n1 , n2 , n3 ∈ N0 , dann gilt a · (b · c) = a ·

nX 2 +n3

k X

k=0

i=0

n1 +(n2 +n3 )

· xk

k X

k=0

m=0

i=0

(n1 +n2 )+n3

X

k X

k X

k=0

m=0

(n1 +n2 )+n3

X

k X

k=0

i=0 m=0

=

=

(n1 +n2 )+n3 A

X

=

k=0

= "

am ·

am ·

k−m X

!

!

m=0

! am · bi−m !

m=0

am · bk−m !

k

k=0

·

· xk

am · (bi−m · ck−i )

i=0

k=0 n1 X

· xk

bi−m · ck−i

!

i X

k X

· xk

bi · ck−m−i

i=m i X

k X

nX 1 +n2

ak · x

!

bi · ck−i

X

=

=

!

n2 X

· ck−i

! ·x

k

·

!# bk · x

k

!

·

k=0

n3 X k=0 n3 X

· xk !

ck · x

! ck · x

k=0

= (a · b) · c – Kommutativität: Seien a, b wie oben, dann gilt a·b= K

=

=

n+m X

k X

k=0

i=0

m+n X

k X

k=0

i=0

m+n X

k X

k=0

i=0

! · xk

ai · bk−i !

· xk

bk−i · ai ! bi · ak−i

· xk

=b·a – Existenz einer Eins: Es ist 1K[x] = 1K , wie man leicht einsieht. 29

k

k

R3 Distributivgesetz: Seien a, b, c wie oben gegeben, dann gilt   max{n2 ,n3 } X a · (b + c) = a ·  (bk + ck ) · xk  k=0 n1 +max{n2 ,n3 }

= D

=

k X

X

k X

k=0

i=0

n1 +max{n2 ,n3 }

! ai · bk−i + ai · ck−i

X

k X

k=0

i=0

n1 +max{n2 ,n3 }

X

k X

k=0

i=0

n1 +max{n2 ,n3 }

X

k X

k=0

i=0

=

=

· xk

ai · (bk−i + ck−i )

i=0

k=0 n1 +max Xn2 ,n3

=

!

ai · bk−i +

k X

· xk ! · xk

ai · ck−i

i=0

! k

ai · bk−i

·x +

k X

! ai · ck−i

· xk

n1 +max{n2 ,n3 }

X

k X

k=0

i=0

i=0

! ai · bk−i

k

·x +

! ai · ck−i

Wenn k > n1 + n2 , dann ist, wenn i > n1 , ai = 0, oder, wenn i < n1 , d.h. k − i > n2 , bi = 0. Analoges für k > n1 + n3 und ai , ci . Da max {n2 , n3 } ≥ n2 und max {n2 , n3 } ≥ n3 ist also ! n1 +max{n2 ,n3 } k X X ai · bk−i · xk = 0 bzw.

k=n1 +n2

i=0

n1 +max{n2 ,n3 }

X

k X

k=n1 +n3

i=0

! ai · ck−i

· xk = 0

Also gilt ... =

nX 1 +n2

k X

k=0

i=0

! ai · bk−i

k

·x +

nX 1 +n3

k X

k=0

i=0

! ai · ck−i

· xk

= (a · b) + (a · c)

Bemerkung. Die Operationen +, · für Polynome und für Polynomabbildungen sind verträglich. D.h., wenn f, g ∈ K[x], h = f + g und i = f · g, dann gilt h(α) = f (α) + g(α) und i(α) = f (α) · g(α) für alle α ∈ K. 3.2.4

Gradformel

Definition 3.9. Der Grad deg(f ) des Polynoms f ∈ K[x] ist n = max {i ∈ N0 : ai 6= 0}. Der Grad des Nullpolynoms wird definiert als deg(o) = −∞. (Spätestens ab hier müssen die Polynome über Körpern definiert werden, sonst wird die folgende Bemerkung falsch.) 30

· xk

Proposition 3.2.1. Für f, g ∈ K[x] gilt • deg(f + g) ≤ max {deg(f ), deg(g)} • deg(f · g) = deg(f ) + deg(g) Beweis. Wenn f, g ∈ K[x] mit deg(f ) = n und deg(g) = m, dann ist per Definition max{n,m}

deg(f + g) = deg(

X

(ak + bk ) · xk ) ≤ max {deg(f ), deg(g)}

k=0

und der n + m-te Koeffizient des Produkts f · g: cn+m =

n+m X i=0

ai · bn+m−i = an · bm 6= 0 |{z} |{z} 6=0

6=0

denn für i < n ist n + m − i > m, d.h. bm = 0, und für i > n ist ai = 0. 3.2.5

Nullteilerfreiheit

Folgerung. Der Ring K[x] ist nullteilerfrei, d.h. für alle f, g ∈ K[x] mit f 6= o und g 6= o gilt f · g 6= o Beweis. Seien f, g ∈ K[x] mit f 6= o und g 6= o, d.h. deg(f ) ≥ 0 und deg(g) ≥ 0, dann gilt nach Gradformel deg(f · g) = deg(f ) + deg(g) ≥ 0

3.2.6

Polynomdivision

Zwar gibt es in K[x] keine multiplikativen Inversen, aber wie im Ring (Z, +, ·) der ganzen Zahlen gibt es eine Division mit Rest. Satz 3.2.2. Sind f, g ∈ K[x] mit g 6= o, dann gibt es eindeutig bestimmte q, r ∈ K[x] mit f =q·g+r wobei deg(r) < deg(g). Beweis. Es wird zunächst die Eindeutigkeit gezeigt. Angenommen f = q1 · g + r1 mit deg(r1 ) < deg(g) und f = q2 · g + r2 mit deg(r2 ) < deg(g), dann gilt q1 · g + r1 = q2 · g + r2 ⇔ (q1 − q2 ) · g = r2 − r1 Wenn q1 − q2 6= o, dann ist nach Gradformel deg((q1 − q2 ) · g) = deg(q1 − q2 ) + deg(g) ≥ deg(g), während deg(r2 − r1 ) < deg(g), was einen Widerspruch darstellt. Also muss q1 − q2 = o gelten, dann ist q1 = q2 und (q1 − q2 ) · g = o · g = o, also auch r2 − r1 = o, d.h. r2 = r1 . Wenn eine solche Darstellung existiert, dann ist sie also eindeutig. Zum Beweis der Existenz: 31

Es wird o.B.d.A. angenommen, dass deg(f ) ≥ deg(g), ansonsten wählt man q = o und r = f , dann ist q · g + r = o · g + f = o + f = f und deg(r) = deg(f ) < deg(g). Induktion über deg(f ): Induktionsanfang Aus deg(f ) = 0 folgt deg(g) = 0, also f, g ∈ K. Dann gibt es aber g −1 ∈ K mit g −1 ·g = 1, also wählt man q = f ·g −1 und r = o, dann gilt q·g+r = (f ·g −1 )·g+o = f. Induktionsschritt Sei die Aussage nun für alle Polynome mit einem Grad kleiner als deg(f ) bewiesen. Sei n := deg(f ) und m := deg(g), a der Leitkoeffizent von f und b der Leitkoeffizent von g, dann betrachte das Polynom a f − · xn−m · g b das so konstruiert ist, dass der Leitkoeffizient von f sich hinweghebt, für das also gilt a deg(f − · xn−m · g) < deg(f ) b Auf dieses Polynom wird die Induktionsvoraussetzung angewendet, d.h. a ∃ q 0 , r : f − · xn−m · g = q 0 · g + r b mit deg(r) < deg(g), umgestellt

a n−m ·x )·g+r b womit man die gewünschte Darstellung erhält. ∃ q 0 , r : f = (q 0 +

Ein Polynom g teilt ein Polynom f , wenn das Restpolynom bei der Polynomdivision das Nullpolynom ist. 3.2.7

Beispiel

Wenn f = 2x3 + x − 5 und g = x2 + 1 mit f, g ∈ Q[x], dann gilt (2x3 −2x3

3.2.8

+x −5) : (x2 + 1) = 2x + −2x −x −5

−x−5 x2 +1

Folgerungen, Nullstellen

Folgerung 3.2.8.1. (Satz von Ruffini) Ist α ∈ K eine Nullstelle (Wurzel) von f ∈ K[x], d.h. f (α) = 0, dann ist f = q · (x − α) für ein q ∈ K[x] (sprich: der Linearfaktor (x − α) kann abgespalten werden). Beweis. Nach dem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈ K[x] mit f = q · (x − α) + r wobei deg(r) < deg(x − α) = 1, also r ∈ K. Einsetzen ergibt: 0 = f (α) = q(α) · (α − α) + r(α) = q(α) · 0 + r(α) = r(α), also r(α) = 0 und damit r = o. 32

Folgerung 3.2.8.2. Ein Polynom vom Grad n hat höchstens n Nullstellen (unabhängig von Körper). Beweis. Induktion nach dem Grad von f : Induktionsanfang Ist deg(f ) = 0, dann hat f keine Nullstelle und die Folgerung ist trivialerweise richtig. Induktionsschritt Sei die Folgerung nun für alle Polynome mit Graden kleiner als deg(f ) =: n bewiesen. Wenn f die Nullstelle α ∈ K hat, dann gilt nach Folgerung 1 f = q · (x − α) mit deg(f ) = deg(g) · deg(x − α) nach Gradformel, also deg(g) = n − 1. Nach Induktionsvoraussetzung hat q höchstens n − 1 Nullstellen, also hat f höchstens n Nullstellen. Folgerung 3.2.8.3. Ist K unendlich, dann gilt: f = o ∈ K[x] ist das einzige Polynom mit f (α) = 0 für alle α ∈ K. Beweis. Jedes Polynom f ∈ K[x] mit deg(f ) = n ∈ N hat nach Folgerung 2 höchstens n Nullstellen, d.h. es gibt höchstens n Elemente α ∈ K mit f (α) = 0. Wenn es also ein Polynom f ungleich dem Nullpolynom gäbe mit f (α) = 0 für alle α ∈ K, dann gibt es notwendigerweise nur deg(f ) ∈ N Elemente in K. Folgerung 3.2.8.4. Es gilt auch die Umkehrung: In jedem endlichen Körper gibt es ein Polynom f 6= o mit f (α) = 0 für alle α ∈ K. Beweis. Sei K = {k1 , k2 , . . . , kn }, dann ist f = (x − k1 ) · (x − k2 ) · . . . · (x − kn ) wegen der Nullteilerfreiheit nicht o, also das gesuchte Polynom. Folgerung 3.2.8.5. Ist K unendlich, dann sind Polynome f, g ∈ K[x] mit f (α) = g(α) für alle α ∈ K auch als Polynome gleich. Beweis. Aus f (α) = g(α) folgt f (α) − g(α) = 0, also (f − g)(α) = 0 für alle α ∈ K. In einem unendlichen Körper gilt dies aber nur für das Nullpolynom, also ist f −g = o, d.h. f = g. 3.2.9

Fundamentalsatz der Algebra

Satz 3.2.3. Jedes Polynom f ∈ C[x] mit deg(f ) ≥ 1 hat mindestens eine Nullstelle. Folgerung. Jedes Polynom f ∈ C[x] zerfällt in Linearfaktoren: f = α · (x − α1 ) · (x − α2 ) · . . . · (x − αn )

33

3.2.10

Lemma von Bezout

(Das Nachfolgende Lemma wurde in der Vorlesung nicht erwähnt, soll an dieser Stelle aber eingeführt und bewiesen werden, um den Beweis des nächsten Abschnittes zu vervollständigen.) Lemma 3.1. Sei K[x] ein Polynomring und f, g ∈ K[x] Polynom. Wenn es kein Polynom vom Grad ≥ 1 gibt, dass sowohl f als auch g teilt, so gibt es eindeutig bestimmte Polynome f ∗ , g ∗ mit f · f ∗ + g · g∗ = 1 Beweis. Sei o.B.d.A. deg(f ) ≥ deg(g). Wenn g das Nullpolynom ist, und f damit g in jedem Fall teilt, muss deg(f ) < 1 sein. D.h. f ∈ K, also wähle f ∗ = f −1 (Inverses im Körper) und g ∗ = g, dann gilt: f · f ∗ + g · g ∗ = 1 + o = 1. Der Beweis erfolgt durch vollständige Induktion nach dem Grad von f . Für den Induktionsanfang sei deg(f ) = 0, also auch deg(g) = 0, damit sind beide Polynome Körperelemente. Setzt man f ∗ = f −1 und g ∗ = o, so ergibt sich: f · f ∗ + g · g ∗ = 1 + o = 1. Sei das Lemma nun für alle Polynome mit Graden kleiner als deg(f ) bewiesen. Nach dem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈ K[x] mit f =q·g+r wobei deg(r) < deg(g). r und g sind teilerfremd, denn angenommen es gäbe ein h ∈ K[x], das r und g teilt, dann teilt h (nach Distributivgesetz) auch q · g + r = f , was ein Widerspruch dazu ist, dass f und g teilerfremd sind. Nach Induktionsvoraussetzung gibt es g 0 und r0 mit g · g0 + r · r0 = 1 Setzt man r = f − q · q ein, so erhält man g · g 0 + (f − q · g) · r0 = g · g 0 + f · r0 − q · g · r0 = f · r0 + g · (g 0 − q · r0 ) = 1 Setzt man f ∗ = r0 und g ∗ = g 0 − q · r0 , so erhält man die Behauptung. 3.2.11

Spezielle Faktorpolynomringe

Sei K[x] der Ring aller Polynome über K und g ∈ K[x]. Betrachte nun g · K[x] := {h ∈ K[x] | ∃ f ∈ K[x] : h = g · f }, also das Analogon zu m·Z für den Ring (Z, +, ·). Im Ring der ganzen Zahlen ist Z/mZ =: Zm ein Ring, wenn m prim ist sogar ein Körper. Ebenso gilt für Polynomringe Satz 3.2.4. K[x]/gK[x] =: K[x]g ist mit den von K[x] geerbten Operationen + und · ein Ring, wenn g über K irreduzibel (nicht in Linearfaktoren zerlegbar über K) sogar ein Körper. Beweis. Sei also g ∈ K[x]. Es wird die Äquivalenzrelation ∼ wie folgt erklärt: x ∼ y ⇔ ∃ f ∈ K[x] : x − y = f · g

34

K[x]g ist nun die Menge aller Äquivalenzklassen von ∼. Dann wird definiert für [x], [y] ∈ K[x]g [x] + [y] := [x + y] [x] · [y] := [x · y] Zu zeigen ist nun, dass (K[x]g , +, ·) ein Ring ist, d.h. im Einzelnen R1 (K[x]g , +) ist eine abelsche Gruppe, d.h. wiederum – Wohldefiniertheit von +: Seien [x] = [x0 ] und [y] = [y 0 ], dann gilt ∃ f1 ∈ K[x] : x − x0 = f1 · g ∃ f2 ∈ K[x] : y − y 0 = f2 · g also ∃ f1 , f2 ∈ K[x] : (x − x0 ) + (y − y 0 ) = f1 · g + f2 · g d.h. ∃ f1 , f2 ∈ K[x] : (x + y) − (x0 + y 0 ) = (f1 + f2 ) · g und damit [x + y] = [x0 + y 0 ] – Abgeschlossenheit von K unter +: Klar, wenn x, y ∈ K[x], dann ist x + y ∈ K[x], also [x + y] ∈ K[x]g . – Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]g , dann gilt ([x]+[y])+[z] = [x+y]+[z] = [(x+y)+z] = [x+(y+z)] = [x]+[y+z] = [x]+([y]+[z]) – Kommutativgesetz: [x] + [y] = [x + y] = [y + x] = [y] + [x] – Existenz eines neutralen Elements: [o] ist auch das neutrale Element von K[x]g , denn es gilt [x] + [o] = [x + o] = [x] – Existenz von Inversen: [−x] ist das inverse Element zu [x], denn es gilt [−x] + [x] = [(−x) + x] = [o] R2 · ist eine assoziative, kommutative Operation auf K[x]g mit Einselement in K[x]g , d.h. im Einzelnen – Wohldefiniertheit von ·: Seien [x] = [x0 ] und [y] = [y 0 ], dann gilt ∃ f1 ∈ K[x] : x − x0 = f1 · g ∃ f2 ∈ K[x] : y − y 0 = f2 · g also ∃ f1 , f2 ∈ K[x] : x·y = (f1 ·g+x0 )·(f2 ·g+y 0 ) = f1 ·g·f2 ·g+f1 ·g·y 0 +x0 ·f2 ·g+x0 ·y 0 d.h. ∃ f1 , f2 ∈ K[x] : (x + y) − (x0 + y 0 ) = (f1 · f2 · g + f1 · y 0 + f2 · x0 ) · g und damit [x · y] = [x0 · y 0 ] 35

– Abgeschlossenheit von K unter ·: Klar, wie bei +. – Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]g , dann gilt ([x]·[y])·[z] = [x·y]·[z] = [(x·y)·z] = [x·(y·z)] = [x]·[y·z] = [x]·([y]·[z]) – Kommutativgesetz: [x] · [y] = [x · y] = [y · x] = [y] · [x] – Existenz der Eins: [1] ist das neutrale Element von K[x]g bezüglich ·, denn es gilt [1] · [x] = [1 · x] = [x] • Distributivgesetze: Wegen der Kommutativität genügt es, eines der beiden zu zeigen: [x]·([y]+[z]) = [x]·[y+z]+[x·(y+z)] = [x·y+x·z] = [x·y]+[x·z] = ([x]·[y])+([x]·[z]) Damit ist gezeigt, dass K[x]g ein kommutativer Ring mit Eins ist. Sei g nun irreduzibel. Um zu zeigen, dass (K[x]g , +, ·) ein Körper ist, genügt es, die Existenz der multiplikatives Inversen nachzuweisen für alle [f ] ∈ K[x]∗g . Da g irreduzibel ist, ist g der einzige Teiler von sich selbst. Sei [f ] ∈ K[x]∗g , dann ist [f ] ungleich [g], also ist f nicht durch g teilbar und damit teilerfremd zu g. Nach dem Lemma von Bezout gibt es dann Polynome g ∗ und f ∗ mit g∗ · g = 1 − f ∗ · f das heißt also [1] = [f ∗ · f ] = [f ∗ ] · [f ] womit [f ∗ ] ∈ K[x]g multiplikatives Inverses zu [f ] ist. 3.2.12

Beispiele

• R[x]/(x2 + 1)R[x] ∼ =C • Q[x]/(x2 − 2)Q[x] ist der kleinste Körper, der die rationalen Zahlen und enthält: n o √ Q[x]/(x2 − 2)Q[x] ∼ = a + 2 · b | a, b ∈ Q

36



2

4

Vektorräume

4.1

Definitionen

4.1.1

Vektorräume

Definition 4.1. Sei K ein Körper. Eine Menge V ist ein Vektorraum über K, wenn es Operationen +, · gibt mit V1 (V, +) ist eine abelsche Gruppe. Das neutrale Element dieser Gruppe nennt man meist o und das Inverse zu v ∈ V nennt man −v. V2 Für ·: K ×V →V (λ, v) 7→ λ · v genannt „skalare Multiplikation“, gelten folgende Gesetze (i) (λ + µ) · v = λ · v + µ · v - Distributivgesetz 1 (ii) λ · (v + w) = λ · v + λ · w - Distributivgesetz 2 (iii) (λ · µ) · v = λ · (µ · v) - „Assoziativgesetz“ (iv) 1 · v = v - „multiplikative Neutralität der Körper-Eins“ 4.1.2

Weitere Eigenschaften

Satz 4.1.1. Aus den Vektorraumaxiomen lassen sich weitere Eigenschaften ableiten. Sei v ∈ V ein K-Vektorraum und λ ∈ K: (a) 0 · v = o, denn es gilt: 0 · v = (0 + 0) · v = 0 · v + 0 · v ⇔ o = 0 · v. (b) λ · o = o, denn es gilt: λ · o = λ · (o + o) = λ · o + λ · o ⇔ o = λ · o. (c) Aus λ · v = o folgt λ = 0 oder v = o. Denn angenommen λ 6= 0 und λ · v = o, dann ist letzteres äquivalent zu λ−1 · (λ · v) = λ−1 · o, d.h. 1 · v = o, also v = o. (d) (−1) · v = −v, denn es gilt: v−v = o = 0·v = (1+(−1))·v = 1·v+(−1)·v = v+(−1)·v ⇔ −v = (−1)·v 4.1.3

Beispiele

1. „Standardbeispiel“: K n := {x = (x1 , x2 , . . . , xn ) | xi ∈ K}, wobei Addition und skalare Multiplikation komponentenweise definiert sind, d.h. für (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ K n , λ ∈ K gilt (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) λ · (x1 , x2 , . . . , xn ) = (λ · x1 , λ · x2 , . . . , λ · xn )

37

2. Die Menge der Polynome K[x] ist ein Vektorraum über K: (K[x], +) ist eine abelsche Gruppe, weil (K[x], +, ·) ein Ring ist, und die restlichen Gesetz ergeben sich aus der schon definierten Multiplikation, weil Körperelemente lediglich Polynome vom Grad 0 sind. 3. Vektorraum der Funktionen über K: V = {f : M → K}, mit M eine beliebige, feste Menge. Die Operationen sind punktweise definiert (f + g)(x) := f (x) + g(x) (λ · f )(x) := λ · f (x)

∀x ∈ M ∀x ∈ M

4. Vektorräum der Abbildungen von einer Menge M in einen K-Vektorräum W ist ein K-Vektorräum. Die Operationen sind wie folgt definiert: Sind F, G ∈ Abb(M, W ) und λ ∈ K: (F + G)(m) := F (m) + G(m) ∀ m ∈ M (λ · F )(m) := λ · F (m) ∀ m ∈ M 5. (K n×n , +, ·) - die quadratischen Matrizen von Elementen aus K - mit der komponentenweisen Addition und skalaren Multplikation ist ein K-Vektorraum. 6. Jeder Körper ist ein Vektorraum über sich selbst. 7. Allgemeiner: Ist L ⊆ K ein Unterkörper von K, dann ist K ein L-Vektorraum. 4.1.4

Untervektorräume

Definition 4.2. Sei V ein K-Vektorraum, dann heißt W ⊆ V Untervektorraum von V , wenn gilt U1 o ∈ W U2 v + w ∈ W U3 λ · v ∈ W

∀ v, w ∈ W ∀ λ ∈ K, v ∈ W

Satz 4.1.2. Ein Untervektorraum W von V ist mit den induzierten Operationen selbst ein Vektorraum. Beweis. Die Vektorraumaxiome lassen sich leicht nachrechnen: V1 (W, +) ist eine abelsche Gruppe, denn es gilt: G1 Die Addition ist nach U2 auf W abgeschlossen. Assoziativität vererbt sich. G2 Nach U1 ist o ∈ W . o ist neutrale Element von V , diese Eigenschaft vererbt sich auf W . G3 Wenn v ∈ W , dann ist nach U3 auch (−1) · v = −v in W , was auch in W das zu v Inverse sein muss. V2 Die Multiplikation ist nach U3 über W abgeschlossen und die Gesetze der Multiplikation vererben sich dank U2 und U3 auf W .

38

4.1.5

Beispiele

(a) Die trivialen Untervektorräume eines Vektorraums V sind W = {0} und W = V.  (b) Wa = (x1 , x2 ) ∈ R2 | x1 + a · x2 = 0 für ein a ∈ R. Allgemein: Lösungsräume homogener linearer Gleichungen in n Variablen über K sind Untervektorräume des K n . (c) W = {f : C → R | f (1) + (2 − i) · f (1 + i) = 0} (d)

R[x]d | {z }

stetig differenzierbare Abb.

Polynome über R vom Grad d

4.1.6

ζ 1 (R, R) | {z }

⊂ R[x] ⊂

⊂ ζ 0 (R, R) ⊂ RR | {z } stetige Abb.

Durchschnitte von Unterräumen sind Unterräume

Proposition 4.1.1. Sei V ein Vektorraum und I eine Indexmenge. Für i ∈ I sei Wi ein Untervektorraum von V . Es gilt: \ Wi i∈I

ist ein Untervektorraum von V . Beweis. Klar: Gilt eine Eigenschaft für alle Mengen des Durchschnitts, gilt sie auch für den Durchschnitt selbst. 4.1.7

Beispiele

• V = R[x], dann ist die Menge Wk der Polynome, deren k-ter Koeffizient 0 ist, ein Unterraum von V . Dann ist auch \ W = Wk k ungerade

ein Unterraum von R[x]. Es ist W ∼ = R[x2 ]. • Seien

n X

aji · xi = 0

i=1

für j = 1, . . . , m homogene lineare Gleichungen über K n . Wie in Beispiel b) ist der Lösungsraum Wk jeder der j Gleichungen für sich ein Unterraum des K n . Nach Proposition ist also auch m \ Wj j=1 n

ein Unterraum des K .

39

4.1.8

Vereinigung von Unterräumen ist kein Unterraum

Achtung. Die Vereinigung von Vektorräumen ist im Allgemeinen kein Vektorraum. Wenn U, W Unterräume von V sind, so ist U ∪ W nur dann ein Unterraum, wenn V ⊆ W oder W ⊆ V . Beweis. Wenn U ⊆ W oder W ⊆ U , dann ist U ∪ W = W , also ist U ∪ W ein Vektorraum. Seien U, W Unterräume mit U 6⊆ W und W 6⊆ U , d.h. es gibt ein u ∈ U mit u 6∈ W und ein w ∈ W mit w 6∈ U . Dann ist u + w 6∈ U (ansonsten wäre auch (u + w) − u = w ∈ U ) und u + w 6∈ W (ansonsten wäre auch (u + w) − w = u ∈ W ), also ist U2 für U ∪ W nicht erfüllt. 4.1.9

Beispiel 2

V = R , dann sei W1 Lösungsraum von x1 − x2 = 0 und W2 der Lösungsraum von −2x1 − 5x2 = 0

Die Summe von Vektoren u ∈ W1 , v ∈ W2 ist im Allgemeinen nicht in der Vereinigung der Lösungsmengen. 4.1.10

Lineares Erzeugnis

Sei V ein Vektorraum über K und seien v1 , . . . , vr ∈ V . Definition 4.3. v ∈ V heißt Linearkombination von v1 , . . . , vr ∈ V , wenn Skalare λ1 , λ2 , . . . , λr ∈ K existieren, sodass gilt v = λ1 · v1 + λ2 · v2 + . . . + λr · vr =

r X

λk · vk

k=1

Definition 4.4. Die Menge aller Linearkombinationen von v1 , . . . , vr ist das Erzeugnis oder der aufgespannte Raum von v1 , . . . , vr . Man schreibt dafür span(v1 , . . . , vr ) oder hv1 , . . . , vr i. Proposition 4.1.2. hv1 , . . . , vr i ist der kleinste Untervektorraum von V , der v1 , . . . , vr enthält. Beweis. Zunächst wird gezeigt, dass hv1 , . . . , vr i ein Untervektorraum von V ist. 40

U1 Es ist o ∈ hv1 , . . . , vr i, dann für λ1 = λ2 = . . . = λr = 0 ∈ K ist r X

λk · vk =

k=1

r X

0 · vk =

k=1

r X

o=o

k=1

U2 Seien v, w ∈ hv1 , . . . , vr i, d.h. es gibt λ1 , . . . , λr ∈ K und µ1 , . . . , µr ∈ K mit v=

r X

λk · vk ,

w=

k=1

r X

µk · vk

k=1

dann gilt v+w =

r X

λk · vk +

k=1

r X

µk · wk =

k=1

r X

(λk + µk ) · vk ∈ hv1 , . . . , vr i

k=1

U3 Seien λ ∈ K und v ∈ hv1 , . . . , vr i, d.h. es gibt λ1 , . . . , λr ∈ K mit v=

r X

λk · vk

k=1

dann gilt λ·v =λ·

r X

λk · vk =

r X

λ · (λk · vk ) =

k=1

k=1

r X

(λ · λk ) · vk

k=1

Jeder Unterraum W von V , der v1 , . . . , vr enthält, enthält nach U2 und U3 auch v=

r X

λ k · vk

k=1

für alle λ1 , . . . , λr ∈ K. Das heißt W ⊆ hv1 , . . . , vr i, also ist hv1 , . . . , vr i der kleinste Untervektorraum von V , der v1 , . . . , vr enthält. 4.1.11

Lineare Unabhängigkeit

Definition 4.5. Eine endliche Menge von Vektoren v1 , . . . , vr aus dem K-Vektorraum V heißt linear unabhängig, wenn aus r X

λ k · vk = o

k=1

folgt λ1 = λ2 = . . . = λk = 0 In anderen Worten: Der Nullvektor lässt sich nur trivial aus den vi kombinieren. Eine unendliche Familie (vi | i ∈ I) von Vektoren heißt linear unabhängig, falls jede endliche Teilfamilie linear unabhängig ist.

41

4.1.12

Beispiele

... im R3 : 

     1 0 0 a) e1 =  0  , e2 =  1  , e3 =  0  sind linear unabhängig. Die einzi0 0 1 ge Lösung (λ1 , λ2 , λ3 ) von λ1 · e1 + λ2 · e2 + λ3 · e3 = o ist (λ1 , λ2 , λ3 ) = (0, 0, 0).       1 1 0 b) v1 =  1  , v2 =  0  , v3 =  1  sind linear unabhängig. 0 1 1       1 2 3 c) w1 =  2  , w2 =  1  , w3 =  3  sind linear abhängig, weil w1 + 2 1 3 w2 = w3 gilt, also w1 + w2 − w3 = o eine nicht-triviale Linearkombination des Nullvektors ist. d) Fasst man R[x] als Vektorraum über R auf, so ist {xn | n ∈ N} linear unabhängig. Es gibt keine nicht-triviale endliche Linearkombination des Nullvektors. 4.1.13

Charakterisierung der linearen Unabhängigkeit

Proposition 4.1.3. Vektoren v1 , . . . , vr sind linear unabhängig genau dann, wenn sich jedes v ∈ hv1 , . . . , vr i eindeutig als Linearkombination der vi darstellen lässt Beweis. Hinrichtung: Angenommen es gibt einen Vektor v ∈ hv1 , . . . , vr i mit zwei verschiedenen Darstellungen, also v=

r X

λ k · vk ,

v=

k=1

r X

µk · vk

k=1

dann gilt o=v−v =

r X k=1

! λ k · vk



r X

! µk · vk

k=1

=

r X

(λk − µk ) · vk

k=1

Aus der linearen Unabhängigkeit von v1 , . . . , vr folgt für alle k = 1, . . . , r λk − µk = 0 ⇔ λk = µk Widerspruch zu Annahme. Rückrichtung: Wenn v1 , . . . , vr linear abhängig sind, dann hat der Nullvektor zwei verschiedene Darstellungen (die triviale und eine nicht-trivale). Folgerung. Wenn v1 , . . . , vr linear unabhängig sind, dann gilt für alle i = 1, . . . , r: vi 6∈ hv1 , . . . , vi−1 , vi+1 , . . . , vr i (andernfalls gäbe es zwei Darstellungen von vi durch die Vektoren v1 , . . . , vr , einmal als vi selbst und die zweite nur durch Vektoren aus v1 , . . . , vi−1 , vi+1 , . . . , vr ). 42

Bemerkung. Wie man leicht einsieht, gilt: i) Ein einzelner Vektor v 6= o ist immer linear unabhängig. ii) ∅ ist linear abhängig. iii) Wenn o ∈ {v1 , . . . , vr }, dann sind v1 , . . . , vr linear abhängig. iv) Ist vi eine Linearkombination von v1 , . . . , vi−1 , vi+1 , . . . , vr , dann ist v1 , . . . , vr linear abhängig.

4.2

Basis und Dimension

4.2.1

Basis

Definition 4.6. Sei V ein Vektorraum über K. {v1 , . . . , vn } heißt Basis von V , wenn gilt • hv1 , . . . , vn i = V • {v1 , . . . , vn } sind linear unabhängig. Ist {v1 , . . . , vn } Basis von V , dann kann jedes Element von V eindeutig als Linearkombination n X v= λ k · vk k=1

geschrieben werden. 4.2.2

Charakterisierung des Vektorraums durch eine seiner Basen

Proposition 4.2.1. (v1 , . . . , vn ) ist genau dann Basis eines K-Vektorraums V , wenn für jedes Element v ∈ V genau ein (λ1 , λ2 , . . . , λn ) ∈ K n mit v=

n X

λ k · vk

k=1

existiert. Es gibt also eine Bijektion ϕ zwischen V und K n ϕ : V ↔ Kn v ↔ (λ1 , λ2 , . . . , λn ) die sogar strukturerhaltend ist (wie später gezeigt wird). Es ist also V ∼ = K n. Beweis. Folgt aus der Definition und der Charakterisierung der linearen Unabhängigkeit.

43

4.2.3

Beispiele

• Für V = K n heißt B = (e1 , e2 , . . . , en ) die kanonische Basis, mit ei = (0, 0, . . . , |{z} 1 , 0, . . . , 0) i-te Stelle

die Einheitsvektoren genannt werden.  • Für W = k ∈ R2 | x1 − x2 = 0 ist B = {(1, 1)} eine Basis.  • K[x] hat die Basis B = 1, x, x2 , . . . , xn , . . . . 4.2.4

Alternative Definitionen

Satz 4.2.1. Für eine Familie von Vektoren B = (v1 , . . . , vn ) aus einem Vektorraum V ist äquivalent: (i) B ist Basis. (ii) B ist minimal erzeugend, d.h. hBi = V und für alle B 0 ( B gilt hB 0 i = 6 V. (Basisauswahlsatz) (iii) B ist maximal linear unabhängig, d.h. B ist linear unabhängig und für alle v ∈ V gilt: B ∪ {v} ist linear abhängig. (Basisergänzungssatz) Beweis. Man zeigt jeweils: (i) ⇒ (ii) Angenommen B ist Basis und nicht minimal erzeugend, d.h. ∃ B 0 ( B : hB 0 i = V Sei vi ∈ B\B 0 . Weil B 0 V erzeugt, lässt sich vi einerseits als Linearkombination von Vektoren aus B 0 , andererseits durch vi selbst darstellen, womit B nicht linear abhängig, also auch keine Basis sein kann. (ii) ⇒ (i) Wenn B keine Basis, also nicht linear unabhängig ist, aber erzeugend ist, dann gibt es für ein vi Skalare λk ∈ K mit ! ! i−1 n X X vi = λk · vk + λk · vk k=0

k=i+1

Aus v ∈ hv1 , . . . , vn i folgt für Skalare µk ∈ K v=

n X

µk · vk

k=0

=

i−1 X

! µk · vk

i−1 X

+ µi ·

k=0

=

i−1 X k=0

=

i−1 X k=0

! λ k · vk

+

k=0

! µk · vk

+

i−1 X

!! λ k · vk

(µi · λk ) · vk

k=0

+

n X

+

n X k=i+1

44

!

n X

µk · vk

k=i+1

! (µi · λk ) · vk

k=i+1

!

+

k=i+1

!

(µk + µi · λk ) · vk

n X

k=i+1

! (µk + µi · λk ) · vk

+

n X

! µk · vk

also v ∈ hv1 , . . . , vi−1 , vi+1 , . . . , vr i. Damit ist gezeigt, dass B nicht minimal erzeugend ist. (i) ⇒ (iii) Wenn B eine Basis ist, dann ist B erzeugend, d.h. für alle v ∈ V ist v ∈ hv1 , . . . , vn i. Weil v1 , . . . , vn sind linear unabhängig sind, ist {v, v1 , . . . , vn } nicht linear unabhängig, d.h. B ist maximal linear unabhängig. (iii) ⇒ (i) Wenn B zwar linear unabhängig, aber nicht erzeugend ist, dann gibt es ein v ∈ V mit v 6∈ hv1 , . . . , vn i, d.h. {v, v1 , . . . , vn } ist linear unabhängig. Das heißt aber, dass B nicht maximal linear unabhängig ist.

4.2.5

Existenz einer Basis für endlich erzeugbare Vektorräume

Folgerung. Ist X ⊆ V ein endliches Erzeugendensystem von V , d.h. hXi = V , dann gibt es eine Basis. Beweis. Jedes endliche Erzeugendensytem enthält ein minimales Erzeugendensystem, also eine Basis. Satz 4.2.2. Jeder endlich erzeugbare Vektorraum besitzt eine Basis. 4.2.6

Austauschlemma n P

Lemma 4.1. Sei B = (v1 , . . . , vn ) eine Basis von V und ist w =

λk · vk mit

k=0

λi 6= 0, dann ist

B 0 = {v1 , . . . , vi−1 , vi+1 , . . . , vn }

eine Basis von V . Beweis. Zu zeigen ist, dass B 0 Basis von V ist, also 1. hB 0 i = V : Sei v ∈ V . dann existieren µ1 , . . . , µn ∈ K mit v = µ1 v1 + . . . + µn · vn O.B.d.A. sei k = 1, also w = λ1 · v1 + . . . λn · vn , λ1 6= 0. Wegen λ1 6= 0 gilt: v1 =

1 λ2 λ3 λn ·w− · v2 − · v3 − . . . − · vn λ1 λ1 λ1 λ1

Daraus folgt       µ1 λ2 λ3 λn ·v2 + µ3 − µ1 · ·v3 +. . .+ µn − µ1 · ·vn v= ·w+ µ2 − µ1 · λ1 λ1 λ1 λ1 Also B = hw, v2 , . . . , vn i = V .

45

2. B 0 = (w, v2 , v3 , . . . , vn ) ist linear unabhängig. Sei γ1 · w + γ2 · v2 + . . . + γn · vn = 0. Nach Voraussetzung ist w = λ1 · v1 + λ2 · v2 + . . . + λn · vn mit λ1 6= 0. Dann ist o = γ1 · w + γ2 · v2 + . . . + γn · vn = γ1 · (λ1 · v1 + λ2 · v2 + . . . + λn · vn ) + γ2 · v2 + . . . + γn · vn = γ1 · λ1 · v1 + (γ1 · λ2 + γ2 ) · v2 + . . . + (γ1 · λn + γn ) · vn Mit der linearen Unabhängigkeit von v1 , . . . , vn folgt γ1 · λ1 = 0 ⇒ γ1 = 0 und dann γ1 · λk + γk = 0 + γk = 0 ⇒ γk = 0 für alle k = 2, . . . , n, also γ1 = γ2 = . . . = γn = 0

4.2.7

Austauschsatz von Steinitz

Die anschließenden Folgerungen werden bedeutend einsichtiger und einfacher zu beweisen, hat man vorher den Austauschsatz von Steinitz zur Verfügung (der äquivalent zum Austauschlemma ist). Im Gegensatz zur Vorlesung wird also zunächst dieser Satz bewiesen und dann bei den Folgerungen verwendet. Satz. Sei B = {v1 , . . . , vn } eine Basis des K-Vektorraums V und C = {w1 , . . . , wm } eine Menge linear unabhängiger Vektoren. Dann gibt es eine Menge von n − m Vektoren, o.B.d.A. vm+1 , . . . , vn , sodass {w1 , . . . , wm , vm+1 , . . . , vn } eine Basis von V ist. Beweis. Beweis durch vollständige Induktion über m Für m = 1 folgt der Satz direkt aus dem Austauschlemma. Sei m > 1 und der Austauschsatz für Mengen C 0 mit m − 1 Elementen gezeigt. Sei C = {w1 , . . . , wm } eine Menge linear unabhängiger Vektoren, dann betrachte zunächst C 0 = C \ {wm }. C 0 besitzt m − 1 Elemente, also kann man die Induktionsvoraussetzung darauf anwenden: {w1 , . . . , wm−1 , vm , vm+1 , . . . , vn } ist eine Basis von V . Man kann also wm ∈ V als Linearkombination dieser Vektoren darstellen: m−1 n X X wm = λk · wk + λk · v k k=1

k=m

46

Es muss ein i ≥ m geben mit λi 6= 0, denn sonst wäre wm =

m−1 X

λk · wk

k=1

was wiederum ein Widerspruch zur linearen Unabhängigkeit von w1 , . . . , w1 wäre. Sei o.B.d.A i = m, dann ist nach Austauschlemma ist also {w1 , . . . , wm−1 , wm , vm+1 , . . . , vn } eine Basis von V . 4.2.8

Alle Basen haben gleich viele Elemente

Satz 4.2.3. Je zwei Basen eines (endlich erzeugten) Vektorraums V habe die gleiche Anzahl von Elementen (=Kardinalität). Beweis. V sei ein endlich erzeugbarer Vektorraum. Dann existieren Basen mit endlich vielen Elementen. Angenommen B = (v1 , . . . , vn ), B 0 = (w1 , . . . , wm ) sind Basen mit m < n. Insbesondere ist B 0 dann linear unabhängig und nach Austauschsatz von Steinitz gibt es n − m ≥ 1 Vektoren in B, o.B.d.A. vm+1 , . . . , vn , sodass {w1 , . . . , wm , vm+1 , . . . , vn } eine Basis, also ein minimales Erzeugendensystem von V ist, was ein Widerspruch dazu ist, dass B 0 ein minimales Erzeugendensystem, also eine Basis ist. 4.2.9

Dimension

Definition 4.7. Sei V ein K-Vektorraum, dann definiere ( n, falls V eine Basis mit n Elementen besitzt dimK (V ) = ∞, falls V keine endliche Basis besitzt Proposition 4.2.2. Sei V ein K-Vektorraum und w1 , . . . , wr Vektoren aus V . Sei r > dimK (V ), dann ist (w1 , . . . , wr ) linear abhängig. Beweis. Sei B = {v1 , . . . , vn } eine Basis von V . Angenommen (w1 , . . . , wr ) (n < r) sei linear unabhängig, dann ist auch (w1 , . . . , wn ) linear unabhängig. Nach dem Ausstauschsatz von Steinitz kann man die Basis B also komplett austauschen, d.h. (w1 , . . . , wn ) ist Basis und damit maximal linear unabhängig, was ein Widerspruch zur Annahme ist. 4.2.10

Beispiele

• dimK K n = n • dimR C = 2, denn (1, i) ist eine Basis des R-Vektorraums C. • dimQ R = ∞

47

4.2.11

Dimension von Unterräumen

Proposition 4.2.3. Sei W ein Unterraum von V . (i) Es gilt dim W ≤ dim V . (ii) Aus dim W = dimV folgt W = V . Beweis. (i) Jede linear unabhängige Menge von Vektoren in V hat höchstens dim V viele Elemente. Jede linear unabhängige Menge in W , insbesondere jede Basis, ist natürlich auch eine linear unabhängige Menge in V , hat also höchstens dim V Elemente. Also dim W ≤ dim V . (ii) Angenommen dim W = dim V , aber W ( V . Sei B Basis von W und v ∈ V \W , d.h. v 6∈ hBi. B ∪{v} wäre dann linear unabhängig in V , hätte aber mehr Elemente als dim W = dim V , Widerspruch.

4.3

Unendlichdimensionale Vektorräume

4.3.1

Beispiele

• Eine andere Sichtweise auf die Menge der Polynome über einem Körper K ist die Betrachtung der Polynomkoeffizienten, angeordnet in einer unendlichen Folge, in der fast alle Folgenglieder 0 sind: K[x] ∼ = {(a0 , a1 , . . . , an , 0, 0, . . .) | ∃ n ∈ N : a0 , . . . , an ∈ K, ak = 0 ∀ k > n} Man definiert dann 1 := (1, 0, 0, . . .), x := (0, 1, 0, 0, . . .), x2 := (0, 0, 1, 0, 0, . . .) usw. Die Menge dieser Vektoren ist die Standardeinheitsbasis des K (N) . Diese Sichtweise ist auch verträglich mit der Multiplikation im Polynomring, wie man leicht nachrechnen kann. Insgesamt ist also K[x] ∼ = K (N) , wobei K (N) der Vektorraum der unendlichen Folgen mit fast allen Folgengliedern = 0 ist. • Die Menge der unendlichen Folgen über einem Körper K K N = {(a0 , a1 , . . . , an , . . .) | ai ∈∈

∀ i ∈ N}

ist ebenfalls ein Vektorraum. Die Operationen werden auch hier komponentenweise definiert. B = ((1, 0, 0, . . .), (0, 1, 0, . . .), . . .) ist keine Basis von K N , weil zum Beispiel (1, 1, 1, . . .) nicht als endliche Linearkombination von Vektoren aus geschrieben werden kann. B kann diesen Vektor also nicht erzeugen. 4.3.2

Halbordnungen

Definition 4.8. Sei M eine Menge. Eine Relation R ⊆ M × M heißt Halbordnung auf M , wenn gilt (i) R ist reflexiv: mRm ∀ m ∈ M , (ii) R ist antisymmetrisch: ∀ m, n ∈ M : mRn ∧ nRm ⇒ m = n und (iii) R ist transitiv: ∀ m, n, o ∈ M : mRn ∧ nRo ⇒ mRo. 48

4.3.3

Beispiele

• „≤“ ist auf Z eine Halbordnung. • Sei M = P({1, 2, 3}) = {∅, {0} , {1} , {2} , {3} , {1, 2} , {1, 3} , {2, 3} , {1, 2, 3}} Die Inklusion „⊆“ ist eine Halbordnung auf jeder Menge von Mengen: (i) A ⊆ A X (ii) A ⊆ B ∧ B ⊆ A ⇒ A = B X (iii) A ⊆ B ∧ B ⊆ C ⇒ A ⊆ C X 4.3.4

Ketten

Definition 4.9. Sei M eine Menge mit einer Halbordnung R. (a) K ⊆ M heißt Kette, falls gilt: a, b ∈ K ⇒ aRb ∨ bRa. (b) Eine Kette heißt induktiv, falls ein m ∈ M existiert, sodass kRm (m ist obere Schranke von K).

∀k ∈ K

(c) Ein Element m0 ∈ M heißt maximal in M , falls gilt: Ist m0 Rm für ein m ∈ M , dann folgt m = m0 . 4.3.5

Lemma von Zorn

Satz 4.3.1. Sei M 6= ∅ und R eine Halbordnung auf M . Ist jede Kette K ⊆ M induktiv, so gibt es wenigstens ein maximales Element m ∈ M . (Das Lemma von Zorn ist äquivalent zum Auswahlaxiom.) 4.3.6

Basisexistenzsatz für beliebige Vektorräume

Satz 4.3.2. Sei V ein L-Vektorraum. Dann gibt es eine maximal linear unabhängige Teilmenge B in V , also eine Basis. Beweis. Sei M := {B | B ⊆ V, B ist linear unabhängig} M 6= ∅, weil ∅ linear unabhängig ist und ∅ ⊆ V , und damit ∅ ∈ M . Ordne M bezüglich der Inklusion. Sei K ⊆ M eine Kette in M . Es wird gezeigt, dass K induktiv ist. Setze dazu [ B0 = B B∈K

dann gilt B ⊆ B0 für alle B ∈ K. B0 ∈ M , wenn B0 linear unabhängig ist: Sei n X

λi · bi = 0

i=1

für λi ∈ L, bi ∈ B0 . Dann gibt es Bi ∈ K mit bi ∈ Bi für alle i = 1, . . . , n. Nach Definition der Kette sind die Bi so geordnet, dass es ein j ∈ {1, . . . , n} gibt, sodass 49

Bi ⊆ Bj , also bi ∈ Bj für alle i. Bj ∈ M ist aber linear unabhängig, und damit folgt aus der Gleichung: λ1 = λ2 = . . . = λn = 0 Es gibt also ein B0 ∈ M mit B ⊆ B0 für alle B ∈ K, also ist K induktiv. Damit ist gezeigt, dass jede Kette aus M induktiv ist. Nach dem Lemma von Zorn gibt es also ein maximales Element in M , d.h. eine maximal linear unabhängige Menge von Vektoren in V , also eine Basis.

4.4

Matrizen

4.4.1

Definition

Definition 4.10. Eine m × n-Matrix über K ist eine Anordnung von n · m Elementen aus K in einem rechteckigen Schema:   a11 a12 . . . a1n  a21 a22 . . . a2n     .. .. ..  ..  . . . .  am1

am2

...

amn

Die Elemente aij sind die Koeffizienten des Matrix. Die waagerecht geschriebenen Tupel(ai1 , ai2 , . . . , ain ) heißen Zeilen(-vektoren). a1j  a2j    Die senkrecht geschriebenen Tupen  .  heißen Spalten(-vektoren).  ..  amn Die Menge aller m × n-Matrizen über K bezeichnet man mit MK (m, n), M (m, n, K) oder K m×n . 4.4.2

Zeilenstufenform

Definition 4.11. Eine Matrix ist in Zeilenstufenform , wenn sie so aussieht:   0  ∗ ··· ···  0 0 ···   ∗ ··· *    .. .. . .  ..  . .  . . 0 0 * ∗    0 0 ···  0 0 · · ·  ∗ · · ·    0 0 ···  0 0 ··· 0 ···  0 0 Beschreibung: • Die  sind alle 6= 0. • Die Elemente rechts von den  sind beliebig (∗). • Unter der Stufenlinie stehen nur 0-Elemente. Formaler: A ∈ K m×n ist in Zeilenstufenform, wenn • Es gibt ein r ∈ {0, 1, . . . , n}, sodass alle Zeilen mit Index i > r nur Nullen enthalten. • Es existieren j1 , . . . , jr mit 0 < j1 < j2 < . . . < jr ≤ n und ji := min {j | aij 6= 0}. 50

4.4.3

Kriterium für lineare Unabhängigkeit

Lemma 4.2. Ist A in Zeilenstufenform und sind a1 , . . . , ar die Zeilen ungleich o in A, dann sind diese Zeilen linear unabhängig. Beweis. Sei o = λ1 · a1 + . . . + λr · ar mit λi ∈ K für alle 1 ≤ i ≤ r. Dies „ist“ (also: kann interpretiert werden als) ein System von n homogenen linearen Gleichungen. Betrachte j1 dieser Gleichungen: 0 = λ1 · a1,j1 + . . . + λr · ar,j1 Wegen aij = 0 für alle i > 1 (alle Einträge unter dem ersten Element 6= 0 in der ersten Zeile sind 0) ist das 0 = λ1 · a1,j1 + λ2 · 0 + . . . + λr · 0 = λ1 · a1,j1 ⇒ λ1 = 0 |{z} 6=0

Sei aus den Gleichungen j1 , . . . , jk−1 gezeigt, dass λ1 = . . . = λk−1 = 0 für ein k, 1 < k ≤ n. Wenn jk ≤ jr , dann betrachte die jk -te Gleichung des Systems 0 = λ1 · a1,jk + . . . + λr · ar,jk Wegen λ1 = . . . = λk−1 = 0, und aij = 0 für alle i > k folgt 0 = 0·a1,jk +0·a2,jk +. . .+0·ak−1,jk +λk ·ak,jk +λk+1 ·0+·λr ·0 = λk ·ak,jk ⇒ λk = 0 | {z } 6=0

Induktiv folgt also λ1 = λ2 = . . . = λr = 0, d.h. a1 , . . . , ar können nur trivial zum Nullvektor kombiniert werden, sie sind also linear unabhängig. 4.4.4

Zeilenraum

Definition 4.12. Der Zeilenraum ZR(A) einer Matrix A ∈ K m×n ist das Erzeugnis der Zeilen von A, d.h. ZR = ha1 , . . . , an i, wobei ai die i-te Zeile von A ist. 4.4.5

Elementare Zeilenumformungen

Definition 4.13. Sei A eine Matrix des K m×n . • Typ I: Die i-te Zeile wird mit einem Skalar    ∗ ∗ ... ∗ ∗   .. .. . . . ..   .  . .. . .    λ6=0    − − a − − A= → i     .   . . . . .. . . .. ..   ..  ∗ ∗ ... ∗ ∗

51

multipliziert. ∗ .. . − .. . ∗

∗ .. .

... .. . − λ · ai .. .. . . ∗ ...

∗ .. . − .. . ∗

 ∗ ..  .   −   = AI ..  .  ∗

• Typ II: Zeile i und Zeile j werden addiert.    ∗ ∗ ∗ ... ∗ ∗  −  − − ai − −      .. . . . ..  →  .. A =  ...  . . .. . .      −  − − aj − −  ∗ ∗ ∗ ... ∗ ∗ 4.4.6

∗ − .. .

... ai .. .

− aj + ai ∗ ...

∗ − .. .

∗ − .. .



    = AII  −  ∗

− ∗

Elementare Zeilenumformungen sind zeilenraumerhaltend

Lemma 4.3. Für die Zeilenumformungen A → AI und A → AII gilt: ZR(A) = ZR(AI ) = ZR(AII ) Beweis. Sei v ∈ ZR(A), d.h. es existieren µ1 , . . . , µm mit v = µ1 · a1 + . . . + µi · ai + . . . + µm · am µi = µ1 · a1 + . . . + · (λ · ai ) + . . . + µm · am ∈ ZR(AI ) λ bzw. v = µ1 · a1 + . . . + µi · ai + . . . + µj · aj + . . . + µm · am = µ1 · a1 + . . . + (µi − µj ) · ai + . . . + µj · (aj + ai ) + . . . + µm · am ∈ ZR(AII ) Die anderen Richtungen sind ähnlich einfach zu zeigen. 4.4.7

Weitere Zeilenumformungen

• Typ III: Addition des λ-fachen einer Zeile i zu einer Zeile j.    ∗ ∗ ... ∗ ∗ ∗ ∗ ...  − − ai − −   − − ai     ..  λ6=0  .. . . . . . . . . . . . .. →  . A= . . . . .  .     − − aj − −   − − aj + λ · ai ∗ ∗ ... ∗ ∗ ∗ ∗ ...

∗ − .. . − ∗

∗ − .. .



    = AIII  −  ∗

Typ III als Kombination von Typ I und II:     ∗ ... ∗ ∗ ... ∗  − ai −   − λ · ai −      I  . II  .. . .  . ..  → .. . . A= . →   . .  . .    .   − aj −   − aj −  ∗ ... ∗ ∗ ... ∗     ∗ ... ∗ ∗ ... ∗  −  − λ · ai −  ai −      I  .  ..  . ..  = A . . .. ..  →  .. ..  . III .       − aj + λ · ai −   − aj + λ · ai −  ∗ ... ∗ ∗ ... ∗ Also ist ZR(A) = ZR(AIII ). 52

• Typ IV: Vertauschen von zwei Zeilen.    ∗ ∗ ... ∗ ∗   − − ai − −      ..  . . . . .. . . .. ..  →  A= .       − − aj − −  ∗ ∗ ... ∗ ∗

∗ − .. . − ∗

∗ ... − aj .. . . . . − ai ∗ ...

∗ − .. . − ∗

∗ − .. .



    = AIV  −  ∗

Typ III als Kombination von Typ I, II und III:     ∗ ... ∗ ∗ ... ∗  −  − ai −  ai −      II III  .  .. . .  ..  → . . . . . → A= .   . . .  .   .    − aj − ai −   − aj −  ∗ ... ∗ ∗ ... ∗    ∗ ... ∗ ... ∗  −  − ai + (aj − ai ) = aj −  aj    III  .  ..  . . . .. .. ..  →  ..  .      −  − (aj − ai ) − aj = −ai aj − ai − ∗ ... ∗ ... ∗   ∗ ... ∗  − aj −     .. . . ..  = A   . IV . .    − ai −  ∗ ... ∗

∗ − .. .



   I →  −  ∗

Also folgt: ZR(A) = ZR(AIV ) 4.4.8

Jede Matrix kann in Zeilenstufenform umgeformt werden

Satz 4.4.1. Sei A eine (m × n)-Matrix mit Zeilen a1 , . . . , am . Mit elementaren Zeilenumformungen lässt sich A in eine Matrix A0 in Zeilenstufenform überführen. Die Zeilen von A0 , die keine Nullzeilen sind, bilden eine Basis von ZR(A). Beweis. Es bleibt zu zeigen, dass elementare Zeilenumformungen „stark genug“ sind, um Zeilenstufenform zu erzeugen. Die Idee dazu ist die systematische Erzeugung von 0-Einträgen. Wenn A die Nullmatrix ist, dann ist nichts zu zeigen. 1. Ansonsten gibt es eine Spalte, die einen Eintrag ungleich 0 hat. Betrachte die erste dieser Spalten, j1 , und tausche die Zeilen so, dass in der ersten Zeile in der betrachteten Spalte das Element a1,j1 6= 0 steht. 2. Mit Umformungen des Typs III addiert man Vielfache der ersten Zeile zu den anderen Zeilen, dass die Spalte j1 bis auf den Eintrag a1,j1 nur 0 enthält. 3. Sei die Matrix bis zu einer Zeile ak−1 bereits in Zeilenstufenform, wobei die letzte betrachtete Spalte jk−1 war. Ist ak−1 letzte Zeile oder jk−1 letzte Spalte, ist man fertig. Man ist außerdem fertig, wenn alle Spalten rechts von jk−1 und 53

unterhalb von ak−1 nur 0 enthalten. Ansonsten betrachte die erste Spalte, genannt jk , die einen Eintrag ungleich 0 unterhalb von Zeile ak−1 hat. Tausche die Zeile mit diesem Eintrag so, dass sie danach Zeile ak ist. 4. Mit Umformungen des Typs III addiert man Vielfache von ak zu den anderen Zeilen unterhalb von ak , so dass die Spalte jk unterhalb von ak nur 0-Einträge enthält.

4.4.9

Beispiele

Betrachte folgende Matrizen aus dem R3 : • 

2  0 4

3 1 0

  4 2 a ←a3 −2a1  0 2  3 −→ 8 0

3 1 −6

  4 2 a ←a3 +6a2  0 2  3 −→ 0 0

3 1 0

 4 2  12

•    1 1 1 1 1 1 3 +a1  4 3 2   4 3 2  a3 ←a −→ 4 3 2 3 2 1     1 1 1 1 1 1 2 −4a3  4 3 2  a2 ←a  0 −1 −2  −→ 0 0 0 0 0 0 

4.5

Summen und direkte Summen

4.5.1

Summe von Untervektorräumen

a3 ←a2 −a3

−→

Definition 4.14. Sind U1 , U2 Unterräume eines K-Vektorraums V , dann heißt U1 + U2 := {x + y | x ∈ U1 , y ∈ U2 } die Summe von U1 und U2 . Bemerkung. U1 + U2 ist ein Untervektorraum von V . Beweis. Nachweis der Untervektorraumkriteriums U1 o ∈ U1 , o ∈ U2 , also o = o + o ∈ (U1 + U2 ) U2 Seien x, x0 ∈ U1 , y, y 0 ∈ U2 , dann sind (x + y), (x0 + y 0 ) ∈ (U1 + U2 ) und (x + y) + (x0 + y 0 ) = (x + x0 ) + (y + y 0 ) ∈ (U1 + U2 ) | {z } | {z } ∈U1

∈U2

U2 Ebenso ist für λ ∈ K λ · (x + y) = |{z} λ · x + λ · y ∈ (U1 + U2 ) |{z} ∈U1

54

∈U2

4.5.2

Beispiele

• U + {o} = U • U +U =U • Allgemeiner: U + U 0 = U , wenn U 0 Untervektorraum von U ist. 4.5.3

Summe und Erzeugnis

Korollar. Für zwei Unterräume U1 , U2 gilt: hU1 , U2 i = U1 + U2 . Beweis. Sei zunächst s ∈ U1 + U2 , d.h. es gibt x ∈ U1 , y ∈ U2 mit x + y = s. Trivialerweise ist dann s = 1 · x + 1 · y ∈ hU1 , U2 i, also gilt U1 + U2 ⊆ hU1 , U2 i. Sei andererseits u ∈ hU1 , U2 i, d.h. es gibt Vektoren v1 , . . . , vs ∈ U1 , ws+1 , . . . , ws+t ∈ U2 und Skalare λ1 , . . . , λs , λs+1 , . . . , λs+t ∈ K, sodass gilt u = λ1 · v1 + . . . + λs · vs + λs+1 · ws+1 + . . . + λs+t · ws+t | {z } | {z } ∈U1

∈U2

also eben auch u ∈ (U1 + U2 ). 4.5.4

Dimensionsformel

Satz 4.5.1. Sind U1 und U2 Untervektorräume von V , dann gilt dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ) Beweis. Sei B0 = {v1 , . . . , vr } eine Basis von U1 ∩ U2 , d.h. dim(U1 ∩ U2 ) = r. Nach dem Basisergänzungssatz kann man B0 einerseits zu B1 = {v1 , . . . , vr , w1 , . . . , ws } als eine Basis von U1 (d.h. dim U1 = r + s), und andererseits zu B2 = {v1 , . . . , vr , z1 , . . . , zt } als eine Basis von U2 (d.h. dim U2 = r + t) ergänzen. Kann man nun zeigen, dass B3 = {v1 , . . . , vr , w1 , . . . , ws , z1 , . . . , zt } eine Basis von U1 + U2 ist, dann hat man gezeigt dim(U1 + U2 ) = r + s + t = (r + s) + (r + t) − r = dim U1 + dim U2 − dim(U1 ∩ U2 ) Dass B3 den Raum U1 + U2 erzeugt, ist klar. Übrig bleibt der Beweis der linearen Unabhängigkeit: Sei also für gesuchte α1 , . . . , αr , β1 , . . . , βs , γ1 , . . . , γt ∈ K: o = α1 · v1 + . . . + αr · vr + β1 · w1 + . . . + βs · ws + γ1 · z1 + . . . + γt · zt ⇒ −α1 · v1 − . . . − αr · vr − β1 · w1 − . . . − βs · ws = γ1 · z1 + . . . + γt · zt Das heißt aber −α1 · v1 − . . . − αr · vr − β1 · w1 − . . . − βs · ws = γ1 · z1 + . . . + γt · zt ∈ U1

55

Gleichzeitig gilt auch γ1 · z1 + . . . + γt · zt ∈ U2 also γ1 · z1 + . . . + γt · zt ∈ (U1 ∩ U2 ) Dieser Vektor kann somit als Linearkombination von B0 dargestellt werden, d.h. es gibt λ1 , . . . , λr mit γ1 · z1 + . . . + γt · zt = λ1 · v1 + . . . + λr · vr



o = λ1 · v1 + . . . + λr · vr − γ1 · z1 − . . . − γt · zt Da {v1 , . . . , vr , z1 , . . . , zt } = B2 Basis von U2 ist, also insbesondere linear unabhängig ist, folgt λ1 = . . . = λr = −γ1 = . . . = −γt = 0 also γ1 = . . . = γt = 0. Aus der ursprünglichen Gleichung folgt damit: o = α1 · v1 + . . . + αr · vr + β1 · w1 + . . . + βs · ws Es ist aber {v1 , . . . , vr , w1 , . . . , ws } = B1 eine Basis von B1 , insbesondere ist die Menge linear unabhängig, also folgt α1 = . . . = αr = β1 = . . . = βs = 0 D.h. alle Koeffizienten αi , βi , γi der Ausgangsgleichung sind 0, woraus die lineare Unabhängigkeit von {v1 , . . . , vr , w1 , . . . , ws , z1 , . . . , zt } = B3 folgt. 4.5.5

Direkte Summe

Definition 4.15. Ein Vektorraum heißt direkte Summe von U1 und U2 , wenn • V = U1 + U2 • U1 ∩ U2 = {o} Man schreibt dann: V = U1 ⊕ U2 4.5.6

Existenz von komplementären Unterräumen

Proposition 4.5.1. Ist U ein Untervektorraum von V , dann gibt es einen Unterraum U 0 mit U ⊕ U 0 = V . Beweis. Sei (v1 , . . . , vs ) = B eine Basis von U . B kann durch B 0 = (w1 , . . . , wt ) zu einer Basis (v1 , . . . , vs , w1 , . . . , wt ) von V ergänzt werden. Setze U 0 = hB 0 i. Weil B ∪ B 0 Basis von V ist, erzeugt B ∪ B 0 ⊆ (U1 + U2 ) bestimmt V , d.h. aber U1 + U2 = hU1 , U2 i = V . Weil B ∪ B 0 linear unabhängig ist, folgt aus v ∈ hBi = U ∧ v ∈ hB 0 i = U 0 dass v = o gelten muss, d.h. U ∩ U 0 = {o}. 4.5.7

Beispiel

R3 = he1 i + he2 i + he3 i 56

5

Lineare Abbildungen

5.1

Definitionen

5.1.1

Lineare Abbildungen

Definition 5.1. Seien V, W Vektorräume über K. Eine Abbildung F : V → W ist eine lineare Abbildung, wenn gilt L1 F (v1 + v2 ) = F (v1 ) + F (v2 ) ∀ v1 , v2 ∈ V - Additivität L2 F (λ · v) = λ · F (v) ∀ λ ∈ K, v ∈ V - Homogenität Lineare Abbildungen sind also Homomorphismen von Vektorräumen. Bemerkung. Zum Beweis der Linearität genügt zu zeigen: F (λ1 · v1 + λ2 · v2 ) = λ1 · F (v1 ) + λ2 · F (v2 ) 5.1.2

Beispiele

1. Achtung. f : R→R f (x) = a · x + b f ist affin linear, linear in unserem Sinne nur für b = 0. 2. Sei A ∈ K m×n eine Matrix über K:  a11  .. A= . am1

... .. . ...

 a1n ..  .  amn

Diese Matrix definiert eine lineare Abbildung durch A : Kn → Km       x1 ha1 , xi a11 · x1 + a12 · x2 + . . . + a1n · xn       .. .. x =  ...  7→  =  . . xn ham , xi am1 · x1 + am2 · x2 + . . . + amn · xn Man zeigt leicht, dass A : K n → K m linear ist. 3. Drehungen der Ebene um o

57

Eine Drehung um einen Winkel α ist eine Abbildung ρ α : R2 → R2 ρα (x, y) 7→ (x · cos α − y · sin α, x · sin α + y · cos α) ρα ist (bis auf Transposition) die Abbildung zur Matrix   cos α − sin α A= sin α cos α 4. Differentialoperator D : R[x] → R[x] n X k · ak · xk−1 ak · xk 7→

n X

k=0

k=0

Man zeigt leicht: D ist linear (Ableitungsregeln). 5.1.3

Lineare Abbildungen sind Vektorraumhomomorphismen

Definition 5.2. Sei F : V → W eine lineare Abbildung, also ein Vektorraumhomomorphismus. • Wenn F bijektiv ist, dann ist F ein Isomorphismus. • Wenn V = W , dann ist F ein Endomorphismus. • Wenn V = W und F bijektiv, dann ist F Automorphismus. 5.1.4

Eigenschaften von linearen Abbildungen

Bemerkung. Es gilt • F (o) = o • F (λ1 · v1 + . . . + λn · vn ) = λ1 · F (v1 ) + . . . + λn · F (vn ) • Ist U ein Unterraum von V , dann ist F (U ) ein Unterraum von W (U1 folgt aus der ersten Bemerkung, U2 und U3 aus der zweiten). 58

• Sind v1 , . . . , vn linear abhängig in V , dann sind F (v1 ), . . . , F (vn ) linear abhängig in W . Denn es gibt eine nicht-triviale Linearkombination von o durch v1 , . . . , vn . F auf diese Linearkombination angewandt ist einerseits, nach der ersten Bermerkung der Nullvektor in W , andererseits aber auch, nach der zweiten Bemerkung, eine Linearkombination von Vektoren F (v1 ), . . . , F (vn ). • Sei U ein Unterraum von V , dann gilt: dim(F (U )) ≤ dim(U ). Denn jede Familie von mehr als dim(U ) Vektoren aus U ist linear abhängig und nach der letzten Bermerkung ist dann auch jede Familie von mehr als dim(U ) Vektoren aus F (U ) linear abhängig. 5.1.5

Komposition linearer Abbildungen sind linear

Proposition 5.1.1. Seien U, V, W K-Vektorräume, G : V → W, F : U → V lineare Abbildungen, dann ist auch (G ◦ F ) : U → W linear. Beweis. Es sind Additivität und Homgenität zu zeigen. • Seien u1 , u2 ∈ U , dann gilt (G ◦ F )(u1 + u2 ) = G(F (u1 + u2 )) = G(F (u1 ) + F (u2 )) = G(F (u1 )) + G(F (u2 )) = (G ◦ F )(u1 ) + (G ◦ F )(u2 ) • Sei u ∈ U und λ ∈ K, dann gilt (G ◦ F )(λ · u) = G(F (λ · u)) = G(λ · F (u)) = λ · G(F (u)) = λ · (G · F )(u)

5.1.6

Vektorräume der Homomorphismen

Definition. Man bezeichnet die Menge aller Homomorphismen zwischen zwei KVektorräumen V und W als Hom(V, W ), also Hom(V, W ) = {F : V → W, F linear} Bemerkung. Hom(V, W ) ist ein Untervektorräum von Abb(V, W ) = W V . Beweis. Die Unterraumkriterien müssen erfüllt sein: U1 O : v 7→ o - die Nullabbildung - ist linear: Seien v1 , v2 ∈ V , λ1 , λ2 ∈ K. O(λ1 · v1 + λ2 · v2 ) = o = λ1 · o + λ2 · o = λ1 · O(v1 ) + λ2 · O(v2 ) U2 Abgeschlossenheit gegenüber der Addition, also (F + G) ∈ Hom für F, G ∈ Hom Seien v1 , v2 ∈ V , λ1 , λ2 ∈ K. (F + G)(λ1 · v1 + λ2 · v2 ) = F (λ1 · v1 + λ2 · v2 ) + G(λ1 · v1 + λ2 · v2 ) = λ1 · F (v1 ) + λ2 · F (v2 ) + λ1 · G(v1 ) + λ2 · G(v2 ) = λ1 · (F (v1 ) + G(v1 )) + λ2 · (F (v2 ) + G(v2 )) = λ1 · (F + G)(v1 ) + λ2 · (F + G)(v2 ) 59

U3 Abgeschlossenheit gegenüber der Skalarmultiplikation, also (λ · F ) ∈ Hom für F ∈ Hom, λ ∈ K Seien v1 , v2 ∈ V , λ1 , λ2 ∈ K. (λ · F )(λ1 · v1 + λ2 · v2 ) = λ · F (λ1 · v1 + λ2 · v2 ) = λ · (λ1 · F (v1 ) + λ2 · F (v2 )) = λ · λ1 · F (v1 ) + λ · λ2 · F (v2 ) = λ1 · (λ · F (v1 )) + λ2 · (λ · F (v2 )) = λ1 · (λ · F )(v1 ) + λ2 · (λ · F )(v2 ) Also ist Hom(V, W ) ein Unterraum von W V . 5.1.7

Menge der Endomorphismen

Definition. Die Menge der Endomorphismen eines Vektorräums bezeichnet man mit End(V ), also End(V ) := Hom(V, V ) Satz 5.1.1. End(V ) mit + (von Hom) und ◦ (Komposition) ist ein Ring. Beweis. Es sind die Ringaxiome nachzuweisen R1 (End(V ), +) ist eine abelsche Gruppe, weil (End(V ), +, ·) ein K-Vektorraum ist. R2 Die Komposition ist immer assoziativ; sie ist auch eine Operation ◦ : End(V ) × End(V ) → End(V ), weil die Verknüpfüng zweier Endomorphismen F, G ∈ End(V ) wieder ein Endomorphismus ist. R3 Distributivgesetze: Seien F, G, H ∈ End(V ), dann gilt für alle v ∈ V : (F ◦ (G + H)) (v) = F ((G + H)(v)) = F (G(v) + H(v)) = F (G(v)) + F (H(v)) = (F ◦ G)(v) + (F ◦ H)(v) und ((F + G) ◦ H) (v) = (F + G)(H(v)) = F (H(v)) + G(H(v)) = (F ◦ H)(v) + (G ◦ H)(v) • (End(V ), +, ◦) hat sogar ein Einselement: die identische Abbildung idV .

5.2

Bild, Faser, Kern

5.2.1

Definitionen

Definition 5.3. Für F : V → W linear, ist • das Bild: im F = F (V ) = {w ∈ W | ∃ v ∈ V : F (v) = w} ⊆ W

60

• der Kern: ker F = F −1 (o) = {v ∈ V | F (v) = o} ⊆ V Die Faset von F über w ∈ im F ist F −1 (w) = {v ∈ V | F (v) = w} ⊆ V Bemerkung. Sei F : V → W ist linear. (a) im F ⊆ W ist ein Untervektorraum von W . (b) ker F ⊆ V ist ein Untervektorraum von V . (c) F surjektiv genau dann, wenn im F = W (per Definition). (d) F injektiv genau dann, wenn ker F = {o}. (e) F injektiv, dann gilt: Sind v1 , . . . , vn linear unabhängig in V , dann sind F (v1 ), . . . , F (vn ) linear unabhängig von W . Beweis. Sei F : V → W ist linear. (a) Es sind die Untervektorraumaxiome nachzuweisen: U1 F (o) = o, d.h. o ∈ im F X U2 w1 , w2 ∈ im F ⇒ ∃ v1 , v2 ∈ V : F (v1 ) = w1 , F (v2 ) = w2 , und dann F (v1 + v2 ) = F (v1 ) + F (v2 ) = w1 + w2 also w1 + w2 ∈ im F . U3 λ ∈ K, w ∈ im F ⇒ ∃, v ∈ V : F (v) = w, und dann F (λ · v) = λ · F (v) = λ · w also λ · w ∈ im F . (b) Es sind die Untervektorraumaxiome nachzuweisen: U1 F (o) = o, d.h. o ∈ ker F X U2 v1 , v2 ∈ ker F , d.h. F (v1 ) = F (v2 ) = o, also auch F (v1 + v2 ) = F (v1 ) + F (v2 ) = o + o = o U3 λ ∈ K, v ∈ ker F , d.h. F (v) = o, und auch F (λ · v) = λ · F (v) = λ · o = o (d) Wenn F injektiv, dann gilt natürlich auch ker F = F −1 (o) = {o}. Sei andererseits ker F = F −1 (o) = {o}. Wenn v 6= v 0 , dann ist v − v 0 6= o, also F (v − v 0 ) 6= o ⇔ F (v) − F (v 0 ) 6= o ⇔ F (v) 6= F (v 0 ) also ist F injektiv. 61

(e) Betrachte λ1 · F (v1 ) + . . . + λk · F (vk ) = o ⇔ F (λ1 · v1 + . . . + λk · vk ) = o Aus der Injektivität folgt ker F = {o}, also λ1 · v1 + . . . + λk · vk = o Aus der linearen Unabhängigkeit folgt dann λ1 = . . . = λk = 0

5.2.2

Rang einer linearen Abbildung

Definition 5.4. Wenn F : V → W eine lineare Abbildung ist, dann ist der Rang von F definiert als rangF = rkF = dim(im F ). 5.2.3

Rang einer Matrix

Proposition 5.2.1. Sei A ∈ K m×n eine m × n Matrix, dann ist der Rang der linearen Abbildung A : K n → K m die Dimension des von den Spalten a1 , . . . , an von A erzeugten Untervektorraums von K m .

Beweis. Es gilt sogar: im A = a1 , . . . , an : i 1 n ⊇ ai ∈ im

1A, weil nA·e i = a . Und weil im F ein Vektorraum ist, ist mit a , . . . , a auch a , . . . , a in im F enthalten.

⊆ Sei y ∈ im A, d.h. es existiert ein x ∈ K n mit y = A · x = a1 · x1 + a2 · x2 + . . . + an · xn | {z } ∈ha1 ,...,an i

5.2.4

Faserung eines Vektorraums

Bemerkung. Sei F : V → W linear. Sei w ∈ im F , d.h. es existiert ein v0 ∈ V mit F (v0 ) = w. Die Faser über w ist dann F −1 (w) = v0 + ker F = {v0 + v | v ∈ ker F } Beweis. Zu zeigen ist: {v ∈ V | F (v) = w} = {v0 + v | v ∈ ker F } ⊇ Sei v ∈ ker F , dann folgt F (v0 + v) = F (v0 ) + F (v) = w + o = w also v0 + v ∈ F −1 (w). 62

⊆ Sei u ∈ F −1 (w), d.h. F (u) = w = F (v0 ) und damit F (u) − F (v0 ) = F (u − v0 ) = o. Damit ist aber u − v0 ∈ ker F und u = v0 + (u − v0 ), also u ∈ | {z } ∈ker F

v0 + ker F .

5.2.5

Affine Teilräume

Definition 5.5. Eine Teilmenge X eines Vektorraums V ist ein affiner Teilraum (oder auch: affiner Unterraum), falls es einen Unterraum U von V gibt, sodass X = v + U für ein v ∈ V . Bemerkung. Wir haben gesehen: Die Fasern einer linearen Abbildung F : V → W sind affine Teilräume von V . Es gilt auch: Jeder affine Teilraum ist eine Faser einer linearen Abbildung. 5.2.6

Beispiel 2

Im R und R3 gibt es als affine Unterräume Punkte, Geraden, Ebenen. Zudem ist auch R3 selbst ein affiner Unterraum. Sei F : R2 → R3 die Projektion parallel zur x-Achse auf die Gerade x = y.

 Diese Abbildung ist linear: F

x y



dann

5.2.7

 , sie wird durch die Matrix

0 0

1 1



   p ∈ R2 . Die Faser eines Punktes ist p        p x p F −1 = | x ∈ R2 = + ker F p p p

Der Kern von F ist ker F =



y y

= 

realisiert.



x 0



Charakterisierung von affinen Unterräumen

Proposition 5.2.2. Sei X = v + U ein affiner Unterraum von V . Wenn X = v 0 + U 0 , dann gilt 1. v ∈ X, v 0 ∈ X, und vor allem v − v 0 ∈ U , 63

2. U = U 0 Tatsächlich gilt für jedes x ∈ X: X = x + U . Beweis. Wenn X = v + U = v 0 + U 0 , dann gilt eben 1. v = v + o ∈ X und v 0 = v 0 + o ∈ X, 2. damit dann v = v 0 +u0 und v 0 = v+u für bestimmte u ∈ U, u0 ∈ U 0 , zusammen v = (v + u) + u0 = v + u + u0 ⇔ o = u + u0 ⇔ u = −u0 Wegen u ∈ U ist auch −u = −(−u0 ) = u0 ∈ U , analog u ∈ U 0 , also insgesamt U = U 0. Schließlich folgt: v = v 0 + u für ein u ∈ U , also v − v 0 = u ∈ U .

6

Bildquellen • http://de.wikipedia.org/wiki/Bild:Injektivit%C3%A4t_Mengenwolke.png • http://de.wikipedia.org/wiki/Bild:Surjektivit%C3%A4t_Mengenwolke.png • http://de.wikipedia.org/wiki/Bild:Bijektivit%C3%A4t_Mengenwolke.png

Alle weiteren Bilder erstellt mit GeoGebra und dem GIMP.

64

Related Documents